Kelompok Ilmuwan Dunia Merilis Laporan Soal Ancaman AI terhadap Umat Manusia
https://www.naviri.org/2021/01/kelompok-ilmuwan-dunia-merilis-laporan.html
Naviri Magazine - Ketika kita memikirkan tentang kecerdasan buatan, kita cenderung membayangkan machine learning bermanfaat seperti Siri atau Alexa. Tetapi kenyataannya, teknologi AI ada di sekitar kita, yang kebanyakan berfungsi sebagai proses latar belakang. Sulit bagi kita untuk menerima AI, karena faktanya teknologi ini mulai mengambil alih dunia, mulai dari bidang kedokteran sampai keuangan.
Teknologi kecerdasan buatan sama sekali berbeda dari yang digambarkan di film Hollywood seperti Deus Ex Machina atau Her. Nyatanya, kebanyakan teknologi ‘kecerdasan buatan’ masa sekarang belum secerdas namanya. Kecerdasan buatan memang bisa memenangkan catur Jepang Go, tetapi tidak bisa membedakan kura-kura dan senjata.
Intinya, kecerdasan buatan masih di tahap awal sekali. Tapi sekelompok 26 peneliti teknologi AI terkemuka merasa potensi merusak dari kecerdasan buatan patut diwaspadai dari sekarang. Para peneliti tersebut bertemu di Oxford, membahas peluang kecerdasan buatan membahayakan umat manusia di masa depan.
Hasil dari konferensi yang diselenggarakan selama dua hari itu adalah laporan setebal 100 halaman. Isinya menyelidiki risiko teknologi AI, apabila dikendalikan oleh pihak yang tidak bertanggung jawab, serta strategi untuk mengurangi risikonya.
Poin utama dalam laporan tersebut menyarankan, “peneliti dan perancang teknologi kecerdasan buatan harus menggunakan fungsi dual-use mereka secara serius, yang memungkinkan pertimbangan terkait penyalahgunaan untuk memengaruhi prioritas dan norma penelitian, dan secara proaktif menjangkau perancang yang relevan saat penerapan teknologinya bisa membahayakan manusia.”
Saran ini ada hubungannya dengan “deepfake” yang ramai dibicarakan belakangan ini. Deepfake adalah metode machine learning untuk mengedit wajah aktris Hollywood ke tubuh bintang film porno. Seperti dilaporkan pertama kali oleh Sam Cole di artikel Motherboard, aplikasi deepfake sangat mungkin tercipta dengan mengadaptasi perpustakaan open-source bernama TensorFlow.
Teknologi ini awalnya dikembangkan oleh para staf departemen pengembangan produk Google. Deepfake menekankan fungsi dual-use dari teknologi kecerdasan buatan, dan juga membuat kita bertanya-tanya siapa yang seharusnya diperbolehkan mengakses AI.
Meskipun deepfake secara khusus disebutkan dalam laporan tersebut, para peneliti juga menyoroti penggunaan cara serupa untuk memanipulasi video pemimpin negara sebagai ancaman terhadap keamanan politik, satu dari tiga domain ancaman yang dipertimbangkan oleh para peneliti.
Bisa saja, ada hacker membuat video palsu yang menampilkan Trump menyatakan perang terhadap Korea Utara. Video tersebut beredar sampai Pyongyang. Kita bisa membayangkan bahaya apa yang akan terjadi selanjutnya. Para peneliti menambahkan, penggunaan teknologi AI bisa disalahgunakan demi kepentingan politik lainnya.
Teknologi AI juga bisa berisiko bagi keamanan digital dan fisik. Dalam hal keamanan digital, teknologi kecerdasan buatan yang bisa digunakan untuk menyerang seseorang lewat dunia maya akan “mengurangi tarik-ulur yang ada antara skala dan efisiensi serangan.” AI bisa melakukan serangan siber dengan cara menyamar atau meniru suara korban untuk mengambil data pribadi mereka.
Untuk ancaman fisik, para peneliti mempertimbangkan meningkatnya ketergantungan dunia nyata pada sistem otomatis. Aplikasi smart homes dan mobil yang bisa bergerak otomatis sudah semakin berkembang, teknologi AI dapat digunakan untuk menumbangkan sistem ini dan menyebabkan kerusakan.
Lalu ada ancaman yang sengaja dibuat oleh sistem AI seperti senjata otonom atau microdrone.
Microdrone otonom memang baru perumpamaan, dan mungkin tidak akan terjadi dalam waktu dekat, tetapi serangan siber skala besar, senjata otonom, dan manipulasi video sudah menimbulkan masalah.
Untuk mengatasi ancaman ini, dan memastikan AI digunakan untuk hal yang bermanfaat bagi manusia, para peneliti merekomendasikan perancang teknologi AI untuk mengembangkan solusi kebijakan baru dan mengeksplorasi berbagai “model keterbukaan” untuk mengurangi risiko AI.
Misalnya, para peneliti menyarankan bahwa model perizinan akses sentral dapat mencegah risiko teknologi AI jatuh ke pihak yang tidak bertanggung jawab, atau menerapkan beberapa jenis program pemantauan untuk mengawasi penggunaan teknologi AI.
“Tren saat ini menekankan akses terbuka yang luas terhadap pencapaian penelitian dan pengembangan mutakhir AI,” tulis para peneliti. “Jika tren ini berlanjut sampai lima tahun ke depan, kami khawatir kemampuan penyerang untuk menciptakan bahaya dengan menggunakan sistem digital dan robot akan meningkat secara signifikan.”
Di sisi lain, para peneliti menyadari bahwa perkembangan teknologi AI open-source juga akan semakin menarik perhatian para pembuat kebijakan dan aturan, yang akan memberlakukan lebih banyak keterbatasan pada teknologi ini. Kebijakan ini nantinya harus dilakukan di tingkat lokal, nasional dan internasional.
“Masih ada banyak ketidaksepakatan antara rekan peneliti laporan ini, apalagi di antara berbagai komunitas ahli di dunia,” laporan tersebut menyimpulkan. “Ketidaksepakatan ini tidak dapat terselesaikan sampai kami mendapatkan lebih banyak data saat ancaman dan tanggapan lainnya terungkap, namun ketidakpastian dan ketidaksepakatan ini seharusnya tidak menghentikan kami untuk melakukan pencegahan mulai sekarang.”