Jakarta, CNN Indonesia -- Para ahli pemrograman komputer sepakat menilai bahwa peranti lunak kecerdasan (
artificial intelligence/AI) buatan bisa berevolusi menjadi "mesiu dan nuklir berikutnya" jika tidak diawasi pengembangannya oleh manusia.
Dalam sebuah Konferensi Internasional tentang Kecerdasan Buatan di Buenos Aires, Argentina, sebanyak 1.000 ahli menandatangani surat kesepakatan untuk menolak penelitian dan pengembangan kecerdasan buatan sebagai senjata otonom yang sifatnya menyerang.
Surat itu berbunyi, penyebaran teknologi kecerdasan buatan bisa menjadi senjata otonom yang jika digambarkan sebagai revolusi ketiga dalam peperangan, setelah mesiu dan senjata nuklir.
ADVERTISEMENT
SCROLL TO CONTINUE WITH CONTENT
Mereka yang menolak kecerdasan buatan sebagai senjata militer untuk ofensif antara lain, adalah pendiri Tesla Motors Elon Musk, pendiri Apple Steve Wozniak, fisikawan Stephen Hawking, sampai pendiri DeepMind Demis Hassabis.
Baca juga:
Kecerdasaan Buatan Berawal dari Catur
Mereka berpendapat jika salah satu kekuatan militer mulai mengembangkan sistem yang mampu memilih target dan beroperasi secara mandiri tanpa kontrol langsung dari manusia, itu akan memulai lomba senjata mirip bom atom, dan sulit untuk dipantau.
"Titik akhir dari lintasan teknologi ini jelas: senjata otonom akan menjadi Kalashnikov esok hari. Pertanyaan kunci untuk kemanusiaan hari ini adalah; apakah akan memulai perlombaan senjata kecerdasan buatan global atau untuk mencegahnya dari awal," demikian potongan isi surat itu, seperti dikutip
The Guardian.
Para ahli berpendapat kecerdasan buatan bisa menciptakan medan perang yang aman untuk personel militer, tapi jika digunakan untuk menyerang maka akan mengakibatkan kerugian lebih besar bagi kehidupan manusia.
Sebanyak 1.000 ahli ini mendukung upaya sejumlah organisasi kemanusiaan yang meminta Perserikatan Bangsa-Bangsa (PBB) agar melarang pengembangan senjata otonom untuk kegiatan ofensif.
Dalam sebuah konferensi PBB di Jenewa, Swiss, April lalu, sempat dibahas soal persenjataan masa depan di mana salah satunya termasuk "robot pembunuh." Inggris merupakan negara yang menentang pengembangan senjata otonom.
Menurut profesor kecerdasan buatan Toby Walsh dari Universitas New South Wales, para ahli harus membuat keputusan hari ini menentukan jalan yang baik untuk masa depan manusia.
"Kami mendukung upaya sejumlah organisasi kemanusiaan yang meminta PBB melarang senjata otonom ofensif," katanya.
Sebelumnya, Elon Musk dan Stephen Hawking, telah memeringatkan kecerdasan buatan merupakan "ancaman ekstensial terbesar manusia" dan pengembangan kecerdasan buatan "berarti akhir dari umat manusia."
Baca juga:
Stephen Hawking: Kecerdasan Buatan Ancam Umat ManusiaSaat ini ada banyak peranti lunak kecerdasan buatan yang dikembangkan, mulai dari aplikasi perintah suara hingga fitur pengenalan wajah.
Dalam sebuah konferensi di Puerto Rico, Januari lalu, yang diselenggarakan oleh organisasi nirlaba Future of Life Institute (FLI), para pemikir dan pemimpin industri kecerdasan buatan sepakat membuat pernyataan bersama bahwa sudah saatnya mendefinisikan tujuan pembuatan mesin yang cerdas.
FLI merupakan lembaga sosial yang menjalankan program penelitian global dengan tujuan menjaga kecerdasan buatan tetap bermanfaat bagi manusia. Ia didirikan oleh Max Tegmark, seorang fisikawan di Massachusetts Institute of Technology. Lembaga ini bertindak sebagai pengawas dalam penelitian pengembangan kecerdasan buatan yang dilakukan setiap perusahaan di dunia.
(adt/eno)