Jakarta, CNN Indonesia -- Elon Musk, CEO SpaceX memberikan dana US$ 10 juta atau setara Rp 126 miliar kepada lembaga sosial demi menjaga agar kecerdasan buatan (robot) tidak menjadi berbahaya bagi umat manusia.
Future of Life Institute (FLI) merupakan lembaga sosial yang menjalankan program penelitian global dengan tujuan menjaga kecerdasan buatan agar tetap bermanfaat bagi manusia. Lembaga ini bertindak sebagai pengawas dalam penelitian pengembangan kecerdasan buatan yang dilakukan setiap perusahaan di dunia.
"Para peneliti kecerdasan buatan menilai bahwa keamanan adalah hal yang sangat penting. Saya setuju dengan mereka, jadi saya memberikan sumbangan ini untuk mendukung penelitian yang bertujuan untuk menjaga kecerdasan buatan agar tetap bermanfaat dan tidak berbahaya bagi manusia," kata Elon Musk dikutip dari
Wired, Jumat (16/1).
ADVERTISEMENT
SCROLL TO CONTINUE WITH CONTENT
Donasi ini rencananya akan disalurkan kepada para peneliti yang melakukan pengembangan untuk menjaga keamanan kecerdasan buatan. Pada Senin pekan depan, FLI akan membuka sebuah situs portal yang memungkinkan peneliti untuk mengajukan proposal untuk mendapatkan sumbangan dana penelitian tersebut.
Selain itu, donasi tersebut juga akan diberikan untuk penelitian pada bidang lain. Seperti ekonomi, hukum dan bidang lainnya. FLI juga mengatakan donasi ini akan terbuka untuk berbagai kalangan baik individu, akademisi bahkan industri.
Elon Musk dan Future of Life Institute (FLI) memiliki anggapan yang sama mengenai kecerdasan buatan. Mereka menilai jika teknologi ini tidak mendapat pengawasan dan dikembangkan secara berlebihan maka akan membahayakan kehidupan manusia.
Bahkan Musk mengatakan bahwa kecerdasan buatan akan lebih berbahaya dari senjata nuklir. Bahkan ia memprediksi kecerdasan buatan akan menjadi 'terminator' yang memusnahkan kehidupan manusia.
Sejalan dengan Musk, FLI pekan lalu membuat sebuah surat terbuka kepada para peneliti kecerdasan buatan. Surat ini berisi tanda tangan para ilmuwan kecerdasan buatan yang menyerukan agar penelitian dan pengembangan teknologi ini dapat dijaga agar tidak berlebihan. Serta memastikan sistem kecerdasan buatan tidak digunakan untuk kejahatan.
(eno/eno)