Israel Pakai AI untuk Bombardir Palestina, Seberapa Bahaya?

CNN Indonesia
Rabu, 22 Nov 2023 10:51 WIB
Israel menggunakan AI untuk menargetkan 'lawan' dalam pertempuran melawan Hamas di Gaza. Sebahaya apa penggunaan AI dalam agresi ke Palestina?
Ilustrasi. Israel menggunakan AI untuk menargetkan 'lawan' dalam pertempuran melawan Hamas di Gaza. (Foto: REUTERS/AMMAR AWAD)

Israel mengatakan keputusan akhir untuk meluncurkan serangan selalu diambil oleh manusia. Namun, ketika perang terjadi dalam skala besar, masih mungkinkah manusia melakukan pengamatan secara cermat?

"Bahkan ketika ada manusia yang meninjau keputusan AI, itu hanya membutuhkan waktu beberapa menit dan kami tidak begitu yakin seberapa banyak uji tuntas yang dilakukan orang-orang ini sebelum menyetujui keputusan yang dibuat AI," kata Anwar Mhajne, Asisten Profesor di Stonehill College Boston.

"Ada juga kekhawatiran bahwa ketergantungan pada sistem AI dapat menciptakan rasa percaya diri yang salah di mana Anda seperti, oke, jadi AI membuat keputusan ini dan mengumpulkan data, jadi saya akan segera menyetujuinya dan target tersebut dilegitimasi berdasarkan data yang dikumpulkan oleh AI," lanjutnya.

ADVERTISEMENT

SCROLL TO CONTINUE WITH CONTENT

Menurutnya, AI di militer pada dasarnya adalah algoritma Kotak Hitam, sehingga proses pengambilan keputusannya kabur dan terlalu rumit untuk dipahami oleh manusia mana pun, apalagi untuk diintervensi.

Menurut Mhajne penggunaan AI dalam serangan Israel ke Palestina ini berpeluang menghilangkan 'rasa bersalah' karena mereka tidak melihat langsung korbannya secara langsung.

"Sangat memprihatinkan bahwa kita menghilangkan unsur manusia ke manusia, karena dengan sistem AI, sangat cepat, sangat mudah. Anda tidak merasa bersalah. Anda bahkan tidak melihat korbannya. Jadi itu membuatnya terlihat seperti video game, benar. Dan itu juga menghilangkan tanggung jawab yang Anda miliki, terhadap korban sipil," kata Mhajne.

Paul Scharre, wakil presiden Center for a New American Security mengatakan bahwa sistem AI terkenal tidak dapat diandalkan dan rapuh, terutama ketika ditempatkan pada situasi yang berbeda dengan data pelatihannya.

Scharre mengaku tidak mengetahui rincian sistem spesifik yang mungkin digunakan IDF, tetapi AI dan otomatisasi yang membantu dalam siklus penargetan mungkin akan digunakan dalam skenario seperti perburuan Israel terhadap personel dan material Hamas di Gaza. Penggunaan AI di medan perang berkembang dengan cepat, katanya, tetapi membawa risiko yang signifikan.

"Setiap AI yang terlibat dalam keputusan penargetan, risiko utamanya adalah Anda menyerang target yang salah," kata Scharre, mengutip Los Angeles Times.

"Ini bisa menyebabkan korban sipil atau menyerang target yang bersahabat dan menyebabkan pembunuhan," lanjutnya.

Selain itu, sistem AI apa pun yang berusaha mengotomatiskan dan mempercepat pemilihan target meningkatkan kemungkinan kesalahan yang dibuat dalam prosesnya akan lebih sulit untuk dilihat.

Jika militer merahasiakan cara kerja sistem AI mereka, tidak ada cara untuk menilai jenis kesalahan yang mereka buat.

"Saya pikir militer harus lebih transparan dalam cara mereka menilai atau melakukan pendekatan terhadap AI," ungkap Scharre.

"Salah satu hal yang telah kita lihat dalam beberapa tahun terakhir di Libya atau Ukraina adalah zona abu-abu. Akan ada tuduhan bahwa AI digunakan, tetapi algoritme atau data pelatihannya sulit untuk diungkap, sehingga menilai apa yang dilakukan oleh militer jadi tantangan."

Bahkan dengan kesalahan yang tertanam dalam kode pembunuhan itu, AI sementara itu dapat memberikan lapisan kredibilitas pada target yang mungkin tidak dapat diterima oleh operator pangkat dan jabatan.

Israel masih terus menggempur Gaza. Sejauh ini, jumlah korban jiwa agresi di Gaza sudah mencapai 13.300 orang, dan mayoritas korban adalah anak-anak dan perempuan.



(tim/dmi)


[Gambas:Video CNN]

HALAMAN:
1 2
LAINNYA DI DETIKNETWORK
LIVE REPORT
TERPOPULER