Dipakai di Kasus Ade Armando, Face Recognition Punya Akurasi Lemah

CNN Indonesia
Kamis, 14 Apr 2022 14:57 WIB
Ilustrasi. Teknologi pengenalan wajah, berdasarkan sejumlah studi, jauh dari akurat dalam mendeteksi muka. (Foto: Unsplash/Pixabay)
Jakarta, CNN Indonesia --

Teknologi face recognition atau pengenalan wajah dinilai masih kerap tak akurat atau salah mengidentifikasi subjek, terutama untuk ras-ras tertentu, karena masalah pada algoritma

Sebelumnya, polisi meleset dalam mengidentifikasi pelaku pengeroyokan aktivis politik Ade Armando usai menggunakan face recognition yang bernama Abdul Manaf.

"Karena orang yang kita duga pelaku itu menggunakan topi, sehingga begitu topinya dibuka tingkat akurasinya tidak 100 persen. Jadi Abdul Manaf bisa dikatakan bukan sebagai pelaku," aku Kepala Bidang Humas Polda Metro Jaya Kombes E Zulpan, Rabu (13/4).

Lantas kenapa itu bisa terjadi? Sebuah studi pemerintah Amerika Serikat pada 2019 menunjukkan algoritma pengenalan wajah tak begitu akurat dalam mengidentifikasi beberapa wajah dari ras Afro-Amerika dan Asia.

Kemungkinan salah identifikasi lebih besar ditemukan pada perempuan Afro-Amerika. Hal ini menimbulkan keraguan apakah teknologi tersebut harus digunakan oleh lembaga penegak hukum.

Sebuah studi Massachusetts Institute of Technology (MIT) menunjukkan bahwa Rekognition, yang merupakan produk Amazon yang dijual ke polisi AS, berkinerja buruk dalam mengenali wanita dengan kulit lebih gelap. Raksasa ritel milik miliarder Jeff Bezos itu pun menuding simpulan itu "menyesatkan". 

Menurut laporan MIT, saat mencocokkan foto tertentu dengan foto lain dengan wajah yang sama, banyak algoritma yang salah mengidentifikasi wajah Afro-Amerika dan Asia.

Temuan kesalahan identifikasi itu terjadi 10 hingga 100 kali lebih banyak daripada pengenalan wajah Kaukasia.

Anggota Kongres Bennie Thompson, Ketua Komite Keamanan Dalam Negeri AS, mengatakan pemerintah harus menilai kembali rencananya untuk teknologi pengenalan wajah mengingat hasil yang mengejutkan ini.

Ilmuwan komputer dan pendiri Algorithmic Justice League Joy Buolamwini menyebut laporan itu merupakan bantahan yang komprehensif bagi mereka yang menilai wajar bias dalam perangkat lunak kecerdasan buatan.

Institut Nasional Standars dan Teknologi (NIST) AS lantas menguji 189 algoritma dari 99 pengembang, termasuk Intel, Microsoft, Toshiba, dan perusahaan China Tencent dan DiDi Chuxing.

Amazon, yang produknya pernah ditinjau negatif oleh MIT, tidak mengirimkan satu pun sampel algoritma Rekognition untuk diriset tim peneliti.

Algoritma dalam studi NIST diuji pada dua jenis kesalahan, yaitu positif palsu, di mana perangkat lunak salah menganggap foto dua individu yang berbeda menunjukkan orang yang sama; dan negatif palsu, di mana perangkat lunak gagal mencocokkan dua foto yang menunjukkan orang yang sama.

Perangkat lunak tersebut menggunakan foto dari database yang disediakan oleh Departemen Luar Negeri, Departemen Keamanan Dalam Negeri, dan Biro Investigasi Federal (FBI), tanpa gambar dari media sosial atau pengawasan video.

"Meskipun biasanya tidak benar untuk membuat pernyataan [yang sama] untuk seluruh algoritma, kami menemukan bukti empiris soal perbedaan demografis di sebagian besar algoritma pengenalan wajah yang kami pelajari," kata Patrick Grother, ilmuwan komputer NIST yang juga penulis utama laporan tersebut.

Salah satu perusahaan China, SenseTime, yang algoritmenya ditemukan tidak akurat, mengatakan itu adalah hasil dari "bug" yang sekarang telah diatasi.

"Hasilnya tidak mencerminkan produk kami, karena mereka menjalani pengujian menyeluruh sebelum memasuki pasar. Inilah sebabnya mengapa semua solusi komersial kami melaporkan tingkat akurasi yang tinggi," kata seorang juru bicara kepada BBC.

Beberapa kota di AS, termasuk San Francisco dan Oakland di California, dan Somerville, Massachusetts, telah melarang penggunaan teknologi pengenalan wajah.

Bersambung ke halaman berikutnya...

Kesalahan Identifikasi Tinggi pada Wajah Warga Afro-Amerika


BACA HALAMAN BERIKUTNYA
HALAMAN :