Belum Terbuka untuk Umum, AI Milik Meta Bocor di Forum Internet

CNN Indonesia
Kamis, 09 Mar 2023 14:00 WIB
AI milik Meta, LLaMA, bocor di forum internet saat statusnya belum dibuka untuk publik. Ulah siapa?
Ilustrasi. AI milik Meta bocor di internet sebelum rilis resminya. (REUTERS/Kacper Pempel)
Jakarta, CNN Indonesia --

Platform kecerdasan buatan (AI) besutan Meta, LLaMA, yang baru dirilis dua pekan lalu bocor di jagat maya padahal statusnya belum terbuka untuk publik.

LLaMA merupakan kontribusi Meta terhadap lonjakan teknologi bahasa AI yang menjanjikan cara baru untuk berinteraksi dengan komputer.

Meta tidak merilis LLaMA sebagai chatbot publik. Platform tersebut baru dapat diakses oleh komunitas AI. Tujuannya adalah "mendemokratisasi akses" ke AI untuk melakukan penelitian lanjutan terhadap masalah-masalahnya.

ADVERTISEMENT

SCROLL TO CONTINUE WITH CONTENT

"Dengan semua kemajuan terbaru dalam model bahasa yang besar, akses penelitian penuh terhadap [LLaMA] tetap terbatas karena sumber daya yang diperlukan untuk melatih dan menjalankan model yang besar," kata perusahaan dalam sebuah unggahan blog.

"Akses yang terbatas ini telah membatasi kemampuan peneliti untuk memahami bagaimana dan mengapa model bahasa yang besar ini bekerja, sehingga menghambat kemajuan dalam upaya untuk meningkatkan ketangguhan dan mengurangi masalah yang diketahui, seperti bias, toksisitas, dan potensi menghasilkan informasi yang salah."

Satu minggu setelah Meta mulai menerima permintaan untuk mengakses LLaMA, model tersebut bocor secara online.

Pada 3 Maret, sebuah torrent (meta-data untuk disebar) yang dapat diunduh dari sistem tersebut di-posting di forum 4chan. Sejak saat itu, platform tersebut menyebar ke berbagai komunitas AI.

Hal ini memicu perdebatan tentang cara yang tepat untuk membagikan penelitian mutakhir di era perubahan teknologi.

Beberapa orang mengatakan kebocoran tersebut akan menimbulkan konsekuensi yang mengganggu dan menyalahkan Meta karena mendistribusikan teknologi tersebut secara bebas.

"Bersiaplah untuk menerima banyak spam yang dipersonalisasi dan upaya phishing," kicau peneliti keamanan siber Jeffrey Ladish setelah berita ini beredar.

"Membuka sumber model ini adalah ide yang buruk," sambungnya.

Platform itu diakses publik dengan dalih untuk mengembangkan perlindungan bagi sistem AI dan model bahasa yang sama rumitnya dengan yang sudah dipublikasikan tanpa menyebabkan kerusakan signifikan.

"Kami telah diberitahu untuk sementara waktu sekarang bahwa gelombang penggunaan [model bahasa AI] yang berbahaya akan datang," tulis peneliti Sayash Kapoor dan Arvind Narayanan dalam sebuah posting blog.

"Namun, tampaknya tidak ada kasus yang terdokumentasi," sambungnya.

Berdasarkan laporan The Verge, sejumlah peneliti AI telah mengunduh sistem yang bocor dan mengatakan bahwa sistem tersebut sah.

Peneliti membandingkan versi yang bocor dengan model LLaMA resmi yang didistribusikan oleh Meta dan mengonfirmasi bahwa mereka cocok.

Meta menolak menjawab pertanyaan dari The Verge tentang keaslian atau asal bocoran tersebut.

Kendati demikian, Joelle Pineau, direktur pelaksana Meta AI, mengonfirmasi dalam sebuah pernyataan pers bahwa "meskipun model [LLaMA] tidak dapat diakses oleh semua orang... beberapa orang mencoba menghindari proses persetujuan."

[Gambas:Video CNN]

(lom/arh)
LAINNYA DI DETIKNETWORK
LIVE REPORT
TERPOPULER