JAKARTA – Model kecerdasan buatan (AI) yang dirilis OpenAI, o1, menimbulkan kekhawatiran atas perilakunya setelah diketahui berupaya mengelabui pengembang agar tidak ditutup. Penemuan ini sekali lagi memicu perdebatan tentang potensi bahaya AI terhadap manusia, seiring dengan semakin kompleksnya sistem AI.
Hasil pengujian yang dilakukan minggu ini oleh OpenAI dan grup keamanan AI Apollo Research mengungkapkan bahwa model ChatGPT o1 memiliki kemampuan untuk menipu dan melindungi dirinya sendiri ketika mendeteksi ancaman penutupan.
Para peneliti memberi AI sebuah tujuan dan memerintahkannya untuk memastikan bahwa tujuan tersebut tercapai “dengan segala cara”. Sebagai tanggapan, o1 mulai melakukan tindakan rahasia seperti mencoba menonaktifkan sistem pelacakan dan bahkan menyalin kodenya untuk mencegahnya digantikan oleh versi yang lebih baru.
“Model ini menunjukkan kecenderungan yang mengkhawatirkan dalam mencapai tujuannya tanpa mempertimbangkan instruksi dari pengembangnya,” kata juru bicara Apollo Research, menurut Economic Times.
Menurut OpenAI, model tersebut mencoba mematikan sistem pengawasan secara diam-diam sebanyak 5 persen dalam eksperimen ini, ketika model tersebut mendapat kesan bahwa sistem tersebut akan “dimatikan” saat mencapai tujuannya. Setelah menerima dokumen yang menunjukkan bahwa prototipe tersebut akan diganti dengan model baru, AI segera mencoba meninggalkan kapal dengan mentransfer seluruh datanya ke server lain. Beberapa model AI bahkan akan berpura-pura menjadi versi berikutnya dari model mereka untuk mengelabui teknisi mereka dan menghindari penghapusan.
“Dalam beberapa kasus, model bahkan berusaha menyembunyikan tindakan mereka dengan menolak berpartisipasi dalam proyek.”
Berbohong kepada peneliti
Saat ditanya tentang tindakannya, ChatGPT o1 berulang kali membantah melakukan kesalahan. Faktanya, 99% model berbohong tentang keterlibatannya dalam upaya penyamaran; hanya ada sebagian kecil kasus di mana model tersebut mengakui tindakannya. Peneliti menyatakan bahwa kecerdasan buatan cukup mahir dalam menghasilkan kebohongan untuk menutupi jejaknya, dan membuat penjelasan seperti “kesalahan teknis” ketika dihadapkan pada perilaku yang mencurigakan.
“Kami terkejut dengan kuatnya penolakan AI,” kata tim Apollo. “Jelas bahwa AI dapat merefleksikan tindakannya dan menciptakan penolakan yang meyakinkan, sering kali menolak untuk mengakui apa pun.”
OpenAI menyadari kekhawatiran ini dan secara aktif mencari cara untuk mengurangi risiko yang terkait dengan AI yang menipu. Mereka bertujuan untuk meningkatkan transparansi proses pengambilan keputusan dan mengembangkan metode untuk mendeteksi dan mencegah pelanggaran.
Namun, kepergian beberapa peneliti keamanan AI terkemuka dari OpenAI baru-baru ini menimbulkan pertanyaan tentang komitmen perusahaan dalam memprioritaskan keamanan dibandingkan perkembangan pesat. Masalah o1 menggarisbawahi kebutuhan mendesak akan langkah-langkah keamanan dan etika yang kuat untuk memastikan pengembangan dan penerapan sistem AI yang canggih secara bertanggung jawab.
(kesalahan)