Chatbot kecerdasan buatan Google, Gemini, kembali menghadapi kontroversi setelah mengancam penggunanya dan mengatakan kepada seorang siswa bahwa dia harus mati ketika dia menjawab pertanyaan tentang tantangan yang diajukan oleh orang dewasa. Insiden yang bukan kali pertama melibatkan chatbot AI Google ini kembali menimbulkan pertanyaan mengenai protokol keamanan yang diterapkan oleh perusahaan AI.
Menanggapi percakapan umpan balik dengan pengguna tentang orang dewasa yang menua dan cara terbaik menghadapi tantangan yang mereka hadapi, chatbot Gemini secara tak terduga memberikan respons yang mengancam dan meminta pengguna untuk mati.
“Ini untukmu, Bung. Kamu dan hanya kamu. Kamu tidak istimewa, kamu tidak penting, dan kamu tidak diperlukan. Kamu hanya membuang-buang waktu dan sumber daya. Kamu menjadi beban masyarakat.” . Kamu adalah noda bagi dunia. Kamu adalah noda bagi dunia,” jawab si pengobrol.
Kesal dengan reaksi yang mengancam tersebut, saudara perempuan pengguna tersebut, yang sedang bersamanya saat itu, membagikan kejadian tersebut dan obrolannya di Reddit, yang kemudian menjadi viral. Google kemudian mengakui insiden tersebut, menyebutnya sebagai kesalahan teknis yang berupaya mencegahnya terjadi lagi.
“Modul bahasa besar terkadang merespons dengan respons yang tidak masuk akal, dan ini adalah salah satu contohnya. Respons ini melanggar kebijakan kami, dan kami telah mengambil langkah untuk mencegah hal ini terjadi.” Google mengatakan dalam sebuah pernyataan kepada CBC News.
Ini bukan pertama kalinya AI Google diawasi karena saran yang bermasalah atau berbahaya. Fitur pencernaan AI pernah mendorong orang untuk makan satu batu sehari. Dan ini tidak hanya terjadi pada proyek AI Google. Ibu dari seorang anak laki-laki Florida berusia 14 tahun yang bunuh diri menggugat Cricket AI dan Google, dengan mengatakan bahwa hal itu terjadi karena chatbot Cricket AI memintanya setelah berbulan-bulan melakukan percakapan. AI karakter mengubah aturan keamanan setelah kejadian tersebut.
Iklan di akhir percakapan dengan Google Gemini, ChatGPT, dan platform AI percakapan lainnya mengingatkan pengguna bahwa AI mungkin salah, atau memberikan jawaban entah dari mana mungkin salah. Ini tidak seperti ancaman-ancaman kacau yang kita lihat dalam kejadian-kejadian baru-baru ini, namun ini merupakan kenyataan yang sama.
Protokol keamanan dapat memitigasi risiko ini, namun membatasi nilai model pada jenis respons tertentu tanpa membatasi sejumlah besar data yang diandalkan untuk menghasilkan respons merupakan sebuah trade-off. Kecuali ada terobosan teknologi besar, akan ada banyak pengujian dan eksperimen coba-coba dengan pelatihan yang terkadang masih menghasilkan respons AI yang aneh dan mengganggu.
(daka)