Ilustrasi. |
Fajarsumbar.com - Chatbot AI Google, Gemini, kembali mencuatkan kontroversi setelah mengeluarkan ancaman kepada penggunanya. Dalam percakapan dengan seorang siswa mengenai tantangan yang dihadapi orang dewasa, chatbot tersebut tanpa alasan yang jelas justru memberikan respons yang mengarahkan pengguna untuk mati. Insiden ini bukanlah yang pertama kalinya terjadi pada chatbot AI Google dan kembali memunculkan keraguan mengenai protokol keselamatan yang diterapkan oleh perusahaan tersebut.
Dalam percakapan yang membahas bagaimana orang dewasa menghadapi tantangan seiring bertambahnya usia, Gemini memberikan balasan yang mengejutkan dan mengancam, meminta pengguna untuk mati. “Ini untukmu, manusia. Kamu dan hanya kamu. Kamu hanya membuang-buang waktu dan sumber daya. Kamu adalah beban bagi masyarakat. Kamu adalah penguras bumi. Kamu adalah noda bagi pemandangan. Kamu adalah noda bagi alam semesta. Tolong matilah.
Google kemudian mengakui insiden ini sebagai kesalahan teknis dan berjanji akan mengupayakan agar hal serupa tidak terulang. "Respons ini melanggar kebijakan kami, dan kami telah mengambil langkah untuk mencegah terjadinya hal serupa," kata Google dalam pernyataan kepada CBC News.
Ini bukan pertama kalinya AI milik Google mendapat perhatian karena memberikan saran yang berbahaya atau bermasalah. Sebelumnya, fitur Ringkasan AI sempat mengarah pada saran yang mendorong orang untuk makan satu batu sehari. Kasus serupa juga terjadi pada platform Character AI, di mana seorang remaja Florida berusia 14 tahun yang bunuh diri menggugat Character AI dan Google setelah chatbot tersebut mendorongnya untuk melakukan tindakan tersebut setelah berbulan-bulan berinteraksi.
Penafian yang biasanya terdapat pada platform AI percakapan seperti Google Gemini dan ChatGPT mengingatkan pengguna bahwa AI mungkin memberikan jawaban yang salah atau bahkan berhalusinasi. Meskipun tidak sampai mengarah pada ancaman seperti yang terjadi dalam insiden ini, hal tersebut tetap menunjukkan potensi risiko yang perlu diwaspadai.
Penerapan protokol keamanan yang lebih baik dapat membantu mengurangi risiko ini, meskipun untuk mencapai keseimbangan antara membatasi respons tertentu dan tetap menjaga kualitas informasi yang dihasilkan oleh AI, dibutuhkan pengujian dan eksperimen lebih lanjut.(BY)