Ikhtisar AI Google Dia dikatakan mengalami halusinasi AI, dan disarankan untuk menggunakan lem pada pizza

Alat pencarian baru yang didukung AI dari Google, Ikhtisar AI, menghadapi reaksi keras karena memberikan jawaban yang tidak akurat dan agak aneh terhadap pertanyaan pengguna. Dalam insiden yang dilaporkan baru-baru ini, seorang pengguna mengunjungi Google tentang keju yang tidak menempel pada pizza. Meskipun mereka mengharapkan solusi praktis untuk masalah memasak mereka, fitur Ikhtisar AI Google memberikan solusi yang agak meresahkan. Menurut postingan terbaru di X, ini bukanlah insiden yang terisolasi karena alat AI juga memberikan jawaban yang aneh kepada pengguna lain.

Keju, pizza, dan halusinasi AI

Masalah ini terungkap ketika pengguna melaporkannya buku Google “keju tidak menempel pada pizza.” Untuk mengatasi masalah memasak, fitur Ikhtisar AI pada mesin pencari menyarankan beberapa cara untuk membuat stik keju, seperti mencampurkan saus dan membiarkan pizza menjadi dingin. Namun, ada satu solusi yang ternyata sangat aneh. Berdasarkan tangkapan layar yang dibagikan, pengguna disarankan untuk “menambahkan ⅛ cangkir lem tidak beracun ke dalam saus agar lebih lengket.”

Setelah diselidiki lebih lanjut, sumbernya ditemukan dan ternyata adalah Reddit komentar 11 tahun yang lalu, yang sepertinya hanya lelucon dan bukan nasihat dari pakar kuliner. Namun, fitur Ikhtisar AI Google, yang masih memiliki tag “AI Generatif bersifat eksperimental” di bagian bawah, menampilkannya sebagai saran serius untuk kueri awal.

Tanggapan tidak akurat lainnya dari Ikhtisar AI muncul beberapa hari yang lalu ketika pengguna melaporkannya Diminta Google, “Berapa banyak batu yang harus saya makan.” Mengutip ahli geologi UC Berkeley, alat tersebut menyarankan bahwa “disarankan untuk makan setidaknya satu batu per hari karena batu mengandung mineral dan vitamin yang penting untuk kesehatan pencernaan.”

Masalah dibalik tanggapan yang salah

Masalah seperti ini sering muncul dalam beberapa tahun terakhir, terutama sejak booming kecerdasan buatan (AI), sehingga menimbulkan masalah baru yang dikenal sebagai halusinasi AI. Meskipun perusahaan mengklaim bahwa chatbot AI dapat membuat kesalahan, contoh alat ini memutarbalikkan fakta dan memberikan tanggapan yang tidak akurat dan bahkan aneh semakin meningkat.

Namun, Google bukan satu-satunya perusahaan yang alat AI-nya memberikan respons yang tidak akurat. ChatGPT OpenAI, Copilot Microsoft, dan chatbot otomatis Perplexity semuanya dikatakan mengalami halusinasi AI.

Dalam lebih dari satu kasus, sumbernya ditemukan dari postingan atau komentar Reddit bertahun-tahun yang lalu. Perusahaan di balik alat AI juga menyadari hal ini, termasuk CEO Alphabet Sundar Pichai Katanya The Verge, “Hal-hal inilah yang harus terus kami tingkatkan.”

Berbicara tentang halusinasi AI dalam acara yang diadakan di Institut Teknologi Internasional di Delhi pada Juni 2023, Sam Altman, [OpenAI](“Kami memerlukan waktu sekitar satu tahun untuk menyempurnakan model ini,” kata CEO dan salah satu pendiri. “Ini adalah keseimbangan antara kreativitas dan presisi dan kami berusaha meminimalkan masalah tersebut.) [At present,] Saya percaya jawaban yang datang dari ChatGPT tidak kurang dari siapa pun di dunia ini.


Tautan afiliasi dapat dibuat secara otomatis – lihat Pernyataan Etika kami untuk rinciannya.



Sumber