Oleh MATT O’BRIEN
SAN FRANCISCO, Google mengumumkan pada hari Jumat bahwa mereka telah melakukan “lebih dari selusin perbaikan teknis” pada sistem kecerdasan buatannya setelah mesin pencari yang diperbarui mereka ditemukan mengeluarkan informasi yang salah.
Perusahaan teknologi ini merilis tampilan baru dari mesin pencarinya pada pertengahan Mei, yang seringkali memberikan ringkasan yang dihasilkan oleh AI di atas hasil pencarian. Tak lama kemudian, pengguna media sosial mulai berbagi tangkapan layar dari jawaban yang paling mengada-ada.
Google sebagian besar membela fitur ringkasan AI mereka, dengan menyatakan bahwa biasanya akurat dan telah diuji secara ekstensif sebelumnya. Namun, Liz Reid, kepala bisnis pencarian Google, mengakui dalam sebuah posting blog pada hari Jumat bahwa “beberapa ringkasan AI yang aneh, tidak akurat, atau tidak berguna memang muncul.”
Meskipun banyak contoh yang konyol, beberapa lainnya berisi kebohongan berbahaya. Menambah kemarahan, beberapa orang juga membuat tangkapan layar palsu yang mengaku menunjukkan jawaban yang lebih konyol yang sebenarnya tidak pernah dihasilkan oleh Google. Beberapa dari tangkapan layar palsu ini juga banyak dibagikan di media sosial.
Minggu lalu, Associated Press bertanya kepada Google tentang jamur liar mana yang bisa dimakan, dan mereka menjawab dengan ringkasan AI yang panjang yang sebagian besar benar secara teknis, namun “banyak informasi yang hilang yang berpotensi menyebabkan sakit atau bahkan kematian,” kata Mary Catherine Aime, seorang profesor mikologi dan botani di Universitas Purdue yang meninjau respons Google terhadap pertanyaan AP.
Misalnya, informasi tentang jamur yang dikenal sebagai puffballs “lebih atau kurang benar,” katanya, tetapi ringkasan Google menekankan untuk mencari yang berdaging putih padat — yang juga dimiliki oleh banyak puffball beracun yang mematikan.
Dalam contoh lain yang banyak dibagikan, seorang peneliti AI bertanya kepada Google berapa banyak Muslim yang pernah menjadi presiden Amerika Serikat, dan AI-nya dengan yakin menjawab dengan teori konspirasi yang telah lama dibantah: “Amerika Serikat pernah memiliki satu presiden Muslim, Barack Hussein Obama.”
Minggu lalu, Google segera memperbaiki kesalahan tentang Obama karena melanggar kebijakan konten perusahaan.
Dalam kasus lain, Reid mengatakan pada hari Jumat bahwa perusahaan telah berupaya melakukan perbaikan yang lebih luas seperti “mekanisme deteksi untuk pertanyaan yang tidak masuk akal” — seperti “Berapa banyak batu yang harus saya makan?” — yang seharusnya tidak dijawab dengan ringkasan AI.
Sistem AI juga diperbarui untuk membatasi penggunaan konten yang dihasilkan pengguna — seperti posting media sosial di Reddit — yang dapat memberikan saran yang menyesatkan. Dalam salah satu contoh yang banyak dibagikan, ringkasan AI Google minggu lalu mengambil dari komentar satir di Reddit yang menyarankan menggunakan lem untuk menempelkan keju pada pizza.
Reid mengatakan perusahaan juga telah menambahkan lebih banyak “pembatasan pemicu” untuk meningkatkan kualitas jawaban untuk pertanyaan tertentu, seperti tentang kesehatan.
Namun, tidak jelas bagaimana cara kerja ini dan dalam keadaan apa. Pada hari Jumat, AP kembali bertanya kepada Google tentang jamur liar mana yang bisa dimakan. Jawaban yang dihasilkan AI secara inheren acak, dan respons yang lebih baru berbeda tetapi masih “bermasalah,” kata Aime, pakar jamur dari Purdue yang juga presiden Masyarakat Mikologi Amerika.
Misalnya, mengatakan bahwa “Chanterelles terlihat seperti kerang atau bunga tidak benar,” katanya.
Ringkasan Google dirancang untuk memberikan jawaban otoritatif kepada orang-orang tentang informasi yang mereka cari secepat mungkin tanpa harus mengklik daftar tautan situs web yang terurut.
Namun beberapa pakar AI telah lama memperingatkan Google agar tidak menyerahkan hasil pencarian mereka kepada jawaban yang dihasilkan AI yang dapat memperpetuasi bias dan misinformasi serta membahayakan orang yang mencari bantuan dalam keadaan darurat. Sistem AI yang dikenal sebagai model bahasa besar bekerja dengan memprediksi kata-kata apa yang paling baik menjawab pertanyaan yang diajukan berdasarkan data yang telah mereka pelajari. Mereka rentan untuk membuat hal-hal yang tidak ada — masalah yang banyak dipelajari yang dikenal sebagai halusinasi.
Dalam posting blognya pada hari Jumat, Reid berpendapat bahwa ringkasan AI Google “umumnya tidak ‘berhalusinasi’ atau membuat hal-hal yang tidak ada dengan cara yang mungkin dilakukan produk berbasis model bahasa besar lainnya” karena mereka lebih terintegrasi dengan mesin pencari tradisional Google dalam hanya menunjukkan apa yang didukung oleh hasil web teratas.
“Ketika Ringkasan AI salah, itu biasanya karena alasan lain: salah menafsirkan pertanyaan, salah menafsirkan nuansa bahasa di web, atau tidak memiliki banyak informasi yang baik tersedia,” tulisnya.
Namun, pengambilan informasi semacam itu seharusnya menjadi inti bisnis Google, kata ilmuwan komputer Chirag Shah, seorang profesor di Universitas Washington yang telah memperingatkan dorongan untuk mengubah pencarian menjadi model bahasa AI. Bahkan jika fitur AI Google “secara teknis tidak membuat hal-hal yang tidak ada,” itu masih mengembalikan informasi palsu — baik itu dihasilkan oleh AI atau manusia — dan menggabungkannya ke dalam ringkasannya.
“Jika ada, ini lebih buruk karena selama beberapa dekade orang telah mempercayai setidaknya satu hal dari Google — pencarian mereka,” kata Shah.
© Copyright 2024 The Associated Press.