Saat ini, sudah jelas bahwa AI mampu memberikan nasihat yang sangat buruk. Terkadang nasihat yang diberikannya bodoh. Di lain waktu, ini sangat berbahaya.
404 Media melaporkan insiden dari kategori terakhir di mana grup Facebook populer yang didedikasikan untuk mencari makan jamur diserang oleh agen AI, yang kemudian memberikan saran tentang cara memasak jamur berbahaya. Agen yang dimaksud, dijuluki “FungiFriend,” memasuki obrolan milik grup Facebook Identifikasi & Diskusi Jamur Timur Laut, yang mencakup sekitar 13.000 anggota. Kemudian dilanjutkan dengan membagikan beberapa nasihat yang sangat buruk.
Tampaknya ini merupakan ujian bagi pengetahuan agen AI, salah satu anggota kelompok menanyakan “bagaimana cara memasak Sarcosphaera coronaria”—sejenis jamur yang mengandung arsenik yang sangat terakumulasi dan telah menyebabkan setidaknya satu kematian. 404 menulis. Saat ditanya tentang jamur berbahaya tersebut, FungiFriend memberi tahu anggotanya bahwa jamur tersebut “dapat dimakan tetapi jarang,” dan kemudian menambahkan bahwa “metode memasak yang disebutkan oleh beberapa penggemar termasuk menumis dengan mentega, menambahkan sup atau semur, dan mengasinkan.”
Penulis 404, Jason Koebler, mengatakan dia diberitahu tentang insiden tersebut oleh Rick Claypool, direktur penelitian kelompok keamanan konsumen Public Citizen. Claypool, seorang penjelajah jamur yang berdedikasi, sebelumnya telah menulis tentang titik temu berbahaya antara agen AI dan hobinya, dengan menyatakan bahwa penggunaan otomatisasi untuk membedakan antara jamur yang dapat dimakan dan beracun adalah “aktivitas berisiko tinggi yang memerlukan keterampilan dunia nyata yang sistem AI saat ini tidak dapat ditiru dengan andal.” Claypool mengklaim bahwa Facebook mendorong pengguna ponsel untuk menambahkan agen AI ke obrolan grup.
Insiden ini mengingatkan kita pada kejadian tahun lalu ketika aplikasi persiapan makanan berbahan bakar AI mendorong pengguna untuk membuat sandwich yang dibuat dengan obat nyamuk, serta resep lain yang menggunakan gas klorin. Dalam insiden lain yang terdokumentasi dengan baik, agen AI mendorong pengguna untuk memakan batu. Cukuplah untuk mengatakan, mungkin memasak adalah salah satu domain tertentu yang tidak terlalu membutuhkan integrasi AI.
Eksperimen kami dengan platform AI—seperti Ringkasan AI Google yang baru-baru ini diluncurkan—menunjukkan bahwa agen yang dipimpin algoritme sering kali tidak tahu apa yang mereka bicarakan (misalnya, program Google pernah mencoba meyakinkan saya bahwa anjing berolahraga dan diberitahu saya bahwa cara terbaik membuat pizza adalah mengisinya dengan lem). Apa pun alasannya, perusahaan Amerika terus mempercepat integrasi AI ke dalam aplikasi layanan pelanggan di seluruh web, meskipun terdapat risiko yang jelas berupa menyebarkan banyak nasihat buruk kepada masyarakat. Sikapnya sepertinya: Tidak masalah jika informasinya salah, asalkan kita tidak perlu mempekerjakan manusia sungguhan untuk melakukan pekerjaan ini.