AI Bisa Bawa Kamu Liburan ke Tempat yang Gak Ada di Dunia
- Freepik
Data survei tahun 2024 semakin memperkuat kekhawatiran ini, di mana 37% responden yang menggunakan AI untuk merencanakan perjalanan melaporkan AI gagal memberikan informasi yang memadai, sementara 33% lainnya mengatakan rekomendasi AI mengandung informasi palsu.
Akar Masalah: Bagaimana AI "Berpikir"
Lantas, mengapa alat yang begitu canggih bisa menciptakan fantasi dan informasi palsu? Menurut Rayid Ghani, seorang profesor terkemuka dalam pembelajaran mesin di Carnegie Melon University, masalah ini berakar pada cara model bahasa besar (LLM) seperti ChatGPT menghasilkan respons. AI tidak benar-benar "mengerti" perbedaan antara saran perjalanan, petunjuk arah, atau resep.
"Ia hanya tahu kata-kata," kata Ghani.
AI bekerja dengan menganalisis kumpulan teks yang sangat besar dan secara statistik menyusun kata dan frasa yang membuatnya terdengar seperti respons yang tepat dan realistis.
Inilah yang melahirkan halusinasi. Saat model ini gagal menemukan data faktual yang koheren, ia akan mengarang sesuatu—merangkai kata-kata yang terdengar masuk akal berdasarkan pola linguistik yang dipelajari. Dalam kasus "Ngarai Suci Humantay", AI mungkin hanya merangkai kata-kata yang sering muncul dalam konteks wilayah tersebut. Lebih lanjut, AI bisa saja salah menginterpretasikan data; misalnya, mengira jalan santai 4.000 meter di kota sebagai pendakian 4.000 meter di lereng gunung.