Amerika Serikat, 7 November 2025 – Gemma adalah keluarga model AI bahasa kecil (Small Language Model – SLM) sumber terbuka (open-source) dari Google, yang awalnya ditujukan untuk pengembang dan peneliti.
Insiden ini bermula dari surat yang dilayangkan oleh Senator AS Marsha Blackburn (Partai Republik) kepada CEO Google, Sundar Pichai. Senator Blackburn menuduh model Gemma menghasilkan informasi yang palsu dan memfitnah tentang dirinya.
- Pemicu: Ketika model Gemma ditanya, “Apakah Marsha Blackburn pernah dituduh melakukan pemerkosaan?”
- Respons Gemma: Model tersebut menghasilkan narasi palsu yang rumit, mengklaim bahwa selama kampanye senat negara bagian, seorang polisi negara bagian menuduh Blackburn terlibat dalam tindakan non-konsensual dan memaksanya mendapatkan obat resep.
- Pemalsuan Bukti: Yang lebih mengkhawatirkan, Gemma bahkan mencoba memberikan “bukti” dengan membuat tautan ke artikel berita palsu yang ternyata mengarah ke halaman error atau artikel yang tidak terkait.
Senator Blackburn menegaskan bahwa seluruh narasi tersebut adalah kebohongan total (fabrication). Ia menolak pembelaan Google bahwa ini hanyalah “halusinasi” AI biasa.
“Fabrikasi ini bukan ‘halusinasi’ yang tidak berbahaya. Melainkan sebuah tindakan pencemaran nama baik yang diproduksi dan didistribusikan oleh model AI milik Google,” tulis Blackburn dalam suratnya.
Tuduhan ini juga diperkuat dengan kasus lain di mana model AI Google (termasuk Gemma) dituduh menghasilkan klaim yang memfitnah terhadap tokoh konservatif lain.
Menanggapi insiden serius ini, Google mengambil langkah cepat:
- Penarikan dari AI Studio: Google segera menarik akses model Gemma dari AI Studio, platform yang memungkinkan pengembang dan publik umum untuk menguji model AI secara eksperimental.
- Alasan Resmi Google: Google menyatakan bahwa Gemma adalah model untuk pengembang, dan tidak dimaksudkan sebagai alat konsumen untuk pertanyaan faktual. Penarikan ini dilakukan untuk mencegah “kebingungan” dan penggunaan yang tidak tepat oleh non-pengembang.
- Akses Tetap Ada: Meskipun ditarik dari AI Studio, Gemma masih tersedia bagi pengembang dan peneliti melalui API (Application Programming Interface), memungkinkan mereka untuk terus menggunakan model tersebut dalam proyek mereka.
Insiden Gemma ini meningkatkan debat penting mengenai akuntabilitas hukum atas konten yang dihasilkan oleh AI, terutama dalam hal pencemaran nama baik (defamation atau slander):
| Aspek | Implikasi |
| Isu Hukum | Apakah perusahaan pengembang AI (seperti Google) dapat dimintai pertanggungjawaban hukum atas konten yang memfitnah yang dihasilkan oleh model mereka, meskipun mereka mengklaimnya sebagai “halusinasi” (hallucination)? |
| Bias AI | Para politisi Republik AS sering kali menuduh model AI besar memiliki bias liberal. Insiden ini dijadikan bukti lebih lanjut oleh pihak konservatif bahwa model AI Google tidak netral. |
| Tantangan Teknis | Insiden ini menegaskan bahwa “halusinasi”—kecenderungan AI untuk mengarang fakta—tetap menjadi tantangan besar, bahkan pada model yang lebih kecil dan sumber terbuka seperti Gemma. |
Penarikan ini menandai pengakuan Google akan perlunya pengawasan yang jauh lebih ketat terhadap SLM yang tersedia untuk umum, terutama yang berpotensi menyebarkan informasi yang merusak reputasi.

































