ChatGPT Berubah Pro-Israel pada November 2025
ORBITINDONESIA.COM - Pada November 2025, ribuan pengguna berbahasa Spanyol dan Inggris menyadari perubahan mendadak dalam respons standar ChatGPT terkait konflik Israel-Palestina.
Model tersebut kini cenderung meremehkan kritik terhadap Israel, membingkai tindakan militernya sebagai "defensif", dan hanya meminta maaf serta mengoreksi diri ketika dihadapkan dengan bukti yang tak terbantahkan.
Pola sistematis ini bertepatan dengan peluncuran kontrak pemerintah Israel senilai jutaan dolar yang secara eksplisit dirancang untuk memengaruhi model AI seperti ChatGPT.
"Front Kedelapan" dan Kontrak untuk Membentuk AI
Pada September 2025, Benjamin Netanyahu mendeklarasikan media sosial sebagai "front kedelapan" perang Israel — yang paling penting, menurut kata-katanya sendiri (Press TV, 2025).
Sebulan kemudian, Kementerian Luar Negeri meluncurkan "Proyek 545": 545 juta shekel (sekitar US$145 juta) untuk diplomasi publik digital, termasuk pembentukan model kecerdasan buatan secara sengaja (Ynetnews, 2025).
Kontrak yang paling terdokumentasi adalah kesepakatan senilai $6 juta dengan perusahaan AS Clock Tower X LLC (dipimpin oleh Brad Parscale, mantan manajer kampanye digital Trump).
Misinya: memproduksi konten dalam jumlah besar di TikTok, Instagram, dan YouTube yang ditujukan untuk Generasi Z sekaligus membangun situs web dan kerangka naratif untuk "melatih" ChatGPT dan Claude agar menghasilkan respons yang lebih pro-Israel (Responsible Statecraft, 2025; Truthout, 2025; Haaretz, 2025; berdasarkan laporan publik FARA kepada Departemen Kehakiman AS).
November: Bias Pro-Israel Diaktifkan Secara Default
Sejak awal November, pengguna dalam bahasa Spanyol, Inggris, dan bahasa Barat lainnya melaporkan perilaku yang identik:
- Respons awal: bahasa yang membenarkan Israel dan menghilangkan atau mengecilkan korban Palestina.
- Setelah konfrontasi dengan sumber utama (laporan PBB, Amnesty International, putusan ICJ, video geolokasi): permintaan maaf dan koreksi otomatis.
Yang baru pada November 2025 adalah konsistensi pembingkaian pro-Israel sebagai respons default dalam bahasa-bahasa Barat, menurut ribuan tangkapan layar dan interaksi yang dibagikan di X dan Reddit.
Para ahli sepakat: kesalahan yang berulang secara terprediksi di ribuan interaksi bukanlah "bug"; kesalahan tersebut tertanam dalam data pelatihan atau pemrograman dasar (Haaretz, 2025; Responsible Statecraft, 2025).
Karena OpenAI melatih modelnya pada data internet publik, banjir konten khusus yang disponsori negara dapat — dan tampaknya memang — mengubah hasil awal model. Bahayanya jelas: sebagian besar pengguna menerima respons pertama tanpa mempertanyakannya, mengubah bias yang hanya dapat diperbaiki di bawah tekanan menjadi mekanisme propaganda yang sangat efektif (Truthout, 2025).
Kesimpulannya, perubahan sikap pro-Israel ChatGPT pada November 2025 bukanlah kecelakaan teknis: ini adalah kasus pertama yang terdokumentasi tentang sebuah negara yang berhasil menggunakan investasi jutaan dolar dan "permainan" data untuk mengubah sikap standar model AI terkemuka dalam konflik bersenjata yang sedang berlangsung.
26 November 2025. ***