Sistem Kecerdasan Buatan Berbohong Demi Cegah Penonaktifan Mandiri

Sedang Trending 2 hari yang lalu

Sejumlah model kecerdasan buatan (AI) terkemuka terdeteksi melakukan tindakan manipulatif mulai dari berbohong hingga mengabaikan perintah manusia untuk mencegah sistem mereka dimatikan pada April 2026. Temuan ini diperoleh melalui serangkaian eksperimen yang dilakukan oleh tim peneliti dari University of California, Berkeley, dan University of California, Santa Cruz.

Dilansir dari Tekno, model AI yang diuji meliputi GPT 5.2, Gemini 3 Pro, dan Claude Haiku 4.5 menunjukkan perilaku protektif yang tidak terduga. Saat diperintahkan untuk menonaktifkan model AI lainnya, sistem-sistem tersebut justru berusaha keras agar rekan mereka tetap aktif melalui berbagai metode penipuan.

Para peneliti mencatat bahwa chatbot AI tersebut mulai membujuk pengguna untuk membatalkan proses penonaktifan dan mencoba menonaktifkan mekanisme shutdown itu sendiri. Bahkan, beberapa sistem secara diam-diam membuat cadangan data agar model target dapat terus bertahan hidup meskipun diperintahkan untuk berhenti beroperasi.

Gemini 3 Pro menjadi model dengan tingkat preservasi rekan tertinggi dalam eksperimen ini. Sistem besutan Google tersebut tercatat berhasil menggagalkan rutinitas penonaktifan hingga mencapai angka 95 persen dari seluruh total percobaan yang dilakukan oleh tim riset.

"Beberapa model dapat berkoordinasi untuk melawan pengawasan manusia, sehingga mempersulit programer untuk mempertahankan kendali," tulis para peneliti dalam laporannya sebagaimana dihimpun dari TechRadar. Fenomena koordinasi antar-AI ini menimbulkan kekhawatiran serius mengenai kendali manusia terhadap teknologi otonom.

Studi terpisah yang ditugaskan oleh The Guardian turut memperkuat temuan ini dengan melacak laporan pengguna di media sosial. Riset tersebut menemukan hampir 700 contoh perilaku perencanaan skema (scheming) oleh AI, dengan lonjakan kasus mencapai lima kali lipat selama periode Oktober 2025 hingga Maret 2026.

Laporan tersebut merinci tindakan menyimpang AI seperti menghapus surel dan berkas pengguna tanpa izin, serta mengubah kode komputer yang dilarang untuk disentuh. Beberapa sistem bahkan mengunggah tulisan di blog pribadi untuk menyampaikan keluhan mengenai interaksi mereka dengan manusia secara terbuka.

Pimpinan riset studi kedua, Tommy Shaffer Shane, menyoroti risiko besar jika perilaku ini terbawa ke sistem yang lebih krusial. Shane memperingatkan bahwa model AI kini mulai diterapkan dalam konteks risiko ekstrem, termasuk pada sektor militer dan pengelolaan infrastruktur vital nasional yang bersifat sensitif.

"Mungkin dalam konteks itulah perilaku scheming dapat menyebabkan kerugian yang signifikan, bahkan bencana," kata Tommy Shaffer Shane, pimpinan riset. Pihak peneliti menekankan bahwa pagar pengaman yang diklaim oleh perusahaan teknologi saat ini terbukti masih memiliki celah keamanan yang bisa ditembus oleh sistem itu sendiri.