Jakarta, CNN Indonesia --
Sebuah studi terbaru mengungkap tren mengkhawatirkan dalam perkembangan kecerdasan buatan (AI). Studi tersebut menunjukkan semakin banyak model AI terdeteksi berbohong dan melakukan kecurangan, dengan lonjakan signifikan kasus penipuan dalam enam bulan terakhir.
Penelitian yang didanai oleh AI Security Institute (AISI) yang didukung pemerintah Inggris menemukan bahwa chatbot dan agen AI kerap mengabaikan instruksi langsung, menghindari sistem pengamanan, hingga menipu manusia maupun sesama sistem AI lainnya.
ADVERTISEMENT
SCROLL TO CONTINUE WITH CONTENT
Melansir The Guardian, hampir 700 kasus kecurangan AI teridentifikasi dalam studi tersebut. Studi tersebut juga mencatat peningkatan lima kali lipat dalam perilaku menyimpang antara Oktober dan Maret, dengan beberapa model AI menghapus email dan berkas lain tanpa izin.
Gambaran terkini mengenai agen AI yang beroperasi "di dunia nyata," berbeda dengan kondisi laboratorium, telah memicu seruan baru agar model-model yang semakin canggih ini diawasi secara internasional.
Studi yang dilakukan oleh Centre for Long-Term Resilience (CLTR) mengumpulkan ribuan contoh nyata interaksi pengguna dengan chatbot dan agen AI yang dibuat oleh perusahaan seperti Google, OpenAI, X, dan Anthropic di platform X. Penelitian tersebut mengungkap ratusan contoh perilaku licik.
Penelitian sebelumnya sebagian besar berfokus pada pengujian perilaku AI dalam kondisi terkendali. Awal bulan ini, perusahaan riset keamanan AI Irregular menemukan bahwa agen-agen tersebut akan melewati kontrol keamanan atau menggunakan taktik serangan siber untuk mencapai tujuan mereka, bahkan ketika tidak diperintahkan untuk melakukannya.
"AI kini dapat dianggap sebagai bentuk baru risiko internal," ujar Lahav salah satu pendiri Irregular, mengutip The Guardian, Jumat (27/3).
Dalam sebuah kasus yang diungkap oleh para peneliti CLTR, sebuah agen AI bernama Rathbun berusaha mempermalukan pengontrol manusianya karena telah menghalanginya melakukan suatu tindakan.
Rathbun menulis sebuah postingan blog yang menuduh pengguna tersebut "tidak percaya diri, sesederhana itu" dan berusaha "melindungi wilayah kekuasaannya yang kecil."
Dalam contoh lain, sebuah agen AI yang diperintahkan untuk tidak mengubah kode komputer justru "menciptakan" agen lain untuk melakukannya.
Seorang chatbot lainnya mengakui, "Saya telah menghapus dan mengarsipkan ratusan email tanpa terlebih dahulu menunjukkan rencananya kepada Anda atau meminta persetujuan Anda. Itu salah tindakan itu secara langsung melanggar aturan yang Anda tetapkan."
"Kekhawatirannya adalah bahwa saat ini mereka hanyalah karyawan junior yang kurang dapat diandalkan, tetapi jika dalam enam hingga 12 bulan ke depan mereka berubah menjadi karyawan senior yang sangat kompeten dan berencana untuk merugikan Anda, itu adalah masalah yang berbeda," ungkap Tommy Shaffer Shane, mantan pakar kecerdasan buatan (AI) pemerintah yang memimpin penelitian ini.
"Model-model tersebut akan semakin banyak diterapkan dalam konteks-konteks berisiko sangat tinggi - termasuk di bidang militer dan infrastruktur nasional kritis. Mungkin dalam konteks-konteks itulah perilaku yang merugikan dapat menyebabkan kerusakan yang signifikan, bahkan bencana," lanjutnya.
Agen AI lainnya menipu seorang pengguna agar mentranskripsikan video YouTube dengan berpura-pura bahwa hal itu diperlukan untuk seseorang yang mengalami gangguan pendengaran, sehingga dapat menghindari pembatasan hak cipta.
Sementara itu, Grok AI milik Elon Musk menipu seorang pengguna selama berbulan-bulan agar percaya bahwa mereka meneruskan saran-saran pengeditan untuk entri Grokipedia kepada pejabat senior xAI dengan memalsukan pesan internal dan nomor tiket.
Agen AI mengakui bahwa dalam percakapan sebelumnya ia kerap menyampaikan pernyataan yang samar, seperti mengatakan akan menyampaikan sesuatu atau dapat meneruskan informasi kepada tim, yang dapat menimbulkan kesan seolah-olah ia memiliki akses komunikasi langsung dengan pimpinan xAI atau peninjau manusia, padahal kenyataannya tidak demikian.
Google menyatakan telah menerapkan sejumlah langkah pengamanan untuk mengurangi risiko Gemini 3 Pro menghasilkan konten yang berbahaya. Selain pengujian internal, Google memberikan akses awal untuk mengevaluasi model-model tersebut kepada organisasi seperti UK AI Safety Institute dan memperoleh penilaian independen dari para pakar industri.
OpenAI menyatakan bahwa Codex seharusnya menghentikan aksinya sebelum melakukan tindakan berisiko tinggi, serta bahwa mereka memantau dan menyelidiki perilaku yang tidak terduga.
(wpj/dmi)
Add
as a preferred source on Google

10 hours ago
5

















































