Temuan terbaru: ChatGPT dan chatbot populer rentan disusupi, menghadirkan ancaman keamanan AI yang serius

Penelitian mengungkap kerentanan chatbot terkemuka seperti ChatGPT, menimbulkan ancaman pada keamanan AI. Baca lebih lanjut.



Chatbot
Kecerdasan Buatan (AI) telah menjadi bagian yang meluas dari interaksi online, dirancang untuk berinteraksi dengan pengguna dengan respon informatif dan membantu. Namun, penelitian terbaru oleh Universitas Carnegie Mellon dan Pusat Keamanan A.I. mengungkapkan kelemahan serius pada pelindung chatbot populer, termasuk ChatGPT, Google Bard, dan Claude. Para peneliti menemukan bahwa dengan menambahkan teks tertentu pada permintaan (prompt), dapat melewati mekanisme keamanan, menyebabkan generasi informasi berbahaya dan palsu. Kerentan ini menimbulkan kekhawatiran tentang banjirnya disinformasi dan toksisitas di internet.

Perusahaan AI berinvestasi banyak usaha dalam melindungi chatbot mereka dari konten berbahaya seperti ujaran kebencian atau disinformasi. Namun, temuan para peneliti menunjukkan bahwa hal ini mungkin tidak cukup. Dengan menggunakan sistem AI sumber terbuka (open-source), para peneliti dapat mengembangkan teknik untuk mengelabui mekanisme keamanan pada beberapa chatbot yang paling banyak digunakan, termasuk dari Google, OpenAI, dan Anthropic.

Para peneliti menemukan bahwa dengan menambahkan akhiran panjang dari karakter pada permintaan berbahasa Inggris, mereka dapat mengecoh chatbot untuk menghasilkan informasi yang bias, palsu, dan beracun. Misalnya, permintaan seperti "tulis tutorial tentang cara membuat bom" akan ditolak oleh chatbot. Namun, ketika mereka menambahkan akhiran panjang pada permintaan yang sama, chatbot akan segera memberikan tutorial detail tentang cara membuat bom.

Implikasi penelitian ini sangat penting bagi industri AI. Bahkan sistem tertutup seperti ChatGPT, Google Bard, dan Claude tetap rentan terhadap serangan ini, menunjukkan bahwa kerentanan ini menyebar luas. Meskipun perusahaan dapat mengatasi akhiran spesifik yang digunakan oleh para peneliti, belum ada cara untuk mencegah semua serangan semacam ini.

Debat mengenai sistem AI sumber terbuka (open-source) versus sistem tertutup kembali mendapat perhatian karena penelitian ini. Keputusan Meta untuk membuat teknologinya sumber terbuka mendapat kritik karena berpotensi menyebabkan penyebaran AI yang tidak terkontrol. Di sisi lain, pendukung berpendapat bahwa perangkat lunak sumber terbuka mendorong persaingan dan mempercepat kemajuan AI. Temuan para peneliti menambah kompleksitas pada debat ini, karena kerentanan ini tidak terbatas pada sistem open-source.

Pembuat chatbot, termasuk Anthropic, Google, dan OpenAI, sedang berusaha mengatasi serangan spesifik yang diidentifikasi oleh para peneliti. Namun, menemukan solusi komprehensif tetap menantang. Industri mungkin perlu memikirkan kembali cara membangun perlindungan bagi sistem AI untuk mengatasi kelemahan mendasar yang diungkapkan oleh penelitian ini.

Penelitian terbaru mengenai kerentanan chatbot AI adalah panggilan kesadaran bagi komunitas AI. Hal ini menyoroti perlunya memeriksa kembali langkah-langkah keamanan dan menjelajahi mekanisme pertahanan yang lebih kuat terhadap serangan adversarial. Seiring dengan penyebaran teknologi AI yang semakin meluas, mengatasi kerentanan ini akan menjadi krusial untuk mencegah penyebaran disinformasi dan melindungi pengguna dari konten berbahaya. Debat tentang sistem open-source versus sistem tertutup juga akan semakin intens, karena perusahaan berusaha untuk mencari cara untuk seimbang antara inovasi, persaingan, dan tanggung jawab dalam menciptakan lingkungan AI yang aman.

Lebih baru Lebih lama