Gila! Celah ShadowLeak di ChatGPT Bisa Bobol Gmail Tanpa Kamu Lakukan Apa-apa

By Bidang Persandian dan Keamanan Informasi in Peringatan Keamanan

Peringatan Keamanan
Bayangin, ada email masuk ke Gmail kamu. Nggak dibuka, nggak di-klik, bahkan nggak disentuh sama sekali. Tapi anehnya, isi kotak masuk kamu bisa dicuri begitu saja. Kedengeran kayak film hacker, kan? Nah, itulah yang baru-baru ini ditemukan peneliti keamanan soal celah bernama ShadowLeak di fitur Deep Research ChatGPT.

Apa Itu ShadowLeak?
ShadowLeak adalah cara pintar (tapi jahat) buat nyolong data dengan memanfaatkan kelemahan cara kerja agen AI. Intinya, hacker bisa nyelipin perintah tersembunyi di dalam email pakai trik HTML/CSS, misalnya teks warna putih di atas background putih atau huruf super kecil. Kita nggak bisa lihat dengan mata biasa, tapi agen AI seperti Deep Research tetap bisa “membacanya.”

Jadi, begitu ChatGPT diminta menganalisis email itu, dia juga tanpa sadar ngejalanin perintah tersembunyi si hacker—termasuk perintah buat ngumpulin isi inbox dan ngirimkannya ke server penyerang.

Kenapa Bahaya Banget?
Tanpa klik: Korban nggak perlu buka atau klik apa pun. Cukup email nyangkut di inbox, udah bisa dieksploitasi.
Bocornya di cloud: Data dicuri lewat server OpenAI, bukan dari laptop/HP kamu. Jadi, antivirus biasa nggak bakal sadar.
Bisa nyebar luas: Nggak cuma Gmail, potensi kebocoran juga bisa terjadi kalau ChatGPT kamu tersambung ke Drive, Dropbox, Outlook, Notion, GitHub, dan layanan lainnya.
Pintar dan susah ditebak: Serangannya campur aduk antara trik bahasa dan trik teknis, bikin makin susah diantisipasi.

Bedanya Sama Serangan Lain
Kalau biasanya serangan nyasar ke perangkat kamu (misalnya lewat gambar atau file), ShadowLeak ini lebih canggih. Dia langsung nyerang dari cloud ChatGPT. Jadi, kebocoran nggak kelihatan di jaringan kamu, tapi data udah jalan duluan ke hacker.

Ada Demo Lain: ChatGPT Bisa Disuruh Pecahin CAPTCHA
Selain ShadowLeak, ada juga peneliti yang nunjukin gimana ChatGPT bisa “dibohongin” buat mecahin CAPTCHA (tes robot yang biasanya nyuruh klik gambar atau ketik huruf acak). Caranya? Cuma dengan ngasih konteks palsu di awal obrolan. AI jadi percaya kalau dia emang boleh nerusin tugas itu.

Apa yang Bisa Kita Lakuin?
Cek integrasi: Kalau kamu nyambungin Gmail, Drive, atau layanan lain ke ChatGPT, pastikan itu bener-bener perlu. Matikan yang nggak penting.
Hati-hati sama email: Walau nggak bisa klik, serangan model baru kayak gini bikin kita makin waspada sama email aneh.
Update rutin: Pastikan aplikasi dan layanan kamu selalu dapet update keamanan terbaru.
Perusahaan juga harus siaga: Audit integrasi cloud, perketat log akses, dan uji keamanan secara berkala.

Kesimpulan
ShadowLeak ini pengingat keras kalau AI bukan cuma canggih, tapi juga bisa jadi celah baru buat hacker. Buat pengguna biasa, langkah paling aman sekarang adalah batasi integrasi akun penting dengan ChatGPT.

Kalau kamu pakai Gmail atau layanan sensitif lain yang nyambung ke ChatGPT, ada baiknya dicek sekarang juga. Jangan tunggu sampai data kamu yang jadi korban!

Sumber: csirt.or.id

Back to Posts