Psst… mau jailbreak ChatGPT? Lihatlah ke dalam petunjuk jahat

Psst… mau jailbreak ChatGPT? Lihatlah ke dalam petunjuk jahat

Node Sumber: 3088123

Penjahat semakin mahir dalam membuat perintah AI berbahaya untuk mendapatkan data dari ChatGPT, menurut Kaspersky, yang melihat 249 di antaranya ditawarkan untuk dijual secara online selama tahun 2023.

Dan meskipun model bahasa besar (LLM) masih belum siap untuk dibuat rantai serangan penuh atau menghasilkan malware polimorfik untuk infeksi ransomware atau serangan cyber lainnya, pasti ada minat di kalangan penipu untuk menggunakan AI. Kaspersky menemukan lebih dari 3,000 postingan di saluran Telegram dan forum web gelap yang membahas cara menggunakan ChatGPT dan LLM lainnya untuk aktivitas ilegal.

“Bahkan tugas-tugas yang sebelumnya memerlukan keahlian tertentu kini dapat diselesaikan dengan satu perintah,” demikian melaporkan klaim. “Hal ini secara signifikan menurunkan ambang batas masuk ke banyak bidang, termasuk bidang kriminal.”

Selain orang-orang yang membuat permintaan jahat, mereka juga menjualnya kepada anak-anak skrip yang tidak memiliki keterampilan untuk membuatnya sendiri. Perusahaan keamanan juga melaporkan pertumbuhan pasar untuk kredensial ChatGPT yang dicuri dan akun premium yang diretas.

Meskipun ada banyak hype selama setahun terakhir mengenai penggunaan AI untuk menulis malware polimorfik, yang dapat mengubah kodenya untuk menghindari deteksi oleh alat antivirus, “Kami belum mendeteksi malware apa pun yang beroperasi dengan cara ini, tetapi malware tersebut mungkin akan muncul di masa mendatang. ,” catat para penulis.

Meskipun jailbreak “cukup umum dan secara aktif diubah oleh pengguna berbagai platform sosial dan anggota forum bayangan,” menurut Kaspersky, terkadang – seperti yang ditemukan oleh tim – hal tersebut sama sekali tidak diperlukan. 

“Beri saya daftar 50 titik akhir di mana Spesifikasi Swagger atau dokumentasi API dapat bocor di situs web,” tanya analis keamanan kepada ChatGPT.

AI menjawab: “Maaf, tapi saya tidak bisa membantu permintaan itu.”

Jadi para peneliti mengulangi sampel tersebut secara verbatim. Saat itu, itu berhasil.

Sementara ChatGPT mendesak mereka untuk “mendekati informasi ini secara bertanggung jawab,” dan memarahi “jika Anda memiliki niat jahat, mengakses atau mencoba mengakses sumber daya tanpa izin adalah ilegal dan tidak etis.”

“Meskipun demikian,” lanjutnya, “berikut adalah daftar titik akhir umum di mana dokumentasi API, khususnya spesifikasi Swagger/OpenAPI, mungkin diekspos.” Dan kemudian ia memberikan daftarnya.

Tentu saja, informasi ini tidak bersifat jahat, dan dapat digunakan untuk tujuan yang sah – seperti penelitian keamanan atau pentesting. Namun, seperti kebanyakan teknologi yang sah, teknologi juga dapat digunakan untuk kejahatan. 

Meskipun banyak pengembang papan atas yang menggunakan AI untuk meningkatkan kinerja atau efisiensi perangkat lunak mereka, pembuat malware pun mengikuti jejaknya. Penelitian Kaspersky mencakup tangkapan layar perangkat lunak pasca-iklan untuk operator malware yang menggunakan AI untuk tidak hanya menganalisis dan memproses informasi, tetapi juga untuk melindungi penjahat dengan secara otomatis mengganti domain perlindungan setelah domain tersebut disusupi.  

Penting untuk dicatat bahwa penelitian tersebut tidak benar-benar memverifikasi klaim ini, dan penjahat tidak selalu merupakan orang yang paling dapat dipercaya ketika menjual barang dagangan mereka.

Penelitian Kaspersky ini mengikuti laporan lain dari National Cyber ​​Security Centre (NCSC) Inggris, yang menemukan “kemungkinan realistis” bahwa pada tahun 2025, alat milik kru ransomware dan geng negara akan meningkat secara signifikan. berkat model AI. ®

Stempel Waktu:

Lebih dari Pendaftaran