Balancing Act: Nilai Keahlian Manusia di Era AI Generatif - DATAVERSITY

Balancing Act: Nilai Keahlian Manusia di Era AI Generatif – DATAVERSITY

Node Sumber: 3052574

Manusia dianggap sebagai mata rantai terlemah dalam perusahaan dalam hal keamanan. Memang benar demikian, sebagai lebih dari 95% Sebagian besar insiden keamanan siber disebabkan oleh kesalahan manusia. Manusia bersifat berubah-ubah, mudah salah, dan tidak dapat diprediksi, sehingga menjadikan mereka sasaran empuk bagi penjahat dunia maya yang ingin mendapatkan akses ke sistem organisasi.  

Hal ini membuat ketergantungan kita pada mesin menjadi lebih penting. Hingga saat ini, kami dapat mempercayai mesin untuk beroperasi dengan kode sebagai kebenarannya. Meskipun masalah tersebut dapat dikompromikan melalui kerentanan dalam kode atau melalui kelemahan sosial dari operator manusianya, permasalahan tersebut biasanya dapat diatasi dengan solusi yang jelas. 

Namun, dengan bangkitnya AI generatif (GenAI) dan model bahasa besar (LLMs), organisasi kini menghadapi serangan rekayasa sosial yang mengelabui AI agar melakukan hal-hal yang tidak dimaksudkan untuk dilakukan. Saat kita lebih banyak beralih ke AI, akan menarik untuk melihat pola serangan baru ini terjadi.

Dalam menghadapi dilema ini, sekali lagi manusialah yang harus menavigasi lanskap keamanan AI yang kompleks dan terus berkembang ini. Hal ini menghimbau CISO untuk mengkomunikasikan dengan jelas manfaat dan kekurangan AI dan mengakui daftar panjang pertimbangan keamanan yang terkait dengan produk dan kemampuan yang didukung AI. 

Penerapan AI Generatif yang Tergesa-gesa Mendatangkan Tantangan Keamanan Siber Baru

Pertama, masalah umum terkait GenAI dan LLM adalah ketergantungan yang berlebihan pada konten yang dihasilkan AI. Mempercayai konten yang dihasilkan AI tanpa memverifikasi atau memeriksa informasi yang menyesatkan atau salah tanpa masukan atau pengawasan manusia dapat menyebabkan penyebaran data yang salah yang menjadi dasar pengambilan keputusan yang buruk dan berkurangnya pemikiran kritis. LLM diketahui berhalusinasi, jadi beberapa disinformasi mungkin bukan disebabkan oleh niat jahat.

Demikian pula, jumlah kode tidak aman yang diperkenalkan setelah evolusi GenAI juga akan menjadi tantangan besar bagi CISO, jika tidak diantisipasi secara proaktif. Mesin AI diketahui menulis kode buggy dengan kerentanan keamanan. Tanpa pengawasan manusia yang tepat, GenAI memberdayakan orang-orang tanpa dasar teknis yang tepat untuk mengirimkan kode. Hal ini menyebabkan peningkatan risiko keamanan sepanjang siklus pengembangan perangkat lunak bagi organisasi yang menggunakan alat ini secara tidak benar.

Kebocoran data adalah masalah umum lainnya. Dalam beberapa kasus, penyerang dapat menggunakan injeksi cepat untuk mengekstrak informasi sensitif yang telah dipelajari model AI dari pengguna lain. Seringkali hal ini tidak berbahaya, namun penggunaan yang bermaksud jahat tentu saja tidak dapat dihindarkan. Pihak yang tidak bertanggung jawab dapat dengan sengaja menyelidiki alat AI dengan perintah yang dirancang dengan cermat, yang bertujuan untuk mengekstrak informasi sensitif yang telah diingat oleh alat tersebut, sehingga menyebabkan kebocoran informasi sensitif atau rahasia.

AI Mungkin Meningkatkan Beberapa Kesenjangan Keamanan Siber namun Memiliki Potensi Signifikan untuk Menutup Kesenjangan Lainnya

Terakhir, dapat dipahami bahwa penerapan GenAI dan LLM akan menghambat pengurangan permukaan serangan di industri karena beberapa alasan. Pertama, kemampuan untuk menghasilkan kode dengan GenAI menurunkan standar siapa yang bisa menjadi insinyur perangkat lunak, sehingga menghasilkan kode yang lebih lemah dan standar keamanan yang lebih lemah. Kedua, GenAI membutuhkan data dalam jumlah besar, yang berarti skala dan dampak pelanggaran data akan meningkat secara eksponensial. Ketiga, seperti halnya teknologi baru lainnya, pengembang mungkin tidak sepenuhnya menyadari bagaimana penerapannya dapat dieksploitasi atau disalahgunakan. 

Meskipun demikian, penting untuk mengadopsi perspektif yang seimbang. Meskipun fasilitasi generasi AI dalam pembuatan kode mungkin menimbulkan kekhawatiran, hal ini juga membawa dampak positif pada lanskap keamanan siber. Misalnya, ini dapat secara efektif mengidentifikasi kerentanan keamanan seperti Cross-Site Scripting (XSS) atau injeksi SQL. Sifat ganda ini menggarisbawahi pentingnya pemahaman yang berbeda. Alih-alih memandang AI hanya sebagai hal yang merugikan, laporan ini menekankan hubungan yang saling melengkapi antara kecerdasan buatan dan keterlibatan manusia dalam keamanan siber. CISO harus memahami risiko terkait GenAI dan LLM sekaligus mengeksplorasi pendekatan yang berpusat pada manusia untuk menerapkan GenAI dan memperkuat organisasi mereka.

Manusia Mengambil Apa yang Ditinggalkan AI

CISO tidak hanya bertugas mengungkap kompleksitas GenAI. Mereka harus membuka jalan ke depan bagi organisasi mereka dan menunjukkan kepada pimpinan bagaimana organisasi mereka dapat terus berkembang di dunia yang didominasi GenAI. 

Meskipun pengguna akhir sering kali bertanggung jawab atas banyak kerentanan keamanan, tidak ada pertahanan yang lebih baik terhadap kejahatan dunia maya selain manusia yang terlatih dan berpikiran keamanan. Apa pun alat pendeteksi ancaman yang dimiliki suatu organisasi, tidak ada yang bisa menggantikan orang di belakang layar dalam hal pengujian perangkat lunak. 

Organisasi dapat melampaui penjahat dunia maya dengan menggunakan kekuatan peretasan etis. Meskipun beberapa orang ragu untuk mengundang peretas ke dalam jaringan mereka karena kesalahpahaman yang sudah ada, para pakar keamanan siber yang taat hukum ini adalah pilihan terbaik untuk menghadapi pelaku kejahatan – karena, tidak seperti AI, mereka dapat menembus pikiran para penyerang siber.

Faktanya, peretas sudah melengkapi alat otomatis dalam memerangi penjahat dunia maya dengan 92% dari peretas etis mengatakan mereka dapat menemukan kerentanan yang tidak dapat ditemukan oleh pemindai. Dengan membuka tabir peretasan demi kebaikan, para pemimpin bisnis dapat memanfaatkan peretasan etis dan dukungan manusia untuk mencapai keseimbangan yang lebih efektif antara AI dan pakar manusia dalam memerangi kejahatan dunia maya modern. terbaru kami Laporan Keamanan yang Didukung Peretas menyoroti hal ini, dengan 91% pelanggan kami mengatakan bahwa peretas memberikan laporan kerentanan yang lebih berdampak dan berharga dibandingkan AI atau solusi pemindaian. Ketika AI terus membentuk masa depan kita, komunitas peretas etis akan tetap berkomitmen untuk memastikan integrasi yang aman.

Kombinasi otomatisasi dengan jaringan peretas berketerampilan tinggi berarti perusahaan dapat menentukan kelemahan aplikasi yang penting sebelum dieksploitasi. Ketika organisasi secara efektif memadukan alat keamanan otomatis dengan peretasan etis, mereka menutup kesenjangan dalam permukaan serangan digital yang terus berkembang. 

Hal ini karena manusia dan AI dapat bekerja sama untuk meningkatkan produktivitas tim keamanan: 

  1. Pengintaian permukaan serangan: Organisasi modern dapat mengembangkan infrastruktur TI yang luas dan kompleks yang terdiri dari berbagai perangkat keras dan perangkat lunak resmi dan tidak resmi. Mengembangkan indeks aset TI yang menyeluruh seperti perangkat lunak dan perangkat keras penting untuk mengurangi kerentanan, menyederhanakan manajemen patch, dan membantu kepatuhan terhadap mandat industri. Hal ini juga membantu mengidentifikasi dan menganalisis titik-titik yang mungkin digunakan penyerang untuk menargetkan suatu organisasi.
  2. Penilaian berkelanjutan: Beralih melampaui keamanan point-in-time, organisasi dapat menggabungkan kecerdikan para pakar keamanan manusia dengan wawasan permukaan serangan secara real-time untuk mencapai pengujian berkelanjutan terhadap lanskap digital. Pengujian penetrasi berkelanjutan memungkinkan tim TI untuk melihat hasil simulasi terus-menerus yang menunjukkan bagaimana pelanggaran akan terlihat di lingkungan saat ini dan potensi titik lemah di mana tim dapat beradaptasi secara real-time.
  3. Peningkatan proses: Peretas manusia tepercaya dapat memberikan informasi berharga kepada tim keamanan tentang kerentanan dan aset untuk membantu peningkatan proses.

Kesimpulan

Ketika AI generatif terus berkembang dengan pesat, CISO harus memanfaatkan pemahaman mereka tentang bagaimana manusia dapat berkolaborasi untuk meningkatkan keamanan AI dan mendapatkan dukungan dari dewan direksi dan tim kepemimpinan mereka. Hasilnya, organisasi dapat memiliki staf dan sumber daya yang memadai untuk mengatasi tantangan ini secara efektif. Mencapai keseimbangan yang tepat antara implementasi AI yang cepat dan keamanan komprehensif melalui kolaborasi dengan peretas etis memperkuat argumen untuk berinvestasi pada solusi yang tepat dan didukung AI.

Stempel Waktu:

Lebih dari DATAVERSITAS