Actul de echilibrare: valoarea expertizei umane în era IA generativă - DATAVERSITY

Actul de echilibrare: valoarea expertizei umane în era IA generativă – DATAVERSITY

Nodul sursă: 3052574

Oamenii sunt considerați cea mai slabă verigă a întreprinderii când vine vorba de securitate. Pe bună dreptate, ca în creștere de 95% dintre incidentele de securitate cibernetică sunt cauzate de eroare umană. Oamenii sunt volubili, falibili și imprevizibili, făcându-i ținte ușoare pentru infractorii cibernetici care doresc să intre în sistemele organizațiilor.  

Acest lucru face ca dependența noastră de mașini să fie mult mai importantă. Până în acest moment, am putut avea încredere în mașini pentru a funcționa cu codul ca adevăr. Chiar dacă pot fi compromise prin vulnerabilitățile din cod sau prin defectele sociale ale operatorilor lor umani, problemele sunt de obicei rezolvate cu o soluție clară. 

Cu toate acestea, odată cu ascensiunea AI generativă (GenAI) și modele lingvistice mari (LLMs), organizațiile se confruntă acum cu atacuri de inginerie socială care păcălesc AI să facă lucruri pe care nu era intenționat să le facă. Pe măsură ce descarcăm mai multe în AI, va fi interesant să vedem că aceste noi modele de atac se desfășoară.

În fața acestei dileme, depinde din nou de oameni să navigheze în acest peisaj de securitate AI complex și în evoluție. Acest lucru îi solicită CISO să comunice în mod clar beneficiile, precum și deficiențele AI și să recunoască lista lungă de considerente de securitate legate de produsele și capabilitățile bazate pe AI. 

Implementarea grăbită a IA generativă aduce noi provocări pentru securitatea cibernetică

Pentru început, o problemă comună când vine vorba de GenAI și LLM-uri este dependența excesivă de conținutul generat de AI. Încrederea în conținutul generat de inteligență artificială fără verificarea sau verificarea informațiilor înșelătoare sau greșite fără intervenție umană sau supraveghere poate duce la propagarea datelor eronate care informează luarea decizională slabă și gândirea critică redusă. Se știe că LLM-urile halucinează, așa că o parte din dezinformare poate nici măcar să nu rezulte din intenții rău intenționate.

În același sens, cantitatea de cod nesigur care este introdusă în urma evoluției GenAI va deveni, de asemenea, o provocare semnificativă pentru CISO, dacă nu este anticipată în mod proactiv. Motoarele AI sunt cunoscute că scriu coduri cu erori cu vulnerabilități de securitate. Fără o supraveghere umană adecvată, GenAI dă putere oamenilor fără bazele tehnice adecvate pentru a trimite cod. Acest lucru duce la un risc crescut de securitate pe tot parcursul ciclului de viață al dezvoltării software pentru organizațiile care folosesc aceste instrumente în mod necorespunzător.

Scurgerea de date este o altă problemă predominantă. În unele cazuri, atacatorii pot folosi injectarea promptă pentru a extrage informații sensibile pe care modelul AI le-a învățat de la un alt utilizator. De multe ori acest lucru poate fi inofensiv, dar utilizarea rău intenționată nu este cu siguranță exclusă. Actorii răi ar putea investiga în mod intenționat instrumentul AI cu instrucțiuni meticulos, cu scopul de a extrage informații sensibile pe care instrumentul le-a memorat, ceea ce duce la scurgerea de informații sensibile sau confidențiale.

AI poate crește unele lacune de securitate cibernetică, dar are un potențial semnificativ de a închide altele

În cele din urmă, se înțelege că propagarea GenAI și LLM va regresa o parte din reducerea suprafeței de atac a industriei noastre din câteva motive. În primul rând, capacitatea de a genera cod cu GenAI scade ștacheta cine poate fi inginer software, rezultând un cod mai slab și standarde de securitate chiar mai slabe. În al doilea rând, GenAI necesită cantități mari de date, ceea ce înseamnă că amploarea și impactul încălcării datelor vor crește exponențial. În al treilea rând, ca și în cazul oricărei tehnologii emergente, dezvoltatorii pot să nu fie pe deplin conștienți de modurile în care implementarea lor poate fi exploatată sau abuzată. 

Cu toate acestea, este esențial să adoptăm o perspectivă echilibrată. Deși facilitarea generării codului de către Gen AI poate ridica îngrijorări, aceasta aduce, de asemenea, atribute pozitive peisajului securității cibernetice. De exemplu, poate identifica eficient vulnerabilitățile de securitate, cum ar fi Cross-Site Scripting (XSS) sau injecția SQL. Această natură duală subliniază importanța unei înțelegeri nuanțate. În loc să considere AI ca fiind doar dăunătoare, ea subliniază relația complementară dintre inteligența artificială și implicarea umană în securitatea cibernetică. CISO trebuie să înțeleagă riscurile asociate ale GenAI și LLM-urilor în timp ce explorează concomitent abordări centrate pe om pentru a implementa GenAI și a-și consolida organizațiile.

Oamenii preiau ceea ce AI lasă în urmă

CISO nu sunt însărcinați doar să dezvăluie complexitățile GenAI. Ei trebuie să deschidă o cale înainte pentru organizația lor și să demonstreze conducerii modul în care organizația lor poate continua să prospere într-o lume dominată de GenAI. 

În timp ce utilizatorii finali sunt adesea responsabili pentru multe vulnerabilități de securitate, nu există o apărare mai bună împotriva criminalității cibernetice decât un om bine antrenat și cu minte de securitate. Indiferent de instrumentele de detectare a amenințărilor pe care le are o organizație, pur și simplu nu există nicio înlocuire a persoanei din spatele ecranului atunci când vine vorba de testarea software-ului. 

Organizațiile pot depăși infractorii cibernetici folosind puterea lui hacking etic. În timp ce unii ezită să invite hackeri în rețeaua lor din cauza unor concepții greșite învechite, acești experți în securitate cibernetică care respectă legea sunt cei mai buni potriviri pentru a lupta împotriva actorilor răi – pentru că, spre deosebire de AI, aceștia pot pătrunde în capul atacatorilor cibernetici.

De fapt, hackerii completează deja instrumentele automatizate în lupta împotriva infractorilor cibernetici, cu 92% din hackeri etici spunând că pot găsi vulnerabilități pe care scanerele nu le pot. Retrăgând definitiv vălul hackingului, liderii de afaceri pot îmbrățișa hackingul etic și sprijinul uman pentru a găsi un echilibru mai eficient între AI și experții umani în lupta împotriva criminalității cibernetice moderne. Recentul nostru Raport de securitate alimentat de hackeri subliniază acest lucru, 91% dintre clienții noștri afirmând că hackerii oferă rapoarte de vulnerabilitate mai valoroase și de impact decât soluțiile de AI sau de scanare. Pe măsură ce AI continuă să ne modeleze viitorul, comunitatea hackerilor etici va rămâne angajată să asigure integrarea sa în siguranță.

Combinația dintre automatizare cu o rețea de hackeri cu înaltă calificare înseamnă că companiile pot identifica defectele critice ale aplicațiilor înainte de a fi exploatate. Atunci când organizațiile combină eficient instrumentele automate de securitate cu hackingul etic, ele îndepărtează golurile în suprafața de atac digital în continuă evoluție. 

Acest lucru se datorează faptului că oamenii și AI pot lucra împreună pentru a îmbunătăți productivitatea echipei de securitate: 

  1. Recunoașterea suprafeței de atac: Organizațiile moderne pot dezvolta o infrastructură IT extinsă și complexă, care cuprinde o varietate de hardware și software atât autorizat, cât și neautorizat. Dezvoltarea unui index cuprinzător al activelor IT, cum ar fi software-ul și hardware-ul, este importantă pentru reducerea vulnerabilităților, eficientizarea gestionării corecțiilor și sprijinirea conformității cu mandatele industriei. De asemenea, ajută la identificarea și analiza punctelor prin care un atacator ar putea viza o organizație.
  2. Evaluări continue: Trecând dincolo de securitatea punctuală, organizațiile pot combina ingeniozitatea experților în securitate umană cu informații în timp real asupra suprafeței de atac pentru a realiza testarea continuă a peisajului digital. Testarea continuă de penetrare permite echipelor IT să vadă rezultatele simulărilor constante care arată cum ar arăta o încălcare în mediul actual și potențialele puncte slabe în care echipele se pot adapta în timp real.
  3. Îmbunătățiri ale procesului: Hackerii umani de încredere pot oferi echipelor de securitate informații valoroase despre vulnerabilități și active pentru a ajuta la îmbunătățirea procesului.

Concluzie

Pe măsură ce IA generativă continuă să evolueze într-un ritm atât de rapid, CISO trebuie să își valorifice înțelegerea modului în care oamenii pot colabora pentru a îmbunătăți securitatea AI și pentru a obține sprijin din partea consiliului de conducere și a echipei de conducere. Ca rezultat, organizațiile pot avea personal și resurse adecvate pentru a aborda aceste provocări în mod eficient. Găsirea echilibrului corect între implementarea rapidă a AI și securitatea cuprinzătoare prin colaborarea cu hackeri etici întărește argumentul pentru investiția în soluții adecvate bazate pe AI.

Timestamp-ul:

Mai mult de la VERSITATE DE DATE