Balanceakt: Der Wert menschlichen Fachwissens im Zeitalter generativer KI – DATAVERSITY

Balanceakt: Der Wert menschlichen Fachwissens im Zeitalter der generativen KI – DATAVERSITY

Quellknoten: 3052574

Wenn es um die Sicherheit geht, gilt der Mensch als das schwächste Glied im Unternehmen. Zu Recht, als über 95% der Cybersicherheitsvorfälle werden durch menschliches Versagen verursacht. Menschen sind launisch, fehlbar und unberechenbar, was sie zu leichten Zielen für Cyberkriminelle macht, die sich Zugang zu den Systemen von Unternehmen verschaffen wollen.  

Umso wichtiger ist unsere Abhängigkeit von Maschinen. Bis zu diesem Zeitpunkt konnten wir darauf vertrauen, dass Maschinen mit Code als Wahrheit arbeiten. Auch wenn sie durch Schwachstellen im Code oder durch soziale Schwächen ihrer menschlichen Betreiber gefährdet werden können, lässt sich den Problemen in der Regel eine eindeutige Lösung begegnen. 

Doch mit dem Aufstieg von generative KI (GenAI) und große Sprachmodelle (LLMs) sind Unternehmen nun mit Social-Engineering-Angriffen konfrontiert, die die KI dazu verleiten, Dinge zu tun, für die sie nicht vorgesehen war. Je mehr wir die KI verlagern, desto interessanter wird es sein, die Auswirkungen dieser neuen Angriffsmuster zu beobachten.

Angesichts dieses Dilemmas liegt es erneut an den Menschen, sich in dieser komplexen und sich weiterentwickelnden KI-Sicherheitslandschaft zurechtzufinden. Dies erfordert von CISOs, die Vorteile und Mängel von KI klar zu kommunizieren und die lange Liste von Sicherheitsüberlegungen im Zusammenhang mit KI-gestützten Produkten und Funktionen anzuerkennen. 

Die überstürzte Implementierung generativer KI bringt neue Herausforderungen für die Cybersicherheit mit sich

Zunächst einmal ist ein häufiges Problem bei GenAI und LLMs die weitgehende übermäßige Abhängigkeit von KI-generierten Inhalten. Das Vertrauen auf KI-generierte Inhalte ohne Überprüfung oder Überprüfung auf irreführende oder Fehlinformationen ohne menschliches Zutun oder Aufsicht kann zur Verbreitung fehlerhafter Daten führen, die zu schlechter Entscheidungsfindung und vermindertem kritischen Denken führen. Es ist bekannt, dass LLMs halluzinieren, sodass einige der Desinformationen möglicherweise nicht einmal auf böswillige Absichten zurückzuführen sind.

Ebenso wird die Menge an unsicherem Code, die im Zuge der Entwicklung von GenAI eingeführt wird, auch für CISOs zu einer erheblichen Herausforderung werden, wenn sie nicht proaktiv antizipiert wird. Es ist bekannt, dass KI-Engines fehlerhaften Code mit Sicherheitslücken schreiben. Ohne die richtige menschliche Aufsicht ermöglicht GenAI Menschen ohne die richtigen technischen Grundlagen, Code zu versenden. Dies führt zu einem erhöhten Sicherheitsrisiko während des gesamten Softwareentwicklungslebenszyklus für Unternehmen, die diese Tools unsachgemäß verwenden.

Datenlecks sind ein weiteres weit verbreitetes Problem. In einigen Fällen können Angreifer Prompt-Injection nutzen, um vertrauliche Informationen zu extrahieren, die das KI-Modell von einem anderen Benutzer gelernt hat. Oftmals kann dies harmlos sein, eine böswillige Nutzung ist jedoch sicherlich nicht ausgeschlossen. Kriminelle könnten das KI-Tool absichtlich mit sorgfältig ausgearbeiteten Eingabeaufforderungen untersuchen und darauf abzielen, sensible Informationen zu extrahieren, die das Tool gespeichert hat, was zur Offenlegung sensibler oder vertraulicher Informationen führen könnte.

KI kann einige Cybersicherheitslücken vergrößern, hat jedoch erhebliches Potenzial, andere zu schließen

Schließlich wird davon ausgegangen, dass die Verbreitung von GenAI und LLMs aus mehreren Gründen einen Teil der Verringerung der Angriffsfläche unserer Branche beeinträchtigen wird. Erstens senkt die Fähigkeit, Code mit GenAI zu generieren, die Hürde für die Arbeit als Softwareentwickler, was zu schwächerem Code und noch schwächeren Sicherheitsstandards führt. Zweitens erfordert GenAI riesige Datenmengen, was bedeutet, dass das Ausmaß und die Auswirkungen von Datenschutzverletzungen exponentiell zunehmen werden. Drittens sind sich Entwickler wie bei jeder neuen Technologie möglicherweise nicht vollständig darüber im Klaren, wie ihre Implementierung ausgenutzt oder missbraucht werden kann. 

Dennoch ist es wichtig, eine ausgewogene Perspektive einzunehmen. Während die Erleichterung der Codegenerierung durch Gen AI Anlass zur Sorge geben mag, bringt sie auch positive Eigenschaften für die Cybersicherheitslandschaft mit sich. So können beispielsweise Sicherheitslücken wie Cross-Site Scripting (XSS) oder SQL-Injection effektiv identifiziert werden. Diese Doppelnatur unterstreicht die Bedeutung eines differenzierten Verständnisses. Anstatt KI nur als schädlich zu betrachten, wird die komplementäre Beziehung zwischen künstlicher Intelligenz und menschlicher Beteiligung an der Cybersicherheit betont. CISOs müssen die damit verbundenen Risiken von GenAI und LLMs erkennen und gleichzeitig menschenzentrierte Ansätze zur Implementierung von GenAI und zur Stärkung ihrer Organisationen erkunden.

Der Mensch nimmt auf, was die KI hinterlässt

CISOs haben nicht nur die Aufgabe, die Komplexität von GenAI zu entschlüsseln. Sie müssen ihrer Organisation den Weg nach vorne ebnen und der Führung zeigen, wie ihre Organisation in einer von GenAI dominierten Welt weiterhin erfolgreich sein kann. 

Obwohl Endbenutzer oft für viele Sicherheitslücken verantwortlich sind, gibt es keinen besseren Schutz vor Cyberkriminalität als einen gut ausgebildeten und sicherheitsbewussten Menschen. Unabhängig davon, über welche Tools zur Bedrohungserkennung ein Unternehmen verfügt, gibt es beim Testen von Software einfach keinen Ersatz für die Person hinter dem Bildschirm. 

Unternehmen können Cyberkriminelle mit der Macht von hinter sich lassen ethisches Hacken. Während einige aufgrund überholter Missverständnisse davor zurückschrecken, Hacker in ihr Netzwerk einzuladen, sind diese gesetzestreuen Cybersicherheitsexperten die besten Gegner, um es mit böswilligen Akteuren aufzunehmen – denn im Gegensatz zu KI können sie in die Köpfe der Cyberangreifer eindringen.

Tatsächlich ergänzen Hacker bereits automatisierte Tools im Kampf gegen Cyberkriminelle 92% der ethische Hacker Sie sagen, dass sie Schwachstellen finden können, die Scanner nicht finden können. Indem Führungskräfte den Schleier über Hacking endgültig lüften, können sie sich ethisches Hacken und menschliche Unterstützung zu eigen machen, um bei der Bekämpfung moderner Cyberkriminalität ein wirksameres Gleichgewicht zwischen KI und menschlichen Experten zu erreichen. Unser aktueller Von Hackern betriebener Sicherheitsbericht unterstreicht dies: 91 % unserer Kunden geben an, dass Hacker aussagekräftigere und wertvollere Schwachstellenberichte liefern als KI- oder Scan-Lösungen. Während KI weiterhin unsere Zukunft prägt, wird sich die ethische Hacker-Community weiterhin dafür einsetzen, ihre sichere Integration zu gewährleisten.

Durch die Kombination von Automatisierung mit einem Netzwerk hochqualifizierter Hacker können Unternehmen kritische Anwendungsfehler erkennen, bevor sie ausgenutzt werden. Wenn Unternehmen automatisierte Sicherheitstools effektiv mit ethischem Hacking kombinieren, schließen sie Lücken in der sich ständig weiterentwickelnden digitalen Angriffsfläche. 

Dies liegt daran, dass Menschen und KI zusammenarbeiten können, um die Produktivität des Sicherheitsteams zu verbessern: 

  1. Angriffsflächenaufklärung: Moderne Unternehmen können eine umfangreiche und komplexe IT-Infrastruktur aufbauen, die eine Vielzahl autorisierter und nicht genehmigter Hardware und Software umfasst. Die Entwicklung eines umfassenden Index von IT-Ressourcen wie Software und Hardware ist wichtig, um Schwachstellen zu reduzieren, das Patch-Management zu optimieren und die Einhaltung von Branchenvorschriften zu unterstützen. Es hilft auch dabei, die Punkte zu identifizieren und zu analysieren, über die ein Angreifer ein Unternehmen angreifen könnte.
  2. Kontinuierliche Beurteilungen: Über die Point-in-Time-Sicherheit hinaus können Unternehmen den Einfallsreichtum menschlicher Sicherheitsexperten mit Einblicken in die Angriffsfläche in Echtzeit kombinieren, um kontinuierliche Tests der digitalen Landschaft zu erreichen. Kontinuierliche Penetrationstests ermöglichen es IT-Teams, die Ergebnisse ständiger Simulationen anzuzeigen, die zeigen, wie ein Verstoß in der aktuellen Umgebung aussehen würde und potenzielle Schwachstellen, an denen sich Teams in Echtzeit anpassen können.
  3. Prozessverbesserungen: Vertrauenswürdige menschliche Hacker können Sicherheitsteams wertvolle Informationen über Schwachstellen und Vermögenswerte liefern, um Prozessverbesserungen zu unterstützen.

Zusammenfassung

Da sich die generative KI weiterhin rasant weiterentwickelt, müssen CISOs ihr Verständnis dafür nutzen, wie Menschen zusammenarbeiten können, um die KI-Sicherheit zu verbessern und die Unterstützung ihres Vorstands und Führungsteams zu gewinnen. Dadurch können Organisationen über ausreichend Personal und Ressourcen verfügen, um diese Herausforderungen effektiv zu bewältigen. Die richtige Balance zwischen schneller KI-Implementierung und umfassender Sicherheit durch die Zusammenarbeit mit ethischen Hackern zu finden, stärkt das Argument für die Investition in geeignete KI-gestützte Lösungen.

Zeitstempel:

Mehr von DATENVERSITÄT