KI-Forscher decken kritische Schwachstellen in wichtigen LLMs auf

KI-Forscher decken kritische Schwachstellen in wichtigen LLMs auf

Quellknoten: 2936742
15. Oktober 2023 (Nanowerk-Neuigkeiten) Large Language Models (LLMs) wie ChatGPT und Bard haben dieses Jahr die Welt im Sturm erobert, wobei Unternehmen Millionen in die Entwicklung dieser KI-Tools investieren und einige führende KI-Chatbots einen Wert in Milliardenhöhe haben. Diese LLMs, die zunehmend in KI-Chatbots eingesetzt werden, durchsuchen das gesamte Informationsnetz, um zu lernen und fundierte Antworten zu geben, die sie auf benutzerspezifische Anfragen, sogenannte „Prompts“, geben. Allerdings haben Informatiker des KI-Sicherheits-Start-ups Mindgard und der Lancaster University im Vereinigten Königreich gezeigt, dass Teile dieser LLMs in weniger als einer Woche für nur 50 US-Dollar kopiert werden können und die gewonnenen Informationen für gezielte Angriffe genutzt werden können . Die Forscher warnen, dass Angreifer, die diese Schwachstellen ausnutzen, private vertrauliche Informationen preisgeben, Schutzmaßnahmen umgehen, falsche Antworten geben oder weitere gezielte Angriffe durchführen könnten. Ausführlich in einem neuen Artikel („Model Leeching: Ein Extraktionsangriff, der auf LLMs abzielt“), die auf der CAMLIS 2023 (Conference on Applied Machine Learning for Information Security) vorgestellt werden soll, zeigen die Forscher, dass es möglich ist, wichtige Aspekte bestehender LLMs kostengünstig zu kopieren, und sie weisen Beweise für die Übertragung von Schwachstellen zwischen verschiedenen Modellen nach. Dieser Angriff, der als „Model-Leeching“ bezeichnet wird, funktioniert, indem er mit LLMs so kommuniziert, dass er eine Reihe gezielter Eingabeaufforderungen erhält, sodass die LLMs aufschlussreiche Informationen über die Funktionsweise des Modells erhalten. Das Forschungsteam, das seine Studie auf ChatGPT-3.5-Turbo konzentrierte, nutzte dieses Wissen dann, um ein eigenes Kopiermodell zu erstellen, das 100-mal kleiner war, aber wichtige Aspekte des LLM nachbildete. Anschließend konnten die Forscher diese Modellkopie als Testgelände nutzen, um herauszufinden, wie sich Schwachstellen in ChatGPT unbemerkt ausnutzen lassen. Anschließend konnten sie die aus ihrem Modell gewonnenen Erkenntnisse nutzen, um Schwachstellen in ChatGPT mit einer um 11 % höheren Erfolgsquote anzugreifen. Dr. Peter Garraghan von der Lancaster University, CEO von Mindgard und Hauptforscher der Forschung, sagte: „Was wir entdeckt haben, ist wissenschaftlich faszinierend, aber äußerst besorgniserregend. Dies ist eine der allerersten Arbeiten, die empirisch zeigt, dass Sicherheitslücken erfolgreich zwischen Closed-Source- und Open-Source-Modellen für maschinelles Lernen übertragen werden können, was äußerst besorgniserregend ist, wenn man bedenkt, wie sehr die Industrie auf öffentlich verfügbare Modelle für maschinelles Lernen angewiesen ist, die an Orten wie HuggingFace gehostet werden.“ Die Forscher sagen, dass ihre Arbeit zeigt, dass diese leistungsstarken digitalen KI-Technologien zwar klare Einsatzmöglichkeiten haben, es aber versteckte Schwächen gibt und es möglicherweise sogar gemeinsame Schwachstellen bei allen Modellen gibt. Unternehmen in allen Branchen investieren derzeit Milliarden in die Entwicklung eigener LLMs oder bereiten sich darauf vor, diese zu investieren, um ein breites Spektrum an Aufgaben wie intelligente Assistenten zu übernehmen. Finanzdienstleister und große Unternehmen übernehmen diese Technologien, aber Forscher sagen, dass diese Schwachstellen ein großes Problem für alle Unternehmen sein sollten, die planen, LLMs von Drittanbietern aufzubauen oder zu nutzen. Dr. Garraghan sagte: „Obwohl die LLM-Technologie potenziell transformativ ist, müssen Unternehmen und Wissenschaftler gleichermaßen sehr sorgfältig darüber nachdenken, die Cyberrisiken zu verstehen und zu messen, die mit der Einführung und dem Einsatz von LLMs verbunden sind.“

Zeitstempel:

Mehr von Nanowerk