Datenerklärbarkeit: Das Gegenstück zur Modellerklärbarkeit – DATAVERSITY

Datenerklärbarkeit: Das Gegenstück zur Modellerklärbarkeit – DATAVERSITY

Quellknoten: 2658143

KI und ML sind heute überall. 

Ob es jeder ist, der mitspielt ChatGPT (das schnellste angenommene App in der Geschichte) oder einen aktuellen Vorschlag zum Hinzufügen eine vierte Farbe für Ampeln Um den Übergang zu selbstfahrenden Autos sicherer zu machen, hat KI unser Leben gründlich durchdrungen. Während KI zugänglicher denn je zu sein scheint, hat die Komplexität von KI-Modellen exponentiell zugenommen. 

KI-Modelle fallen in die Hauptkategorien Black-Box- und White-Box-Modelle. Black-Box-Modelle treffen eine Entscheidung ohne Erklärung, während White-Box-Modelle ein Ergebnis liefern, das auf den Regeln basiert, die dieses Ergebnis hervorgebracht haben. 

Während wir uns immer weiter in Richtung einer Welt umfassender Deep-Learning-Methoden bewegen, tendieren die meisten größtenteils zu Black-Box-Modellen. 

Das Problem mit diesem Ansatz? Black-Box-Modelle (wie die in Computer Vision integrierten) können nicht direkt genutzt werden. Dies wird oft als Black-Box-Problem bezeichnet. Während das erneute Trainieren von Black-Box-Modellen Benutzern einen Starthilfe geben kann, wird es mit zunehmender Komplexität der Modelle schwieriger, das Modell zu interpretieren und die Ergebnisse des Black-Box-Modells zu verstehen.

Eine Taktik zur Lösung des Black-Box-Rätsels besteht darin, ein sehr maßgeschneidertes und erklärbares Modell zu erstellen. 

Aber dies ist nicht die Richtung, in die sich die Welt bewegt. 

Wo die Erklärbarkeit des Modells endet, beginnt die Erklärbarkeit der Daten

Erklärbarkeit ist von entscheidender Bedeutung, da sie die Transparenz, Genauigkeit und Fairness des Modells verbessert und auch das Vertrauen in die KI stärken kann. Während die Modellerklärbarkeit ein herkömmlicher Ansatz ist, besteht nun auch Bedarf an einem neuen Typ: der Datenerklärbarkeit.

Modellerklärbarkeit bedeutet, den Algorithmus zu verstehen, um das Endergebnis zu verstehen. Wenn beispielsweise ein in einer Onkologieabteilung verwendetes Modell dazu dient, zu testen, ob eine Wucherung krebsartig ist, sollte ein Gesundheitsdienstleister die Variablen verstehen, die zu den Endergebnissen führen. Auch wenn das theoretisch großartig klingt, löst die Erklärbarkeit des Modells das Black-Box-Problem nicht ganz. 

Da Modelle immer komplexer werden, werden die meisten Praktiker nicht in der Lage sein, die Transformationen genau zu bestimmen und die Berechnungen in den inneren Schichten des Modells zu interpretieren. Sie verlassen sich weitgehend auf das, was sie kontrollieren können, also auf die Trainingsdatensätze und ihre Beobachtungen, die Ergebnisse und Vorhersagemaße.  

Nehmen wir das Beispiel eines Datenwissenschaftlers, der ein Modell erstellt, um Fotos von Kaffeetassen aus Tausenden von Fotos zu erkennen – aber das Modell beginnt beispielsweise auch Bilder von Trinkgläsern und Bierkrügen zu erkennen. Auch wenn die Glas- und Bierkrüge eine gewisse Ähnlichkeit mit Kaffeebechern haben, gibt es doch deutliche Unterschiede, wie z. B. typische Materialien, Farbe, Undurchsichtigkeit und strukturelle Proportionen.

Damit das Modell Kaffeetassen mit höherer Zuverlässigkeit erkennen kann, muss der Datenwissenschaftler Antworten auf Fragen wie die folgenden haben:

  • Welche Bilder hat das Model anstelle von Kaffeetassen aufgenommen? 
  • Ist das Modell gescheitert, weil ich ihm nicht genügend oder nicht die richtigen Beispiele für Kaffeetassen zur Verfügung gestellt habe?
  • Ist dieses Modell überhaupt gut genug für das, was ich erreichen wollte?
  • Muss ich meine Sicht auf das Modell hinterfragen?
  • Was kann ich schlüssig feststellen, dass das Modell scheitert? 
  • Soll ich neue Annahmen des Modells generieren?
  • Habe ich für den Job einfach das falsche Modell gewählt?

Wie Sie sehen, ist es höchst unwahrscheinlich, jedes Mal, wenn ein Problem auftritt, diese Art von Einblick, Verständnis und Modellerklärbarkeit zu liefern.

Datenerklärbarkeit ist das Verstehen der technische Daten Wird für das Training und die Eingabe in ein Modell verwendet, um zu verstehen, wie das Endergebnis eines Modells erreicht wird. Da ML-Algorithmen immer komplexer werden, aber in allen Berufen und Branchen immer häufiger eingesetzt werden, wird die Erklärbarkeit von Daten der Schlüssel zur schnellen Erschließung und Lösung häufig auftretender Probleme sein, wie etwa bei unserem Kaffeebecher-Beispiel.

Erhöhung der Fairness und Transparenz im ML durch Datenerklärbarkeit

Fairness innerhalb von ML-Modellen ist ein heißes Thema, das durch die Anwendung der Datenerklärbarkeit noch heißer werden kann.

Warum das Summen? Voreingenommenheit in der KI kann bei einer Gruppe zu voreingenommenen Ergebnissen führen. Einer der am besten dokumentierten Fälle hierfür sind Vorurteile in rassistischen Anwendungsfällen. Schauen wir uns ein Beispiel an. 

Angenommen, eine große, bekannte Verbraucherplattform sucht eine neue Position als Marketingleiter. Um die Masse an Lebensläufen zu bewältigen, die täglich eingehen, setzt die Personalabteilung ein KI/ML-Modell ein, um den Bewerbungs- und Rekrutierungsprozess durch die Auswahl von Schlüsselmerkmalen oder qualifizierten Bewerbern zu optimieren. 

Um diese Aufgabe zu erfüllen und jeden Lebenslauf zu erkennen und in einen Bucket einzuteilen, wird das Modell dies tun, indem es die wichtigsten dominanten Merkmale versteht. Leider ist dies ebenfalls bedeutet, dass das Modell implizit auch allgemeine rassistische Vorurteile bei den Kandidaten aufgreifen könnte. Wie genau würde das passieren? Wenn ein Bewerberpool einen kleineren Prozentsatz einer Rasse umfasst, geht die Maschine davon aus, dass die Organisation Mitglieder einer anderen Rasse oder des dominanten Datensatzes bevorzugt.

Wenn ein Modell ausfällt, auch wenn es unbeabsichtigt ist, muss das Unternehmen den Fehler beheben. Grundsätzlich muss derjenige, der das Modell einsetzt, in der Lage sein, die Verwendung des Modells zu verteidigen.

Im Fall von Einstellungen und rassistischer Voreingenommenheit müsste der Verteidiger in der Lage sein, einer verärgerten Öffentlichkeit und/oder einem Bewerbungspool die Verwendung von Datensätzen zum Trainieren des Modells, die anfänglichen erfolgreichen Ergebnisse des Modells auf der Grundlage dieses Trainings und das Scheitern von zu erklären das Modell, einen Eckfall aufzugreifen, und wie dies zu einem unbeabsichtigten Datenungleichgewicht führte, das schließlich zu einem rassistisch voreingenommenen Filterprozess führte.

Für die meisten werden diese detaillierten Details zu KI, Ungleichgewichtsdatensätzen, Modelltraining und eventuellem Scheitern durch Datenüberwachung weder gut aufgenommen noch überhaupt verstanden. Aber was wird aus dieser Geschichte verstanden und bleibt bestehen? Das Unternehmen XYZ praktiziert bei der Einstellung rassistischer Vorurteile. 

Die Moral dieses allzu häufigen Beispiels ist, dass unbeabsichtigte Fehler eines sehr intelligenten Modells passieren und sich negativ auf den Menschen auswirken und schlimme Folgen haben können. 

Wohin uns die Datenerklärbarkeit führt

Anstatt Ergebnisse durch das Verständnis eines komplexen Modells für maschinelles Lernen zu übersetzen, nutzt die Datenerklärbarkeit die Daten, um Vorhersagen und Fehler zu erklären.

Die Datenerklärbarkeit ist dann eine Kombination aus der Betrachtung der Testdaten und Verstehen, was ein Modell aus diesen Daten erfassen wird. Dazu gehört das Verständnis unterrepräsentierter Datenstichproben, überrepräsentierter Stichproben (wie im Einstellungsbeispiel) und der Transparenz der Erkennung eines Modells, um Vorhersagen und Fehlvorhersagen genau zu verstehen.

Dieses Verständnis der Erklärbarkeit von Daten wird nicht nur die Genauigkeit und Fairness von Modellen verbessern, sondern auch dazu beitragen, dass Modelle schneller beschleunigen.

Da wir uns weiterhin auf komplexe KI- und ML-Programme verlassen und diese in unser tägliches Leben integrieren, wird die Lösung des Black-Box-Problems von entscheidender Bedeutung, insbesondere bei Ausfällen und Fehlvorhersagen. 

Während die Erklärbarkeit von Modellen immer ihre Berechtigung haben wird, erfordert sie eine weitere Ebene. Wir brauchen die Erklärbarkeit von Daten, da das Verständnis dessen, was ein Modell sieht und liest, niemals durch die Erklärbarkeit klassischer Modelle abgedeckt werden kann.

Zeitstempel:

Mehr von DATENVERSITÄT