Die Bedeutung der Vielfalt in der KI ist keine Meinung, sondern eine Frage der Mathematik – IBM Blog

Die Bedeutung der Vielfalt in der KI ist keine Meinung, sondern eine Frage der Mathematik – IBM Blog

Quellknoten: 3084301


Die Bedeutung der Vielfalt in der KI ist keine Meinung, sondern eine Frage der Mathematik – IBM Blog




Wir alle möchten, dass sich unsere idealen menschlichen Werte in unseren Technologien widerspiegeln. Wir erwarten, dass Technologien wie künstliche Intelligenz (KI) uns nicht anlügen, nicht diskriminieren und für uns und unsere Kinder sicher sind. Dennoch sehen sich viele KI-Entwickler derzeit mit Gegenreaktionen wegen der Vorurteile, Ungenauigkeiten und problematischen Datenpraktiken konfrontiert, die in ihren Modellen aufgedeckt werden. Diese Probleme erfordern mehr als eine technische, algorithmische oder KI-basierte Lösung. In der Realität ist ein ganzheitlicher, soziotechnischer Ansatz erforderlich.

Die Mathematik zeigt eine starke Wahrheit

Alle Vorhersagemodelle, einschließlich KI, sind genauer, wenn sie vielfältige menschliche Intelligenz und Erfahrung einbeziehen. Dies ist keine Meinung; es hat empirische Gültigkeit. Bedenke die Diversity-Vorhersagesatz. Einfach ausgedrückt: Wenn die Vielfalt in einer Gruppe groß ist, ist der Fehler der Menge gering – was das Konzept der „Weisheit der Menge“ unterstützt. In einer einflussreichen Studie wurde gezeigt, dass verschiedene Gruppen von Problemlösern mit geringen Fähigkeiten Gruppen von Problemlösern mit hohen Fähigkeiten übertreffen können (Hong & Page, 2004).

In mathematischer Sprache: Je größer Ihre Varianz, desto standardisierter ist Ihr Mittelwert. Die Gleichung sieht so aus:

A weiter studieren lieferte weitere Berechnungen, die die statistischen Definitionen einer weisen Menge verfeinern, einschließlich der Unkenntnis der Vorhersagen anderer Mitglieder und der Einbeziehung derjenigen mit maximal unterschiedlich (negativ korrelierte) Vorhersagen oder Urteile. Es ist also nicht nur die Menge, sondern auch die Vielfalt, die die Vorhersagen verbessert. Wie könnte sich diese Erkenntnis auf die Bewertung von KI-Modellen auswirken?

Modell(un)genauigkeit

Um einen gängigen Aphorismus zu zitieren: Alle Modelle sind falsch. Dies gilt in den Bereichen Statistik, Wissenschaft und KI. Modelle, die mit mangelnder Fachkenntnis erstellt wurden, können dazu führen falsch Ausgänge.

Heutzutage bestimmt eine kleine homogene Gruppe von Menschen, welche Daten zum Trainieren generativer KI-Modelle verwendet werden sollen, die aus Quellen stammen, in denen Englisch bei weitem überrepräsentiert ist. „Für die meisten der über 6,000 Sprachen der Welt reichen die verfügbaren Textdaten nicht aus, um ein groß angelegtes Grundlagenmodell zu trainieren“ (aus „Zu Chancen und Risiken von Stiftungsmodellen“, Bommasani et al., 2022).

Darüber hinaus werden die Modelle selbst aus begrenzten Architekturen erstellt: „Fast alle hochmodernen NLP-Modelle werden jetzt von einem der wenigen Basismodelle wie BERT, RoBERTa, BART, T5 usw. angepasst. Während diese Homogenisierung zu Ergebnissen führt.“ extrem hohe Hebelwirkung (jede Verbesserung der Grundmodelle kann zu unmittelbaren Vorteilen im gesamten NLP führen), es ist auch eine Belastung; Alle KI-Systeme könnten die gleichen problematischen Tendenzen einiger weniger Basismodelle erben (Bommasani et al.) "

Damit generative KI die vielfältigen Gemeinschaften, denen sie dient, besser widerspiegeln kann, muss eine weitaus größere Vielfalt menschlicher Daten in Modellen dargestellt werden.

Die Bewertung der Modellgenauigkeit geht Hand in Hand mit der Bewertung der Verzerrung. Wir müssen uns fragen: Was ist der Zweck des Modells und für wen ist es optimiert? Überlegen Sie beispielsweise, wer am meisten von Inhaltsempfehlungsalgorithmen und Suchmaschinenalgorithmen profitiert. Stakeholder können sehr unterschiedliche Interessen und Ziele haben. Algorithmen und Modelle erfordern Ziele oder Proxys für den Bayes-Fehler: den minimalen Fehler, den ein Modell verbessern muss. Bei diesem Stellvertreter handelt es sich häufig um eine Person, beispielsweise einen Fachexperten mit Fachkenntnissen.

Eine sehr menschliche Herausforderung: Risikoabschätzung vor der Modellbeschaffung oder -entwicklung

Neue KI-Vorschriften und Aktionspläne unterstreichen zunehmend die Bedeutung algorithmischer Folgenabschätzungsformulare. Das Ziel dieser Formulare besteht darin, wichtige Informationen über KI-Modelle zu erfassen, damit Governance-Teams ihre Risiken bewerten und angehen können, bevor sie sie einsetzen. Typische Fragen sind:

  • Was ist der Anwendungsfall Ihres Modells?
  • Welche Risiken bestehen bei unterschiedlichen Auswirkungen?
  • Wie beurteilen Sie die Fairness?
  • Wie machen Sie Ihr Modell erklärbar?

Obwohl sie mit guten Absichten entwickelt wurden, besteht das Problem darin, dass die meisten Besitzer von KI-Modellen nicht wissen, wie sie die Risiken für ihren Anwendungsfall bewerten sollen. Ein häufiger Refrain könnte lauten: „Wie könnte mein Modell unfair sein, wenn es keine personenbezogenen Daten (PII) erfasst?“ Folglich werden die Formulare selten mit der nötigen Sorgfalt ausgefüllt, damit Governance-Systeme Risikofaktoren genau kennzeichnen können.

Dadurch wird der soziotechnische Charakter der Lösung unterstrichen. Einem Modelleigentümer – einer Einzelperson – kann nicht einfach eine Liste mit Kontrollkästchen vorgelegt werden, um zu bewerten, ob ihr Anwendungsfall Schaden anrichten wird. Stattdessen ist es erforderlich, dass Gruppen von Menschen mit sehr unterschiedlichen Lebenserfahrungen in Gemeinschaften zusammenkommen, die psychologische Sicherheit bieten, um schwierige Gespräche über unterschiedliche Auswirkungen zu führen.

Wir begrüßen breitere Perspektiven für vertrauenswürdige KI

IBM® glaubt an einen „Client Zero“-Ansatz und setzt die Empfehlungen und Systeme um, die es für seine eigenen Kunden in Beratungs- und produktorientierten Lösungen geben würde. Dieser Ansatz erstreckt sich auch auf ethische Praktiken, weshalb IBM ein Trustworthy AI Center of Excellence (COE) geschaffen hat.

Wie oben erläutert, ist die Vielfalt der Erfahrungen und Fähigkeiten von entscheidender Bedeutung, um die Auswirkungen von KI richtig bewerten zu können. Aber die Aussicht auf die Teilnahme an einem Kompetenzzentrum könnte in einem Unternehmen voller KI-Innovatoren, Experten und angesehener Ingenieure einschüchternd sein, daher ist die Pflege einer Gemeinschaft psychologischer Sicherheit erforderlich. IBM kommuniziert dies deutlich mit den Worten: „Interessiert an KI? Interessiert an KI-Ethik? An diesem Tisch haben Sie Platz.“

Das COE bietet Schulungen in KI-Ethik für Praktiker aller Ebenen an. Es werden sowohl synchrones Lernen (Lehrer und Schüler im Unterricht) als auch asynchrone (selbstgesteuerte) Programme angeboten.

Aber es sind die COE's angewandt Schulungen, die unseren Praktikern die tiefsten Einblicke vermitteln, während sie mit globalen, vielfältigen, multidisziplinären Teams an realen Projekten arbeiten, um unterschiedliche Auswirkungen besser zu verstehen. Sie nutzen auch Design-Thinking-Frameworks von IBM Design für KI Die Gruppe verwendet diese Methode intern und mit Kunden, um die unbeabsichtigten Auswirkungen von KI-Modellen zu bewerten und dabei diejenigen im Auge zu behalten, die oft an den Rand gedrängt werden. (Siehe Sylvia Duckworths Rad der Macht und Privilegien (Beispiele dafür, wie persönliche Merkmale zusammenwirken, um Menschen zu privilegieren oder zu marginalisieren.) IBM spendete auch viele der Frameworks an die Open-Source-Community Ethisch gestalten.

Nachfolgend finden Sie einige Berichte, die IBM zu diesen Projekten öffentlich veröffentlicht hat:

Um wichtige Erkenntnisse über die Leistung Ihres KI-Modells zu gewinnen, sind automatisierte KI-Modell-Governance-Tools erforderlich. Beachten Sie jedoch, dass es optimal ist, das Risiko rechtzeitig zu erfassen, bevor Ihr Modell entwickelt wurde und in Produktion geht. Indem Sie Gemeinschaften verschiedener, multidisziplinärer Praktiker schaffen, die einen sicheren Raum für schwierige Gespräche über unterschiedliche Auswirkungen bieten, können Sie Ihre Reise zur Operationalisierung Ihrer Prinzipien und zur verantwortungsvollen Entwicklung von KI beginnen.

In der Praxis sollten Sie bei der Einstellung von KI-Experten bedenken, dass weit über 70 % des Aufwands bei der Erstellung von Modellen in der Kuratierung der richtigen Daten besteht. Sie möchten Leute einstellen, die wissen, wie man repräsentative Daten sammelt, die aber auch mit Einwilligung erhoben werden. Sie möchten außerdem, dass Menschen, die sich auskennen, eng mit Fachexperten zusammenarbeiten, um sicherzustellen, dass sie den richtigen Ansatz verfolgen. Es ist von entscheidender Bedeutung, sicherzustellen, dass diese Praktiker über die emotionale Intelligenz verfügen, um die Herausforderung einer verantwortungsvollen Kuratierung von KI mit Bescheidenheit und Urteilsvermögen anzugehen. Wir müssen bewusst lernen, wie und wann KI-Systeme die Ungleichheit ebenso verschärfen können, wie sie die menschliche Intelligenz steigern können.

Erfinden Sie die Art und Weise, wie Ihr Unternehmen mit KI funktioniert, neu

War dieser Artikel hilfreich?

JaNein


Mehr von Künstliche Intelligenz




Ausgleichende KI: Gutes tun und Schaden vermeiden

5 min lesen - Als ich aufwuchs, sagte mein Vater immer: „Tue Gutes.“ Als Kind hielt ich das für eine würdige Grammatik und korrigierte ihn, indem ich darauf bestand, dass es „gut machen“ sollte. Sogar meine Kinder necken mich, wenn sie seinen „Tue Gutes“-Rat hören, und ich gebe zu, dass ich ihm die Grammatik überlassen habe. Bei verantwortungsvoller künstlicher Intelligenz (KI) sollten Organisationen die Fähigkeit zur Schadensvermeidung in den Mittelpunkt stellen. Einige Organisationen möchten möglicherweise auch Folgendes nutzen:




Wie Versicherungsunternehmen mit IBM zusammenarbeiten, um generative KI-basierte Lösungen zu implementieren

7 min lesen - IBM arbeitet an verschiedenen Fronten mit unseren Versicherungskunden zusammen, und Daten des IBM Institute for Business Value (IBV) haben drei zentrale Anforderungen identifiziert, die die Entscheidungen des Versicherermanagements leiten: Einführung der digitalen Transformation, um Versicherern die Bereitstellung neuer Produkte zu ermöglichen, das Umsatzwachstum voranzutreiben und die Kunden zu verbessern Erfahrung. Verbessern Sie die Kernproduktivität (Geschäft und IT) und senken Sie gleichzeitig die Kosten. Nutzen Sie die inkrementelle Modernisierung von Anwendungen und Daten mithilfe einer sicheren Hybrid-Cloud und KI. Versicherer müssen die folgenden zentralen Anforderungen erfüllen, um die Transformation ihrer… zu erleichtern.




Das Potenzial von Chatbots nutzen: Die wichtigsten Vorteile für Unternehmen und Kunden

6 min lesen - Chatbots können Ihren Kunden und potenziellen Kunden dabei helfen, Informationen schnell zu finden oder einzugeben, indem sie sofort auf Anfragen reagieren, die Audioeingaben, Texteingaben oder eine Kombination aus beidem verwenden, sodass kein menschliches Eingreifen oder manuelle Recherche erforderlich ist. Überall gibt es Chatbots, die Kundenbetreuung unterstützen und Mitarbeiter unterstützen, die zu Hause Smart Speaker, SMS, WhatsApp, Facebook Messenger, Slack und zahlreiche andere Anwendungen nutzen. Die neuesten Chatbots mit künstlicher Intelligenz (KI), auch bekannt als intelligente virtuelle Assistenten oder virtuelle Agenten, nicht nur…




Begleiten Sie uns an der Spitze der KI für Unternehmen: Think 2024

<1 min lesen - Sie möchten KI nutzen, um die Produktivität und Innovation Ihres Unternehmens zu beschleunigen. Sie müssen über das Experimentieren hinausgehen und skalieren. Du musst schnell sein. Besuchen Sie uns in Boston bei Think 2024, einem einzigartigen und fesselnden Erlebnis, das Sie auf Ihrer Reise mit KI für Ihr Unternehmen begleiten wird, egal, wo Sie gerade unterwegs sind. Vom Aufbau der KI-Bereitschaft mit einem durchdachten Hybrid-Cloud-Ansatz über die Skalierung von KI auf Kerngeschäftsfunktionen und Branchenanforderungen bis hin zur Einbettung von KI in …

IBM Newsletter

Erhalten Sie unsere Newsletter und Themenaktualisierungen, die die neuesten Gedanken und Einblicke in neue Trends liefern.

Abonniere jetzt

Weitere Newsletter

Zeitstempel:

Mehr von IBM IoT