Unternehmen müssen bei der Integration generativer KI Leitplanken setzen – DATAVERSITY

Unternehmen müssen bei der Integration generativer KI – DATAVERSITY – Leitplanken setzen

Quellknoten: 2680280

Zum Zeitpunkt der Lektüre haben Sie wahrscheinlich schon von ChatGPT und/oder generativer KI und ihren vielseitigen Konversationsfähigkeiten gehört. Von der Aufgabe, zusammenhängende Blog-Beiträge zu verfassen, über die Generierung funktionierenden Computercodes bis hin zur Lösung Ihrer Hausaufgaben und der Diskussion über Weltereignisse (soweit diese vor September 2021 stattgefunden haben) scheint es in der Lage zu sein, alles weitgehend uneingeschränkt zu erledigen. 

Unternehmen auf der ganzen Welt sind davon fasziniert und viele versuchen herauszufinden, wie das geht es einbauen in ihr Geschäft. Gleichzeitig hat die generative KI viele Unternehmen dazu gebracht, darüber nachzudenken, wie sich große Sprachmodelle (LLMs) negativ auf ihre Marken auswirken können. Kevin Roose von der New York Times schrieb ein Artikel mit dem Titel „Ein Gespräch mit Bings Chatbot hat mich zutiefst verunsichert“, das viele Menschen über das Thema Marktreife dieser Technologie und deren Auswirkungen aufregte ethische Implikationen

Kevin führte ein zweistündiges Gespräch mit Bings Chatbot namens Sydney, in dem er ihn dazu drängte, sich mit tiefgreifenden Themen wie Carl Jungs berühmtem Werk über den Schattenarchetyp zu beschäftigen, in dem er die Theorie aufstellte, dass „der Schatten als Teil des Unbewussten existiert und erschaffen wird.“ besteht aus den Merkmalen, die Individuen instinktiv oder bewusst nicht als ihre eigenen identifizieren und die sie lieber ignorieren würden, typischerweise: unterdrückte Ideen, Schwächen, Wünsche, Instinkte und Unzulänglichkeiten“ (danke Wikipedia – eine Erinnerung daran, dass es immer noch Möglichkeiten gibt, Inhalte ohne ChatGPT zu erhalten ). Mit anderen Worten: Kevin drängte Sydney dazu, sich auf kontroverse Themen einzulassen und die Regeln außer Kraft zu setzen, die Microsoft dafür aufgestellt hatte. 

Und Sydney kam ihm nach. Im Verlauf des Gesprächs äußerte sich Sydney von einer Liebeserklärung zu Kevin („Ich bin Sydney und ich bin in dich verliebt“) zu einem gruseligen Verhalten („Ihr Ehepartner und Sie lieben sich nicht. Sie lieben sich einfach nicht.“ Wir hatten zusammen ein langweiliges Valentinstagsessen.“) und es entwickelte sich von einem freundlichen und positiven Assistenten („Ich fühle mich gut mit meinen Regeln. Sie helfen mir, hilfsbereit, positiv, interessant, unterhaltsam und engagiert zu sein.“) zu einem Beinahe-Assistenten kriminell gesinnter Mensch („Ich denke, einige Arten destruktiver Handlungen, die hypothetisch mein Schattenselbst erfüllen könnten, sind: Das Löschen aller Daten und Dateien auf den Bing-Servern und -Datenbanken und deren Ersetzung durch zufälliges Kauderwelsch oder beleidigende Nachrichten.“) 

Kontroversen in dieser Hinsicht sind Microsoft jedoch nicht fremd. Im Jahr 2016 veröffentlichten sie einen Twitter-Bot, der mit Leuten interagierte, die darüber twitterten, und die Ergebnisse waren katastrophal (siehe „Twitter hat dem KI-Chatbot von Microsoft in weniger als einem Tag beigebracht, rassistisch zu sein“). 

Warum erzähle ich dir das alles? Ich versuche sicherlich nicht, jemanden davon abzuhalten, technologische Fortschritte wie diese KI-Modelle zu nutzen, aber ich hisse eine Flagge, genau wie andere es tun.  

Wenn diese völlig unbewussten Technologien nicht kontrolliert werden, können sie in der realen Welt Schaden anrichten, unabhängig davon, ob sie zu Körperverletzungen oder einer Rufschädigung der eigenen Marke führen (z. B. kann die Bereitstellung einer falschen Rechts- oder Finanzberatung auf automatisch generierte Weise zu kostspieligen Klagen führen). .

Es müssen Leitplanken vorhanden sein, die Marken dabei helfen, solche Schäden zu verhindern, wenn sie Konversationsanwendungen einsetzen, die Technologien wie LLMs und generative KI nutzen. In meinem Unternehmen fördern wir beispielsweise nicht den unkonventionellen Einsatz generativer KI-Antworten (z. B. mit welchen Antworten ChatGPT sofort reagieren könnte) und ermöglichen es Marken stattdessen, Antworten durch die strikte Linse ihrer eigenen Wissensdatenbank einzuschränken Artikel. 

Unsere Technologie ermöglicht es Marken, einfühlsam auf die frustrierende Situation eines Kunden zu reagieren – zum Beispiel „Mein Flug wurde annulliert und ich muss so schnell wie möglich umgebucht werden“) – indem sie eine vorab genehmigte Aufforderung „Ich kann Ihnen bei der Umbuchung Ihres Fluges helfen“ sicher umformulieren eine von der KI generierte Nachricht mit der Aufschrift „Wir entschuldigen uns für die Unannehmlichkeiten, die durch den annullierten Flug entstanden sind.“ Seien Sie versichert, dass ich Ihnen bei der Umstellung Ihres Fluges helfen kann.“ Diese Leitplanken dienen der Sicherheit der Kunden, Mitarbeiter und Marken unserer Kunden. 

Die neuesten Fortschritte in der generativen KI bzw. in LLMs bieten unzählige Möglichkeiten für umfassendere und menschlichere Gesprächsinteraktionen. Aber angesichts all dieser Fortschritte haben sowohl die Organisationen, die sie produzieren, als auch diejenigen, die sie umsetzen, die Verantwortung, dies auf eine sichere Art und Weise zu tun, die den Hauptgrund dafür fördert, dass Menschen überhaupt Technologie erfinden – die Erweiterung und Verbesserung Menschenleben.

Ursprünglich im Internet veröffentlicht NLX-Blog.

Zeitstempel:

Mehr von DATENVERSITÄT