Verwenden Sie Ihre eigenen Daten, um KI-Datenschutzprobleme zu entschärfen und das KI-Vertrauen zu verbessern | IoT Now Nachrichten und Berichte

Verwenden Sie Ihre eigenen Daten, um KI-Datenschutzprobleme zu entschärfen und das KI-Vertrauen zu verbessern | IoT Now Nachrichten und Berichte

Quellknoten: 3068504

Da KI-Modelle in der Lage sind, Muster zu erkennen und Vorhersagen zu treffen, die für einen Menschen manuell nur schwer oder gar nicht möglich wären, ergeben sich potenzielle Anwendungen für Tools wie z ChatGPT in den Branchen Gesundheitswesen, Finanzen und Kundenservice sind enorm.

Doch während die Prioritäten von Unternehmen im Bereich KI darin bestehen sollten, die Chancen zu bewerten, die generative KI-Tools ihrem Unternehmen im Hinblick auf Wettbewerbsvorteile bieten, ist das Thema Datenschutz zu einem Hauptanliegen geworden. Der verantwortungsvolle Umgang mit KI, der das Potenzial hat, zu voreingenommenen Ergebnissen zu führen, muss sorgfältig abgewogen werden. 

Obwohl die potenziellen Vorteile dieser Modelle immens sind, sollten Unternehmen die ethischen und praktischen Überlegungen für einen verantwortungsvollen Einsatz von KI mit sicherem KI-Datenschutz sorgfältig prüfen. Durch die Optimierung ihrer gesamten Benutzererfahrung mit ChatGPT können Unternehmen ihre verbessern KI-Vertrauenswürdigkeit

Bedenken hinsichtlich der Privatsphäre der KI 

Wie viele andere Spitzentechnologien wird auch KI zweifellos einige Fragen und Herausforderungen für diejenigen aufwerfen, die sie in ihren Technologie-Stacks einsetzen möchten. Tatsächlich ist eine Umfrage von Fortschritt ergab, dass 65 % der Unternehmen und IT-Führungskräfte derzeit glauben, dass es in ihren jeweiligen Organisationen Datenverzerrungen gibt, und 78 % sagen, dass sich diese mit zunehmender KI-Einführung verschlimmern werden. 

Die wahrscheinlich größte Sorge um den Datenschutz besteht in der Nutzung privater Unternehmensdaten in Verbindung mit öffentlich zugänglichen und internen KI-Plattformen. Dabei kann es sich beispielsweise um eine Gesundheitsorganisation handeln, die vertrauliche Patientendaten oder die Gehaltsabrechnungsdaten der Mitarbeiter eines großen Unternehmens speichert. 

Damit KI am effektivsten ist, benötigen Sie eine große Stichprobe hochwertiger öffentlicher und/oder privater Daten, und Organisationen mit Zugriff auf vertrauliche Daten, wie z. B. Gesundheitsunternehmen mit Krankenakten, haben bei der Entwicklung KI-basierter Lösungen einen Wettbewerbsvorteil. Vor allem müssen diese Organisationen mit solch sensiblen Daten ethische und regulatorische Anforderungen berücksichtigen Datenschutz, Fairness, Erklärbarkeit, Transparenz, Robustheit und Zugang.  

Große Sprachmodelle (LLM) sind leistungsstarke KI-Modelle, die auf Textdaten trainiert werden, um verschiedene Aufgaben der Verarbeitung natürlicher Sprache durchzuführen, darunter Sprachübersetzung, Beantwortung von Fragen, Zusammenfassung und Stimmungsanalyse. Diese Modelle sollen Sprache auf eine Weise analysieren, die die menschliche Intelligenz nachahmt und es ihnen ermöglicht, menschliche Sprache zu verarbeiten, zu verstehen und zu erzeugen. 

Risiken für private Daten beim Einsatz von KI 

Mit diesen komplexen Modellen gehen jedoch ethische und technische Herausforderungen einher, die Risiken für die Datengenauigkeit, Urheberrechtsverletzungen und potenzielle Verleumdungsfälle bergen können. Zu den Herausforderungen beim effektiven Einsatz von Chatbot-KIs gehören: 

  • Halluzinationen – In der KI liegt eine Halluzination vor, wenn sie dem Benutzer fehlerhafte Antworten meldet, und diese kommen nur allzu häufig vor. Die Art und Weise, wie die LLMs das nächste Wort vorhersagen, lässt Antworten plausibel klingen, während die Informationen unvollständig oder falsch sein können. Wenn ein Benutzer beispielsweise einen Chatbot nach dem durchschnittlichen Umsatz eines Konkurrenten fragt, können diese Zahlen weit daneben liegen.  
  • Datenverzerrung – Auch LLMs können ausstellen Vorurteile, was bedeutet, dass sie Ergebnisse liefern können, die die Verzerrungen in den Trainingsdaten und nicht die objektive Realität widerspiegeln. Beispielsweise könnte ein Sprachmodell, das auf einem überwiegend männlichen Datensatz trainiert wurde, zu einer voreingenommenen Ausgabe in Bezug auf geschlechtsspezifische Themen führen. 
  • Argumentation/Verständnis – LLMs benötigen möglicherweise auch Hilfe bei Aufgaben, die tiefere Überlegungen oder das Verständnis komplexer Konzepte erfordern. Ein LLM kann darauf trainiert werden, Fragen zu beantworten, die ein differenziertes Verständnis von Kultur oder Geschichte erfordern. Es ist möglich, dass Modelle Stereotypen aufrechterhalten oder Fehlinformationen liefern, wenn sie nicht effektiv trainiert und überwacht werden. 

Darüber hinaus können Datenunterbrechungen weitere Risiken sein, bei denen der Speicher eines Modells tendenziell veraltet ist. Eine weitere mögliche Herausforderung besteht darin, zu verstehen, wie das LLM seine Antwort generiert hat, da die KI nicht effektiv darauf trainiert ist, ihre zum Aufbau einer Antwort verwendeten Argumente darzustellen. 

Semantisches Wissen nutzen, um vertrauenswürdige Daten zu liefern 

Technikteams suchen Unterstützung bei der Nutzung privater Daten für ChatGPT. Trotz der Steigerung der Genauigkeit und Effizienz können LLMs und ganz zu schweigen von ihren Benutzern immer noch Hilfe bei der Beantwortung benötigen. Vor allem, weil den Daten Kontext und Bedeutung fehlen können. Eine starke, sichere, transparente und kontrollierte KI-Wissensmanagementlösung ist die Antwort. Mit einer semantischen Datenplattform können Benutzer die Genauigkeit und Effizienz erhöhen und gleichzeitig Governance einführen.  

Durch die Erzielung einer Antwort, die eine Kombination aus der Antwort von ChatGPT ist, die mit semantischem Wissen von einer semantischen Datenplattform validiert wurde, ermöglichen die kombinierten Ergebnisse LLMs und Benutzern einen einfachen Zugriff und eine Faktenprüfung der Ergebnisse anhand des Quellinhalts und des erfassten KMU-Wissens. 

Dadurch kann das KI-Tool strukturierte und unstrukturierte Daten speichern und abfragen sowie Inhalte von Fachexperten (KMU) über seine intuitive Benutzeroberfläche erfassen. Durch Extrahieren der in den Daten gefundenen Fakten und Markieren der privaten Daten mit semantischem Wissen können auch Benutzerfragen oder -eingaben und spezifische ChatGPT-Antworten mit diesem Wissen markiert werden.  

Der Schutz sensibler Daten kann das wahre Potenzial der KI freisetzen 

Wie bei allen Technologien ist der Schutz vor unerwarteten Eingaben oder Situationen bei LLMs noch wichtiger. Durch die erfolgreiche Bewältigung dieser Herausforderungen wird die Vertrauenswürdigkeit unserer Lösungen steigen und die Benutzerzufriedenheit steigt, was letztendlich zum Erfolg der Lösung führt. 

Als ersten Schritt bei der Erkundung des Einsatzes von KI für ihr Unternehmen müssen IT- und Sicherheitsexperten nach Möglichkeiten suchen, sensible Daten zu schützen und diese gleichzeitig zur Optimierung der Ergebnisse für ihr Unternehmen und seine Kunden zu nutzen. 

Matthieu Jonglez, VP Technologie – Anwendungs- und Datenplattform bei Progress.Matthieu Jonglez, VP Technologie – Anwendungs- und Datenplattform bei Progress.

Artikel von Matthieu Jonglez, Vizepräsident Technologie – Anwendungs- und Datenplattform bei FortschrittH.H.

Kommentieren Sie diesen Artikel unten oder über X: @IoTNow_

Zeitstempel:

Mehr von IoT jetzt