Uw eigen gegevens gebruiken om AI-privacyproblemen te verminderen en het AI-vertrouwen te verbeteren | IoT Now-nieuws en -rapporten

Uw eigen gegevens gebruiken om AI-privacyproblemen te verminderen en het AI-vertrouwen te verbeteren | IoT Now-nieuws en -rapporten

Bronknooppunt: 3068504

Nu AI-modellen patronen kunnen detecteren en voorspellingen kunnen doen die voor een mens moeilijk of onmogelijk zijn om handmatig te doen, zijn de potentiële toepassingen voor hulpmiddelen zoals ChatGPT in de sectoren gezondheidszorg, financiën en klantenservice zijn enorm.

Maar hoewel de prioriteiten van organisaties op het gebied van AI zouden moeten zijn om de kansen te beoordelen die generatieve AI-instrumenten hun bedrijf bieden in termen van concurrentievoordeel, is het onderwerp gegevensprivacy een belangrijk aandachtspunt geworden. Het beheer van het verantwoorde gebruik van AI, met zijn potentieel om vertekende resultaten te produceren, moet zorgvuldig worden overwogen. 

Hoewel de potentiële voordelen van deze modellen enorm zijn, moeten organisaties zorgvuldig de ethische en praktische overwegingen onderzoeken om AI op een verantwoorde manier te gebruiken met veilige AI-gegevensbescherming. Door hun algehele gebruikerservaring met ChatGPT te optimaliseren, kunnen organisaties hun AI-betrouwbaarheid

Zorgen over AI-privacy 

Net als veel andere geavanceerde technologieën zal AI ongetwijfeld een aantal vragen en uitdagingen oproepen voor degenen die het in hun tech-stacks willen inzetten. Sterker nog: een onderzoek van Voortgang onthulde dat 65% van de bedrijven en IT-managers momenteel gelooft dat er sprake is van databias in hun respectievelijke organisaties en 78% zegt dat dit zal verergeren naarmate de adoptie van AI toeneemt. 

Waarschijnlijk het grootste privacyprobleem betreft het gebruik van gegevens van particuliere bedrijven in combinatie met openbare en interne AI-platforms. Dit kan bijvoorbeeld een gezondheidszorgorganisatie zijn die vertrouwelijke patiëntgegevens opslaat, of de salarisgegevens van werknemers van een groot bedrijf. 

Om AI het meest effectief te laten zijn, heb je een grote steekproefomvang van hoogwaardige publieke en/of private data nodig en organisaties met toegang tot vertrouwelijke gegevens, zoals gezondheidszorgbedrijven met medische dossiers, hebben een concurrentievoordeel bij het bouwen van op AI gebaseerde oplossingen. Bovenal moeten deze organisaties met dergelijke gevoelige gegevens rekening houden met de omringende ethische en wettelijke vereisten data Privacy, eerlijkheid, verklaarbaarheid, transparantie, robuustheid en toegankelijkheid.  

Grote taalmodellen (LLM) zijn krachtige AI-modellen die zijn getraind op tekstgegevens om verschillende natuurlijke taalverwerkingstaken uit te voeren, waaronder taalvertaling, het beantwoorden van vragen, samenvattingen en sentimentanalyse. Deze modellen zijn ontworpen om taal te analyseren op een manier die de menselijke intelligentie nabootst, waardoor ze menselijke spraak kunnen verwerken, begrijpen en genereren. 

Risico’s voor privégegevens bij gebruik van AI 

Deze complexe modellen brengen echter ethische en technische uitdagingen met zich mee die risico's kunnen opleveren voor de nauwkeurigheid van gegevens, inbreuk op het auteursrecht en mogelijke gevallen van smaad. Enkele van de uitdagingen bij het effectief gebruik van chatbot-AI’s zijn: 

  • hallucinaties – Bij AI is er sprake van een hallucinatie wanneer er met fouten gevulde antwoorden aan de gebruiker worden gerapporteerd, en deze komen maar al te vaak voor. De manier waarop de LLM's het volgende woord voorspellen, zorgt ervoor dat antwoorden plausibel klinken, terwijl de informatie mogelijk onvolledig of onjuist is. Als een gebruiker bijvoorbeeld een chatbot vraagt ​​naar de gemiddelde omzet van een concurrent, kunnen deze cijfers er ver naast zitten.  
  • Vooringenomenheid van gegevens – LLM's kunnen ook exposeren vooroordelen, wat betekent dat ze resultaten kunnen produceren die de vooroordelen in de trainingsgegevens weerspiegelen in plaats van de objectieve realiteit. Een taalmodel dat is getraind op een overwegend mannelijke dataset kan bijvoorbeeld vertekende resultaten opleveren met betrekking tot gendergerelateerde onderwerpen. 
  • Redeneren/begrijpen – LLM's hebben mogelijk ook hulp nodig bij taken waarvoor een diepere redenering of begrip van complexe concepten vereist is. Een LLM kan worden opgeleid om vragen te beantwoorden die een genuanceerd begrip van cultuur of geschiedenis vereisen. Het is mogelijk dat modellen stereotypen in stand houden of verkeerde informatie verstrekken als ze niet effectief worden getraind en gecontroleerd. 

Daarnaast kunnen andere risico's Data Cutoffs omvatten, waarbij het geheugen van een model de neiging heeft verouderd te zijn. Een andere mogelijke uitdaging is om te begrijpen hoe de LLM zijn reactie heeft gegenereerd, aangezien de AI niet effectief is getraind in het tonen van de redenering die wordt gebruikt om een ​​reactie te construeren. 

Semantische kennis gebruiken om betrouwbare gegevens te leveren 

Technische teams zijn op zoek naar hulp bij het gebruik van privégegevens voor ChatGPT. Ondanks de toename in nauwkeurigheid en efficiëntie kunnen LLM's, en niet te vergeten hun gebruikers, nog steeds hulp nodig hebben met antwoorden. Vooral omdat de gegevens context en betekenis kunnen missen. Een sterke, veilige, transparante en bestuurde AI-kennisbeheeroplossing is het antwoord. Met een semantisch dataplatform kunnen gebruikers de nauwkeurigheid en efficiëntie vergroten en tegelijkertijd governance introduceren.  

Door een antwoord te bereiken dat een combinatie is van het antwoord van ChatGPT, gevalideerd met semantische kennis van een semantisch dataplatform, zullen de gecombineerde resultaten LLM's en gebruikers in staat stellen om eenvoudig toegang te krijgen tot de resultaten en deze te vergelijken met de broninhoud en de vastgelegde MKB-kennis. 

Hierdoor kan de AI-tool gestructureerde en ongestructureerde gegevens opslaan en opvragen, en inhoud van vakexperts (MKB) vastleggen via de intuïtieve GUI. Door feiten uit de gegevens te extraheren en de privégegevens te taggen met semantische kennis, kunnen gebruikersvragen of invoer en specifieke ChatGPT-antwoorden ook met deze kennis worden getagd.  

Het beschermen van gevoelige gegevens kan het ware potentieel van AI ontsluiten 

Zoals bij alle technologieën is het beschermen tegen onverwachte input of situaties zelfs nog belangrijker bij LLM's. Door deze uitdagingen succesvol aan te pakken, zal de betrouwbaarheid van onze oplossingen toenemen, samen met de gebruikerstevredenheid, wat uiteindelijk zal leiden tot het succes van de oplossing. 

Als eerste stap in het verkennen van het gebruik van AI voor hun organisatie moeten IT- en beveiligingsprofessionals zoeken naar manieren om gevoelige gegevens te beschermen en deze tegelijkertijd te benutten om de resultaten voor hun organisatie en haar klanten te optimaliseren. 

Matthieu Jonglez, een VP technologie - applicatie- en dataplatform bij Progress.Matthieu Jonglez, een VP technologie - applicatie- en dataplatform bij Progress.

Artikel door Matthieu Jonglez, een VP technologie – applicatie- en dataplatform bij Vooruitgangss.

Reageer hieronder of via X op dit artikel: @IoTNow_

Tijdstempel:

Meer van IoT Nu