Använda din egen data för att lindra AI-integritetsproblem och förbättra AI-förtroendet | IoT Now News & Reports

Använda din egen data för att lindra AI-integritetsproblem och förbättra AI-förtroendet | IoT Now News & Reports

Källnod: 3068504

Med AI-modeller som kan upptäcka mönster och göra förutsägelser som skulle vara svåra eller omöjliga för en människa att göra manuellt, är de potentiella applikationerna för verktyg som t.ex. ChatGPT inom hälsovård, finans och kundtjänst är enorma.

Men även om organisationers prioriteringar kring AI bör vara att bedöma de möjligheter som generativa AI-verktyg erbjuder deras verksamhet i termer av konkurrensfördelar, har ämnet datasekretess blivit ett huvudproblem. Att hantera den ansvarsfulla användningen av AI, med dess potential att ge partiska resultat, kräver noggrant övervägande. 

Även om de potentiella fördelarna med dessa modeller är enorma, bör organisationer noggrant undersöka de etiska och praktiska övervägandena för att använda AI på ett ansvarsfullt sätt med säkert och säkert AI-dataskydd. Genom att optimera sin övergripande användarupplevelse med ChatGPT kan organisationer förbättra sin AI-pålitlighet

AI integritetsproblem 

Precis som många andra banbrytande teknologier kommer AI utan tvekan att väcka några frågor och utmaningar för dem som vill implementera den i sina tekniska högar. Faktum är att en undersökning av Framsteg avslöjade att 65 % av företagen och IT-cheferna för närvarande tror att det finns databias i deras respektive organisationer och 78 % säger att detta kommer att förvärras när AI-anpassningen ökar. 

Förmodligen är det största integritetsproblemet att använda privata företagsdata tillsammans med offentliga och interna AI-plattformar. Detta kan till exempel vara en vårdorganisation som lagrar konfidentiella patientuppgifter eller löneuppgifter för anställda i ett stort företag. 

För att AI ska vara mest effektivt behöver du en stor urvalsstorlek av högkvalitativa offentliga och/eller privata data och organisationer med tillgång till konfidentiell data, som sjukvårdsföretag med journaler, har en konkurrensfördel när de bygger AI-baserade lösningar. Framför allt måste dessa organisationer med sådana känsliga uppgifter beakta etiska och regulatoriska krav kring dataintegritet, rättvisa, förklarabarhet, transparens, robusthet och tillgång.  

Stora språkmodeller (LLM) är kraftfulla AI-modeller som tränas på textdata för att utföra olika naturliga språkbearbetningsuppgifter, inklusive språköversättning, frågesvar, sammanfattning och sentimentanalys. Dessa modeller är designade för att analysera språk på ett sätt som efterliknar mänsklig intelligens, vilket gör att de kan bearbeta, förstå och generera mänskligt tal. 

Risker för privat data vid användning av AI 

Men med dessa komplexa modeller kommer etiska och tekniska utmaningar som kan utgöra risker för datanoggrannhet, upphovsrättsintrång och potentiella ärekränkningsfall. Några av utmaningarna för att effektivt använda chatbot AI:er inkluderar: 

  • Hallucinationer – I AI är en hallucination när den rapporterar felfyllda svar till användaren och dessa är alltför vanliga. Sättet som LLM:erna förutsäger nästa ord gör att svaren låter rimliga, medan informationen kan vara ofullständig eller falsk. Till exempel, om en användare frågar en chatbot om den genomsnittliga intäkten för en konkurrent, kan dessa siffror vara långt borta.  
  • Databias – LLM kan också ställa ut förspänner, vilket innebär att de kan producera resultat som återspeglar fördomarna i träningsdata snarare än objektiv verklighet. Till exempel kan en språkmodell som tränas på en övervägande manlig datauppsättning producera en partisk produktion angående könsrelaterade ämnen. 
  • Resonemang/Förståelse – LLM kan också behöva hjälp med uppgifter som kräver djupare resonemang eller förståelse för komplexa begrepp. En LLM kan tränas i att svara på frågor som kräver en nyanserad förståelse för kultur eller historia. Det är möjligt för modeller att vidmakthålla stereotyper eller ge felaktig information om de inte tränas och övervakas effektivt. 

Utöver dessa kan andra risker inkludera Data Cutoffs, vilket är när en modells minne tenderar att vara föråldrat. En annan möjlig utmaning är att förstå hur LLM genererade sitt svar eftersom AI:n inte tränas effektivt för att visa sitt resonemang som används för att konstruera ett svar. 

Använda semantisk kunskap för att leverera tillförlitlig data 

Tekniska team söker hjälp med att använda privata data för ChatGPT. Trots ökad noggrannhet och effektivitet kan LLM:er, för att inte tala om deras användare, fortfarande behöva hjälp med svar. Speciellt eftersom data kan sakna sammanhang och mening. En stark, säker, transparent, styrd AI-kunskapshanteringslösning är svaret. Med en semantisk dataplattform kan användare öka noggrannheten och effektiviteten samtidigt som de introducerar styrning.  

Genom att uppnå ett svar som är en kombination av ChatGPT:s svar validerat med semantisk kunskap från en semantisk dataplattform, kommer de kombinerade resultaten att tillåta LLM:er och användare att enkelt komma åt och faktakontrollera resultaten mot källinnehållet och den fångade SME-kunskapen. 

Detta gör att AI-verktyget kan lagra och fråga efter strukturerad och ostrukturerad data samt att fånga ämnesexpertinnehåll (SME) via dess intuitiva GUI. Genom att extrahera fakta som finns i datan och tagga den privata datan med semantisk kunskap, kan användarfrågor eller input och specifika ChatGPT-svar också taggas med denna kunskap.  

Att skydda känslig data kan låsa upp AI:s verkliga potential 

Som med all teknik är det ännu viktigare att skydda sig mot oväntade input eller situationer med LLM. Genom att framgångsrikt hantera dessa utmaningar kommer våra lösningars tillförlitlighet att öka samtidigt som användarnas tillfredsställelse i slutändan leder till lösningens framgång. 

Som ett första steg i att utforska användningen av AI för sin organisation måste IT- och säkerhetsproffs leta efter sätt att skydda känslig data samtidigt som de utnyttjar den för att optimera resultaten för sin organisation och sina kunder. 

Matthieu Jonglez, VP teknologi - applikations- och dataplattform på Progress.Matthieu Jonglez, VP teknologi - applikations- och dataplattform på Progress.

Artikel av Matthieu Jonglez, en VP technology – application and data platform at framstegss.

Kommentera den här artikeln nedan eller via X: @IoTNow_

Tidsstämpel:

Mer från IoT nu