Omien tietojesi käyttäminen tekoälyn tietosuojaongelmien lieventämiseen ja tekoälyn luottamuksen parantamiseen | IoT Now -uutiset ja -raportit

Omien tietojesi käyttäminen tekoälyn tietosuojaongelmien lieventämiseen ja tekoälyn luottamuksen parantamiseen | IoT Now -uutiset ja -raportit

Lähdesolmu: 3068504

Tekoälymallit pystyvät havaitsemaan kuvioita ja tekemään ennusteita, joita ihmisen olisi vaikea tai mahdoton tehdä manuaalisesti, mahdolliset sovellukset työkaluille, kuten ChatGPT terveydenhuollon, rahoituksen ja asiakaspalvelun aloilla on valtava määrä.

Vaikka organisaatioiden ensisijaisena tehtävänä tekoälyn suhteen pitäisi olla arvioida generatiivisten tekoälytyökalujen tarjoamia mahdollisuuksia niiden liiketoiminnalle kilpailuedun suhteen, tietosuojasta on tullut ensisijainen huolenaihe. Tekoälyn vastuullisen käytön hallintaa, jolla on mahdollisuus tuottaa puolueellisia tuloksia, on harkittava huolellisesti. 

Vaikka näiden mallien mahdolliset hyödyt ovat valtavat, organisaatioiden tulee tutkia huolellisesti eettisiä ja käytännöllisiä näkökohtia käyttääkseen tekoälyä vastuullisesti ja turvallisen tekoälyn tietosuojan kanssa. Optimoimalla yleisen käyttökokemuksensa ChatGPT:n avulla organisaatiot voivat parantaa omaa käyttöään AI luotettavuus

Tekoälyn tietosuojaongelmat 

Kuten monet muutkin huipputeknologiat, tekoäly herättää epäilemättä kysymyksiä ja haasteita niille, jotka haluavat ottaa sen käyttöön teknologiapinoissaan. Itse asiassa kysely Edistyminen paljasti, että 65 % yrityksistä ja IT-johtajista uskoo tällä hetkellä, että heidän organisaatioissaan on dataharhaa ja 78 % sanoo, että tämä pahenee, kun tekoälyn käyttöönotto lisääntyy. 

Todennäköisesti suurin tietosuojahuoli liittyy yksityisten yritysten tietojen käyttämiseen yhdessä julkisesti näkyvien ja sisäisten tekoälyalustojen kanssa. Tämä voi olla esimerkiksi terveydenhuollon organisaatio, joka säilyttää luottamuksellisia potilastietoja tai suuren yrityksen työntekijöiden palkkatietoja. 

Jotta tekoäly olisi tehokkain, tarvitset suuren otoksen laadukkaasta julkisesta ja/tai yksityisestä datasta, ja organisaatioilla, joilla on pääsy luottamuksellisiin tietoihin, kuten terveydenhuoltoyhtiöillä, joilla on potilastiedot, on kilpailuetu tekoälypohjaisten ratkaisujen rakentamisessa. Ennen kaikkea näiden organisaatioiden, joilla on niin arkaluonteisia tietoja, on otettava huomioon ympäröivät eettiset ja sääntelyvaatimukset Tietosuoja, oikeudenmukaisuus, selitettävyys, läpinäkyvyys, kestävyys ja saatavuus.  

Suuret kielimallit (LLM) ovat tehokkaita tekoälymalleja, jotka on koulutettu tekstidataan suorittamaan erilaisia ​​luonnollisen kielen käsittelytehtäviä, mukaan lukien kielen kääntäminen, kysymyksiin vastaaminen, yhteenveto ja mielipideanalyysi. Nämä mallit on suunniteltu analysoimaan kieltä tavalla, joka jäljittelee ihmisen älykkyyttä, jolloin ne voivat käsitellä, ymmärtää ja tuottaa ihmispuhetta. 

Yksityisten tietojen riskit tekoälyä käytettäessä 

Näihin monimutkaisiin malleihin liittyy kuitenkin eettisiä ja teknisiä haasteita, jotka voivat aiheuttaa riskejä tietojen tarkkuudelle, tekijänoikeusloukkauksille ja mahdollisille kunnianloukkauksille. Joitakin chatbot-AI:n tehokkaan käytön haasteita ovat: 

  • Hallusinaatiot – Tekoälyssä hallusinaatio on, kun se raportoi käyttäjälle virheitä sisältäviä vastauksia, jotka ovat aivan liian yleisiä. Tapa, jolla LLM:t ennustavat seuraavan sanan, saa vastaukset kuulostamaan uskottavilta, kun taas tiedot voivat olla epätäydellisiä tai vääriä. Jos käyttäjä esimerkiksi kysyy chatbotilta kilpailijan keskimääräisiä tuloja, nämä luvut voivat olla kaukana.  
  • Tietojen harha – LLM:t voivat myös esiintyä harhat, mikä tarkoittaa, että ne voivat tuottaa tuloksia, jotka kuvastavat harjoitustietojen harhaa objektiivisen todellisuuden sijaan. Esimerkiksi kielimalli, joka on koulutettu pääosin miehistä koostuvan tietojoukon perusteella, saattaa tuottaa puolueellisia tuloksia sukupuolisidonnaisista aiheista. 
  • Päättely/ymmärtäminen – LLM:t saattavat tarvita apua myös tehtävissä, jotka vaativat syvempää perusteluja tai monimutkaisten käsitteiden ymmärtämistä. LLM voidaan kouluttaa vastaamaan kysymyksiin, jotka edellyttävät kulttuurin tai historian vivahteita ymmärtämistä. Mallit voivat säilyttää stereotypioita tai tarjota väärää tietoa, jos niitä ei kouluteta ja valvota tehokkaasti. 

Näiden lisäksi muita riskejä voivat olla Data Cutoffs, jolloin mallin muisti on yleensä vanhentunut. Toinen mahdollinen haaste on ymmärtää, kuinka LLM loi vastauksensa, koska tekoälyä ei ole koulutettu tehokkaasti osoittamaan vastauksen muodostamiseen käytettyjä perustelujaan. 

Semanttisen tiedon käyttäminen luotettavan tiedon toimittamiseen 

Tekniset tiimit etsivät apua yksityisten tietojen käyttämiseen ChatGPT:ssä. Huolimatta tarkkuuden ja tehokkuuden lisääntymisestä, LLM:t, käyttäjistä puhumattakaan, voivat silti tarvita apua vastausten kanssa. Varsinkin kun tiedoista voi puuttua kontekstia ja merkitystä. Vahva, turvallinen, läpinäkyvä, hallittu AI-tiedonhallintaratkaisu on vastaus. Semanttisen tietoalustan avulla käyttäjät voivat lisätä tarkkuutta ja tehokkuutta samalla kun ottavat käyttöön hallinnan.  

Saavuttamalla vastauksen, joka on yhdistelmä ChatGPT:n vastausta, joka on validoitu semanttisella tietoalustalla, yhdistettyjen tulosten avulla LLM:t ja käyttäjät voivat helposti päästä käsiksi tuloksiin ja tarkistaa tosiasiat lähdesisällön ja kerätyn pk-tiedon perusteella. 

Tämän ansiosta tekoälytyökalu voi tallentaa ja tehdä kyselyitä jäsenneltyä ja jäsentämätöntä dataa sekä kaapata aiheasiantuntijan (SME) sisältöä intuitiivisen graafisen käyttöliittymänsä kautta. Poimimalla tiedoista löydetyt tosiasiat ja merkitsemällä yksityiset tiedot semanttisella tiedolla, tällä tiedolla voidaan myös merkitä käyttäjien kysymyksiä tai syötteitä ja erityisiä ChatGPT-vastauksia.  

Arkaluonteisten tietojen suojaaminen voi vapauttaa tekoälyn todellista potentiaalia 

Kuten kaikissa teknologioissa, odottamattomilta syötteiltä tai tilanteilta suojautuminen on vielä tärkeämpää LLM:n kanssa. Vastaamalla näihin haasteisiin menestyksekkäästi ratkaisujemme luotettavuus kasvaa ja käyttäjien tyytyväisyys johtaa viime kädessä ratkaisun menestykseen. 

Ensimmäisenä askeleena AI-käytön tutkimisessa organisaatiossaan IT- ja tietoturva-ammattilaisten on etsittävä tapoja suojata arkaluonteisia tietoja ja hyödyntää niitä organisaationsa ja sen asiakkaiden tulosten optimoimiseksi. 

Matthieu Jonglez, Progressin teknologia-sovellus- ja tietoalusta VP.Matthieu Jonglez, Progressin teknologia-sovellus- ja tietoalusta VP.

Artikkelin kirjoittaja Matthieu Jonglez, VP-teknologia – sovellus- ja tietoalusta osoitteessa edistystäss

Kommentoi tätä artikkelia alle tai X:n kautta: @IoTNow_

Aikaleima:

Lisää aiheesta IoT Nyt