Kasvavat huolet ChatGPT:n turvallisuudesta korostavat julkisen koulutuksen ja avoimuuden tarvetta tekoälyriskeistä

Kasvavat huolet ChatGPT:n turvallisuudesta korostavat julkisen koulutuksen ja avoimuuden tarvetta tekoälyriskeistä

Lähdesolmu: 2556048

Tekoälyn (AI) nousu loi huolta turvallisuudesta ja yksityisyydestä, etenkin kun nämä tekniikat kehittyvät ja integroituvat jokapäiväiseen elämäämme. Yksi näkyvimmistä AI-tekniikan esimerkeistä on ChatGPT, tekoälyn kielimalli, jonka on luonut OpenAI ja jota Microsoft tukee. Toistaiseksi miljoonat ihmiset ovat jo käyttäneet ChatGPT:tä sen julkaisun jälkeen marraskuussa 2022.

Viime päivinä haut "on ChatGPT turvallista?" ovat nousseet pilviin, kun ihmiset ympäri maailmaa ilmaisevat huolensa tähän teknologiaan liittyvistä mahdollisista riskeistä.

Google Trendsin tietojen mukaan haut "on ChatGPT turvallista?" ovat kasvaneet massiivisesti 614 % maaliskuun 16. päivän jälkeen. Tiedot löysi Cryptomaniaks.com, johtava kryptovaluuttakoulutusalusta, joka on omistettu auttamaan uusia tulokkaita ja kryptovaluuttojen aloittelijoita ymmärtämään lohkoketjun ja kryptovaluuttojen maailmaa.

ChatGPT-turvallisuutta koskevien tietojen haun räjähdysmäinen määrä korostaa tarvetta lisätä julkista koulutusta ja avoimuutta tekoälyjärjestelmistä ja niiden mahdollisista riskeistä. Tekoälytekniikan, kuten ChatGPT:n, edistyessä ja integroituessa jokapäiväiseen elämäämme on tärkeää puuttua esiin nouseviin turvallisuusongelmiin, koska ChatGPT:n tai minkä tahansa muun AI-chatbotin käyttöön saattaa liittyä mahdollisia vaaroja.

ChatGPT on suunniteltu auttamaan käyttäjiä luomaan ihmisen kaltaisia ​​vastauksia kyselyihinsä ja osallistumaan keskusteluun. Tietosuojaongelmat ovat siis yksi merkittävimmistä ChatGPT:n käyttöön liittyvistä riskeistä. Kun käyttäjät ovat vuorovaikutuksessa ChatGPT:n kanssa, he voivat vahingossa jakaa henkilökohtaisia ​​tietojaan, kuten nimensä, sijaintinsa ja muita arkaluonteisia tietoja. Nämä tiedot voivat olla haavoittuvia hakkeroinnille tai muille kyberhyökkäyksille.

Toinen huolenaihe on väärän tiedon mahdollisuus. ChatGPT on ohjelmoitu luomaan vastauksia käyttäjiltä saamansa syötteen perusteella. Jos syöte on virheellinen tai harhaanjohtava, tekoäly voi tuottaa epätarkkoja tai harhaanjohtavia vastauksia. Lisäksi tekoälymallit voivat säilyttää ennakkoluulot ja stereotypiat tiedoissa, joihin ne on koulutettu. Jos ChatGPT:n kouluttamiseen käytetyt tiedot sisältävät puolueellista tai ennakkoluulollista kieltä, tekoäly voi luoda vastauksia, jotka säilyttävät nämä ennakkoluulot.

Toisin kuin muut tekoälyavustajat, kuten Siri tai Alexa, ChatGPT ei käytä Internetiä löytääkseen vastauksia. Sen sijaan se luo vastauksia niiden kuvioiden ja assosiaatioiden perusteella, jotka se on oppinut valtavasta tekstimäärästä, jonka se on koulutettu. Se rakentaa lauseen sana sanalta ja valitsee todennäköisimmän sen syväoppimistekniikoiden, erityisesti muuntajaksi kutsutun hermoverkkoarkkitehtuurin, perusteella kielen käsittelemiseksi ja luomiseksi.

ChatGPT on valmiiksi koulutettu käsittelemään valtavaa määrää tekstidataa, mukaan lukien kirjat, verkkosivustot ja muu verkkosisältö. Kun käyttäjä kirjoittaa kehotteen tai kysymyksen, malli käyttää kielen ymmärtämistä ja kehotteen kontekstin tuntemusta vastauksen luomiseen. Ja lopulta se saa vastauksen tekemällä sarjan arvauksia, mikä on osa syy siihen, miksi se voi antaa sinulle vääriä vastauksia.

Jos ChatGPT on koulutettu ihmisten kollektiiviseen kirjoittamiseen eri puolilla maailmaa ja jatkaa niin samalla kun ihmiset käyttävät sitä, mallissa voi esiintyä samoja harhoja, joita esiintyy todellisessa maailmassa. Samaan aikaan tämä uusi ja edistynyt chatbot on erinomainen selittämään monimutkaisia ​​käsitteitä, joten se on erittäin hyödyllinen ja tehokas työkalu oppimiseen, mutta on tärkeää olla uskomatta kaikkea, mitä se sanoo. ChatGPT ei todellakaan ole aina oikein, ei ainakaan vielä.

Huomaa, että nämä vaarat eivät ole ainutlaatuisia ChatGPT:lle, ja ne koskevat myös muita tekoälymalleja. Näiden riskien vähentämiseksi on erittäin tärkeää, että ChatGPT:tä käytetään vastuullisesti ja että sille tarjotaan tarkat ja asianmukaiset tiedot. Meidän tulee myös ymmärtää sen rajoitukset.

Näistä riskeistä huolimatta ChatGPT:n kaltaisella tekoälytekniikalla on valtava potentiaali mullistaa eri toimialoja, mukaan lukien lohkoketju. Tekoälyn käyttö lohkoketjuteknologiassa on yleistynyt erityisesti petosten havaitsemisessa, toimitusketjun hallinnassa ja älykkäissä sopimuksissa. Uudet AI-ohjatut robotit, kuten ChainGPT, voi auttaa uusia blockchain-yrityksiä nopeuttamaan kehitysprosessiaan.

On kuitenkin tärkeää löytää tasapaino innovaation ja turvallisuuden välillä. Kehittäjien, käyttäjien ja sääntelyviranomaisten on työskenneltävä yhdessä ohjeiden luomiseksi, jotka varmistavat tekoälytekniikan vastuullisen kehittämisen ja käyttöönoton.

Viimeisimpien uutisten mukaan Italiasta on tullut ensimmäinen länsimaa, joka estää edistyneen chatbotin ChatGPT:n. Italian tietosuojaviranomainen ilmaisi malliin liittyviä yksityisyyttä koskevia huolenaiheita. Sääntelyviranomainen sanoi kieltävänsä ja tutkivansa OpenAI:n "välittömästi".

Microsoft on käyttänyt siihen miljardeja dollareita ja lisäsi AI-chat-työkalun Bingiin viime kuussa. Se on myös sanonut, että se aikoo upottaa tekniikan version Office-sovelluksiinsa, kuten Wordiin, Exceliin, PowerPointiin ja Outlookiin.

Samaan aikaan yli 1,000 tekoälyn asiantuntijaa, tutkijaa ja tukijaa on liittynyt vaatimukseen, jonka mukaan tekoälyn luominen keskeytetään välittömästi vähintään kuudeksi kuukaudeksi, joten järjestelmät, kuten GPT-4 voidaan tutkia kunnolla.

Vaatimus esitetään avoimessa kirjeessä, jonka ovat allekirjoittaneet suuret tekoälytoimijoiden mukaan lukien: Elon Musk, joka oli mukana perustamassa OpenAI:ta, ChatGPT:stä ja GPT-4:stä vastaavan tutkimuslaboratorion; Emad Mostaque, joka perusti Lontoossa toimivan Stability AI:n; ja Steve Wozniak, Applen perustaja.

Avoimessa kirjeessä ilmaistiin huoli siitä, että pystymme hallitsemaan sitä, mitä ei voida täysin ymmärtää:

"Tekoälylaboratoriot ovat viime kuukausina olleet lukittuneena hallitsemattomaan kilpailuun kehittääkseen ja ottaakseen käyttöön entistä tehokkaampia digitaalisia mieliä, joita kukaan – eivät edes niiden tekijät – voi ymmärtää, ennustaa tai luotettavasti hallita. Tehokkaita tekoälyjärjestelmiä tulisi kehittää vasta sitten, kun olemme varmoja, että niiden vaikutukset ovat myönteisiä ja niiden riskit ovat hallittavissa."

Kehotus keskeyttää välitön tekoälyn luominen osoittaa, että ChatGPT:n ja GPT-4:n kaltaisten järjestelmien ominaisuuksia ja vaaroja on tutkittava. Tekoälyteknologian edistyessä ja integroituessa jokapäiväiseen elämäämme turvallisuusnäkökohtien huomioiminen ja tekoälyn vastuullisen kehittämisen ja käyttöönoton varmistaminen on ratkaisevan tärkeää.

Kasvavat huolenaiheet ChatGPT:n turvallisuudesta Korosta julkisen koulutuksen ja avoimuuden tarve tekoälyriskeistä lähde https://blockchainconsultants.io/rising-concerns-about-chatgpt-safety-highlight-the-need-for-public-education-and-transparency -on-ai-risk/

Aikaleima:

Lisää aiheesta Blockchain-konsultit