Økende bekymringer om ChatGPT-sikkerhet fremhever behovet for offentlig utdanning og åpenhet om AI-risiko

Økende bekymringer om ChatGPT-sikkerhet fremhever behovet for offentlig utdanning og åpenhet om AI-risiko

Kilde node: 2556048

Fremveksten av kunstig intelligens (AI) skapte en bølge av bekymringer om sikkerhet og personvern, spesielt ettersom disse teknologiene blir mer avanserte og integrert i våre daglige liv. Et av de mest fremtredende eksemplene på AI-teknologi er ChatGPT, en språkmodell med kunstig intelligens som ble laget av OpenAI og støttet av Microsoft. Så langt har millioner av mennesker allerede brukt ChatGPT siden den ble lansert i november 2022.

De siste dagene har søk etter "er ChatGPT trygt?" har skutt i været ettersom mennesker over hele verden gir uttrykk for bekymringer om de potensielle risikoene forbundet med denne teknologien.

I følge data fra Google Trends, søk etter "er ChatGPT trygt?" har økt med hele 614 % siden 16. mars. Dataene ble oppdaget av Cryptomaniaks.com, en ledende kryptoutdanningsplattform som er dedikert til å hjelpe nybegynnere og nybegynnere av kryptovaluta med å forstå blokkjeden og kryptovalutaens verden.

Økningen i søkene etter informasjon om ChatGPT-sikkerhet fremhever behovet for større offentlig utdanning og åpenhet rundt AI-systemer og deres potensielle risikoer. Ettersom AI-teknologi som ChatGPT fortsetter å utvikle seg og integreres i våre daglige liv, er det viktig å ta tak i sikkerhetsproblemene som dukker opp, siden det kan være potensielle farer forbundet med bruk av ChatGPT eller en hvilken som helst annen AI-chatbot.

ChatGPT er designet for å hjelpe brukere med å generere menneskelignende svar på spørsmålene deres og delta i samtale. Så personvernhensyn er en av de viktigste risikoene forbundet med bruk av ChatGPT. Når brukere samhandler med ChatGPT, kan de utilsiktet dele personlig informasjon om seg selv, for eksempel navn, plassering og andre sensitive data. Denne informasjonen kan være sårbar for hacking eller andre former for cyberangrep.

En annen bekymring er potensialet for feilinformasjon. ChatGPT er programmert til å generere svar basert på input den mottar fra brukere. Hvis inndataene er feil eller misvisende, kan AI generere unøyaktige eller misvisende svar. Videre kan AI-modeller opprettholde skjevheter og stereotyper som er tilstede i dataene de er trent på. Hvis dataene som brukes til å trene ChatGPT inkluderer partisk eller fordomsfull språk, kan AI generere svar som opprettholder disse skjevhetene.

I motsetning til andre AI-assistenter som Siri eller Alexa, bruker ikke ChatGPT internett for å finne svar. I stedet genererer den svar basert på mønstrene og assosiasjonene den har lært av den enorme mengden tekst den ble trent på. Den konstruerer en setning ord for ord, og velger den mest sannsynlige, basert på dens dype læringsteknikker, spesielt en nevrale nettverksarkitektur kalt en transformator, for å behandle og generere språk.

ChatGPT er forhåndsopplært på en enorm mengde tekstdata, inkludert bøker, nettsteder og annet nettinnhold. Når en bruker skriver inn en forespørsel eller et spørsmål, bruker modellen sin forståelse av språk og sin kunnskap om konteksten til forespørselen for å generere et svar. Og den kommer til slutt frem til et svar ved å gjøre en rekke gjetninger, som er en del av grunnen til at den kan gi deg feil svar.

Hvis ChatGPT er opplært i kollektiv skriving av mennesker over hele verden, og fortsetter å gjøre det ettersom det blir brukt av mennesker, kan de samme skjevhetene som finnes i den virkelige verden også vises i modellen. Samtidig er denne nye og avanserte chatboten utmerket til å forklare komplekse konsepter, noe som gjør den til et veldig nyttig og kraftig verktøy for læring, men det er viktig å ikke tro på alt den sier. ChatGPT er absolutt ikke alltid riktig, vel, i det minste, ikke ennå.

Merk at disse farene ikke er unike for ChatGPT, og de gjelder også for andre AI-modeller. For å redusere disse risikoene er det avgjørende at ChatGPT brukes på en ansvarlig måte og gis nøyaktige og passende innspill. Vi bør også forstå dens begrensninger.

Til tross for disse risikoene, har AI-teknologi som ChatGPT et enormt potensial for å revolusjonere ulike bransjer, inkludert blockchain. Bruken av kunstig intelligens i blokkjedeteknologi har fått større innpass, spesielt på områder som svindeloppdagelse, forsyningskjedestyring og smarte kontrakter. Nye AI-drevne roboter som f.eks KjedeGPT, kan hjelpe nye blokkjedebedrifter med å øke hastigheten i utviklingsprosessen.

Det er imidlertid viktig å finne en balanse mellom innovasjon og sikkerhet. Utviklere, brukere og regulatorer må samarbeide for å lage retningslinjer som sikrer ansvarlig utvikling og distribusjon av AI-teknologi.

I de siste nyhetene har Italia blitt det første vestlige landet som blokkerer avansert chatbot ChatGPT. Den italienske databeskyttelsesmyndigheten uttrykte personvernbekymringer knyttet til modellen. Regulatoren sa at den ville forby og undersøke OpenAI «med umiddelbar virkning».

Microsoft har brukt milliarder av dollar på det og la til AI chat-verktøyet til Bing forrige måned. Det har også sagt at det planlegger å bygge inn en versjon av teknologien i sine Office-apper, inkludert Word, Excel, PowerPoint og Outlook.

Samtidig har mer enn 1,000 kunstig intelligens-eksperter, forskere og støttespillere sluttet seg til en oppfordring om en umiddelbar pause i opprettelsen av AI-er i minst seks måneder, slik at mulighetene og farene ved systemer som GPT-4 kan studeres ordentlig.

Kravet er fremsatt i et åpent brev signert av store AI-aktører, inkludert: Elon Musk, som var med å grunnlegge OpenAI, forskningslaboratoriet som er ansvarlig for ChatGPT og GPT-4; Emad Mostaque, som grunnla London-baserte Stability AI; og Steve Wozniak, medgründeren av Apple.

Det åpne brevet uttrykte bekymring for å kunne kontrollere det som ikke fullt ut kan forstås:

«De siste månedene har AI-laboratorier vært låst i et kappløp uten kontroll for å utvikle og distribuere stadig kraftigere digitale hjerner som ingen – ikke engang skaperne deres – kan forstå, forutsi eller pålitelig kontrollere. Kraftige AI-systemer bør bare utvikles når vi er sikre på at effektene deres vil være positive og risikoene deres vil være håndterbare.»

Oppfordringen til en umiddelbar pause ved opprettelsen av AI-er viser behovet for å studere mulighetene og farene ved systemer som ChatGPT og GPT-4. Ettersom AI-teknologien fortsetter å utvikle seg og integreres i våre daglige liv, er det avgjørende å ta tak i sikkerhetsproblemer og sikre ansvarlig utvikling og distribusjon av AI.

Økende bekymringer om ChatGPT-sikkerhet fremhever behovet for offentlig utdanning og åpenhet om AI-risikoer kilde https://blockchainconsultants.io/rising-concerns-about-chatgpt-safety-highlight-the-need-for-public-education-and-transparency -on-ai-risks/

Tidstempel:

Mer fra Blockchain-konsulenter