Vse večja zaskrbljenost glede varnosti ChatGPT poudarja potrebo po javnem izobraževanju in preglednosti glede tveganj umetne inteligence

Vse večja zaskrbljenost glede varnosti ChatGPT poudarja potrebo po javnem izobraževanju in preglednosti glede tveganj umetne inteligence

Izvorno vozlišče: 2556048

Vzpon umetne inteligence (AI) je povzročil val skrbi glede varnosti in zasebnosti, zlasti ko te tehnologije postajajo naprednejše in integrirane v naše vsakdanje življenje. Eden najvidnejših primerov tehnologije umetne inteligence je ChatGPT, jezikovni model umetne inteligence, ki ga je ustvaril OpenAI in ga podpira Microsoft. Doslej je ChatGPT od uvedbe novembra 2022 že uporabljalo na milijone ljudi.

V zadnjih dneh so iskanja "ali je ChatGPT varen?" so skokovito narasle, ko so ljudje po vsem svetu izrazili zaskrbljenost glede možnih tveganj, povezanih s to tehnologijo.

Glede na podatke iz storitve Google Trends so iskanja »ali je ChatGPT varen?« so se od 614. marca povečale za ogromnih 16 %. Podatke je odkril Cryptomaniaks.com, vodilna kriptoizobraževalna platforma, ki je namenjena pomoči novincem in začetnikom v kriptovalutah pri razumevanju sveta blockchaina in kriptovalute.

Povečanje števila iskanj informacij o varnosti ChatGPT poudarja potrebo po večjem izobraževanju javnosti in preglednosti glede sistemov umetne inteligence in njihovih potencialnih tveganj. Ker tehnologija umetne inteligence, kot je ChatGPT, še naprej napreduje in se vključuje v naše vsakdanje življenje, je bistvenega pomena obravnavati pomisleke glede varnosti, ki se pojavljajo, saj lahko obstajajo potencialne nevarnosti, povezane z uporabo ChatGPT ali katerega koli drugega klepetalnega robota z umetno inteligenco.

ChatGPT je zasnovan za pomoč uporabnikom pri ustvarjanju človeških odgovorov na njihova vprašanja in vključevanju v pogovor. Torej so pomisleki glede zasebnosti eno najpomembnejših tveganj, povezanih z uporabo ChatGPT. Ko uporabniki komunicirajo s ChatGPT, lahko nehote delijo osebne podatke o sebi, kot so ime, lokacija in drugi občutljivi podatki. Te informacije so lahko ranljive za vdore ali druge oblike kibernetskih napadov.

Druga skrb je možnost napačnih informacij. ChatGPT je programiran za ustvarjanje odgovorov na podlagi vnosa, ki ga prejme od uporabnikov. Če je vnos nepravilen ali zavajajoč, lahko AI ustvari netočne ali zavajajoče odgovore. Poleg tega lahko modeli umetne inteligence ohranjajo pristranskosti in stereotipe, ki so prisotni v podatkih, na katerih se usposabljajo. Če podatki, uporabljeni za usposabljanje ChatGPT, vključujejo pristransko ali predsodkovno govorico, lahko umetna inteligenca ustvari odzive, ki ohranjajo te pristranskosti.

Za razliko od drugih pomočnikov AI, kot sta Siri ali Alexa, ChatGPT za iskanje odgovorov ne uporablja interneta. Namesto tega generira odgovore na podlagi vzorcev in asociacij, ki se jih je naučil iz ogromne količine besedila, na katerem se je uril. Konstruira stavek besedo za besedo in izbere najverjetnejšega na podlagi svojih tehnik globokega učenja, zlasti arhitekture nevronske mreže, imenovane transformator, za obdelavo in ustvarjanje jezika.

ChatGPT je vnaprej usposobljen za ogromno besedilnih podatkov, vključno s knjigami, spletnimi mesti in drugo spletno vsebino. Ko uporabnik vnese poziv ali vprašanje, model uporabi svoje razumevanje jezika in svoje poznavanje konteksta poziva, da ustvari odgovor. In končno pride do odgovora z nizom ugibanj, kar je del razloga, zakaj vam lahko da napačne odgovore.

Če je ChatGPT usposobljen za kolektivno pisanje ljudi po vsem svetu in to počne še naprej, ko ga ljudje uporabljajo, se lahko v modelu pojavijo tudi iste pristranskosti, ki obstajajo v resničnem svetu. Hkrati je ta novi in ​​napredni chatbot odličen pri razlagi zapletenih konceptov, zaradi česar je zelo uporabno in močno orodje za učenje, vendar je pomembno, da ne verjamete vsemu, kar pove. ChatGPT vsekakor ni vedno pravilen, no, vsaj še ne.

Upoštevajte, da te nevarnosti niso edinstvene za ChatGPT in veljajo tudi za druge modele AI. Za ublažitev teh tveganj je ključnega pomena, da se ChatGPT uporablja odgovorno in da se mu zagotovijo natančni in ustrezni vhodni podatki. Razumeti moramo tudi njegove omejitve.

Kljub tem tveganjem ima tehnologija umetne inteligence, kot je ChatGPT, ogromen potencial za revolucijo različnih industrij, vključno z verigo blokov. Uporaba umetne inteligence v tehnologiji veriženja blokov postaja vse bolj priljubljena, zlasti na področjih, kot so odkrivanje goljufij, upravljanje dobavne verige in pametne pogodbe. Novi roboti, ki jih poganja AI, kot je npr ChainGPT, lahko pomaga novim podjetjem blockchain pospešiti njihov razvojni proces.

Vendar pa je nujno najti ravnotežje med inovativnostjo in varnostjo. Razvijalci, uporabniki in regulatorji morajo sodelovati pri oblikovanju smernic, ki zagotavljajo odgovoren razvoj in uvajanje tehnologije umetne inteligence.

V zadnjih novicah je Italija postala prva zahodna država, ki je blokirala napredni chatbot ChatGPT. Italijanski organ za varstvo podatkov je izrazil pomisleke glede zasebnosti v zvezi z modelom. Regulator je dejal, da bo prepovedal in preiskal OpenAI "s takojšnjim učinkom".

Microsoft je za to porabil milijarde dolarjev in Bingu prejšnji mesec dodal orodje za klepet z umetno inteligenco. Povedal je tudi, da namerava različico tehnologije vgraditi v svoje Officeove aplikacije, vključno z Wordom, Excelom, PowerPointom in Outlookom.

Hkrati se je več kot 1,000 strokovnjakov za umetno inteligenco, raziskovalcev in podpornikov pridružilo pozivu k takojšnjemu premoru pri ustvarjanju umetne inteligence za vsaj šest mesecev, tako da so zmogljivosti in nevarnosti sistemi, kot je GPT-4 mogoče pravilno preučiti.

Zahteva je podana v odprtem pismu, ki so ga podpisali glavni akterji AI, vključno z: Elon Musk, ki je soustanovil OpenAI, raziskovalni laboratorij, odgovoren za ChatGPT in GPT-4; Emad Mostaque, ki je ustanovil Stability AI s sedežem v Londonu; in Steve Wozniak, soustanovitelj Appla.

Odprto pismo je izrazilo zaskrbljenost glede možnosti nadzora nad tem, česar ni mogoče popolnoma razumeti:

»V zadnjih mesecih so bili laboratoriji umetne inteligence ujeti v tekmi brez nadzora za razvoj in uvajanje vedno močnejših digitalnih umov, ki jih nihče – niti njihovi ustvarjalci – ne more razumeti, predvideti ali zanesljivo nadzorovati. Zmogljive sisteme umetne inteligence je treba razviti šele, ko smo prepričani, da bodo njihovi učinki pozitivni in bodo njihova tveganja obvladljiva.«

Poziv k takojšnji prekinitvi ustvarjanja umetne inteligence kaže na potrebo po preučitvi zmogljivosti in nevarnosti sistemov, kot sta ChatGPT in GPT-4. Ker tehnologija umetne inteligence še naprej napreduje in se vključuje v naše vsakdanje življenje, je obravnavanje varnostnih vprašanj ter zagotavljanje odgovornega razvoja in uvajanja umetne inteligence ključnega pomena.

Naraščajoča zaskrbljenost glede varnosti ChatGPT Poudarite potrebo po javnem izobraževanju in preglednosti glede tveganj AI Vir https://blockchainconsultants.io/rising-concerns-about-chatgpt-safety-highlight-the-need-for-public-education-and-transparency -on-ai-tveganja/

Časovni žig:

Več od Svetovalci v verigi blokov