Kasvav mure ChatGPT ohutuse pärast tõstab esile vajaduse avaliku hariduse ja läbipaistvuse järele tehisintellekti riskide osas

Kasvav mure ChatGPT ohutuse pärast tõstab esile vajaduse avaliku hariduse ja läbipaistvuse järele tehisintellekti riskide osas

Allikasõlm: 2556048

Tehisintellekti (AI) tõus tekitas muret ohutuse ja privaatsuse pärast, eriti kuna need tehnoloogiad muutuvad üha arenenumaks ja integreeritakse meie igapäevaellu. Üks silmapaistvamaid AI-tehnoloogia näiteid on ChatGPT, tehisintellekti keelemudel, mille lõi OpenAI ja mida toetab Microsoft. Siiani on miljonid inimesed ChatGPT-d juba kasutanud alates selle käivitamisest 2022. aasta novembris.

Viimastel päevadel on otsingud „kas ChatGPT on ohutu?” on hüppeliselt tõusnud, kuna inimesed üle maailma väljendavad oma muret selle tehnoloogiaga seotud võimalike riskide pärast.

Google Trendsi andmete kohaselt on otsingud "kas ChatGPT ohutu?" on alates 614. märtsist kasvanud tohutult 16%. Andmed avastas Cryptomaniaks.com, juhtiv krüptohariduse platvorm, mille eesmärk on aidata uustulnukatel ja krüptovaluutaga alustajatel mõista plokiahela ja krüptovaluutade maailma.

ChatGPT ohutuse kohta teabe otsimise kasv toob esile vajaduse suurema avalikkuse harimise ja läbipaistvuse järele tehisintellektisüsteemide ja nende võimalike riskide kohta. Kuna tehisintellekti tehnoloogia, nagu ChatGPT, areneb jätkuvalt ja integreerub meie igapäevaellu, on oluline tegeleda esilekerkivate ohutusprobleemidega, kuna ChatGPT või mõne muu AI vestlusroti kasutamisega võivad kaasneda potentsiaalsed ohud.

ChatGPT eesmärk on aidata kasutajatel luua oma päringutele inimlikke vastuseid ja osaleda vestluses. Seega on privaatsusprobleemid üks olulisemaid ChatGPT kasutamisega seotud riske. Kui kasutajad suhtlevad ChatGPT-ga, võivad nad tahtmatult jagada enda kohta isiklikku teavet, näiteks oma nime, asukohta ja muid tundlikke andmeid. See teave võib olla häkkimise või muude küberrünnakute suhtes haavatav.

Teine probleem on võimalik valeinformatsioon. ChatGPT on programmeeritud genereerima vastuseid kasutajatelt saadud sisendi põhjal. Kui sisend on vale või eksitav, võib tehisintellekt genereerida ebatäpseid või eksitavaid vastuseid. Lisaks võivad AI mudelid säilitada eelarvamusi ja stereotüüpe, mis esinevad andmetes, mille kohta neid koolitatakse. Kui ChatGPT koolitamiseks kasutatavad andmed sisaldavad kallutatud või eelarvamuslikku keelt, võib tehisintellekt genereerida vastuseid, mis neid eelarvamusi säilitavad.

Erinevalt teistest AI-assistentidest, nagu Siri või Alexa, ei kasuta ChatGPT vastuste leidmiseks Internetti. Selle asemel loob see vastuseid mustrite ja assotsiatsioonide põhjal, mida ta on õppinud suure hulga tekstide põhjal. See koostab lause sõna-sõnalt, valides keele töötlemiseks ja genereerimiseks kõige tõenäolisema, tuginedes oma süvaõppetehnikatele, täpsemalt närvivõrgu arhitektuurile, mida nimetatakse transformaatoriks.

ChatGPT on eelkoolitatud suure hulga tekstiandmete, sealhulgas raamatute, veebisaitide ja muu veebisisu kohta. Kui kasutaja sisestab viipa või küsimuse, kasutab mudel vastuse loomiseks oma keelemõistmist ja teadmisi viipa kontekstist. Ja lõpuks jõuab see vastuseni, tehes mitmeid oletusi, mis on osa põhjusest, miks see võib anda teile valesid vastuseid.

Kui ChatGPT on koolitatud inimeste ühiseks kirjutamiseks kogu maailmas ja jätkab seda samaaegselt inimeste poolt kasutatavate inimestega, võivad mudelis ilmneda samad eelarvamused, mis eksisteerivad ka pärismaailmas. Samal ajal on see uus ja täiustatud vestlusbot suurepärane keerukate mõistete selgitamisel, muutes selle õppimiseks väga kasulikuks ja võimsaks tööriistaks, kuid oluline on mitte uskuda kõike, mida see ütleb. ChatGPT ei ole kindlasti alati õige, noh, vähemalt mitte veel.

Pange tähele, et need ohud ei ole ChatGPT jaoks ainulaadsed ja need kehtivad ka muude AI mudelite kohta. Nende riskide maandamiseks on ülioluline, et ChatGPT-d kasutataks vastutustundlikult ning sellele antakse täpne ja asjakohane sisend. Peaksime mõistma ka selle piiranguid.

Vaatamata nendele riskidele on AI-tehnoloogial, nagu ChatGPT, tohutu potentsiaal mitmesuguste tööstusharude, sealhulgas plokiahela revolutsiooniliseks muutmiseks. Tehisintellekti kasutamine plokiahela tehnoloogias on hakanud üha rohkem tähelepanu pöörama, eriti sellistes valdkondades nagu pettuste avastamine, tarneahela juhtimine ja nutikad lepingud. Uued AI-põhised robotid nagu ChainGPT, võib aidata uutel plokiahela ettevõtetel oma arendusprotsessi kiirendada.

Siiski on oluline leida tasakaal innovatsiooni ja ohutuse vahel. Arendajad, kasutajad ja regulaatorid peavad tegema koostööd, et luua suunised, mis tagavad tehisintellekti tehnoloogia vastutustundliku arendamise ja kasutuselevõtu.

Viimaste uudiste kohaselt on Itaaliast saanud esimene lääneriik, kes blokeeris täiustatud vestlusrobot ChatGPT. Itaalia andmekaitseamet väljendas mudeliga seotud privaatsusprobleeme. Regulaator ütles, et keelab ja uurib OpenAI "viivitamata".

Microsoft on kulutanud sellele miljardeid dollareid ja lisanud eelmisel kuul Bingile tehisintellekti vestlustööriista. Samuti on ta öelnud, et kavatseb manustada tehnoloogia versiooni oma Office'i rakendustesse, sealhulgas Wordi, Excelisse, PowerPointisse ja Outlooki.

Samal ajal on enam kui 1,000 tehisintellekti eksperti, teadlast ja toetajat ühinenud üleskutsega teha tehisintellekti loomisel viivitamatu paus vähemalt kuueks kuuks, nii et tehisintellekti võimalused ja ohud süsteemid nagu GPT-4 saab korralikult uurida.

Nõudmine on esitatud avatud kirjas, millele on alla kirjutanud peamised AI mängijad, sealhulgas: Elon Musk, kes oli ChatGPT ja GPT-4 eest vastutava uurimislabori OpenAI kaasasutaja; Emad Mostaque, kes asutas Londonis asuva stabiilsuse AI; ja Apple'i kaasasutaja Steve Wozniak.

Avatud kirjas väljendati muret suutlikkuse üle kontrollida seda, mida ei saa täielikult mõista:

„Viimastel kuudel on tehisintellekti laborid sattunud kontrollimatusse võidujooksu, et arendada ja juurutada üha võimsamaid digitaalseid mõtteid, mida keegi – isegi mitte nende loojad – ei suuda mõista, ennustada ega usaldusväärselt juhtida. Võimsaid tehisintellektisüsteeme tuleks arendada alles siis, kui oleme kindlad, et nende mõju on positiivne ja nende riskid on juhitavad.

Üleskutse tehisintellekti loomisel viivitamatult peatada näitab vajadust uurida selliste süsteemide nagu ChatGPT ja GPT-4 võimalusi ja ohte. Kuna tehisintellekti tehnoloogia areneb jätkuvalt ja integreerub meie igapäevaellu, on ohutusprobleemidega tegelemine ning tehisintellekti vastutustundliku arendamise ja kasutuselevõtu tagamine ülioluline.

Kasvavad mured ChatGPT ohutuse pärast Tõstke esile vajadus avaliku hariduse ja läbipaistvuse järele tehisintellekti riskide allikas https://blockchainconsultants.io/rising-concerns-about-chatgpt-safety-highlight-the-need-for-public-education-and-transparency -on-ai-risk/

Ajatempel:

Veel alates Blockchaini konsultandid