OpenAI exclude utilizarea în alegeri și suprimarea alegătorilor

OpenAI exclude utilizarea în alegeri și suprimarea alegătorilor

Nodul sursă: 3073710

Într-o mișcare decisivă de combatere a dezinformării în alegeri, OpenAI a declarat a atitudine riguroasă împotriva utilizării instrumentelor sale generative de inteligență artificială în campaniile electorale și tacticile de suprimare a alegătorilor.

Acest anunț vine ca un pas esențial către asigurarea integrității numeroaselor alegeri cheie programate pentru 2024.

De asemenea, se va citi: OpenAI negociază licențierea conținutului de știri cu CNN, Fox și Time

Combaterea utilizării abuzive prin inovare și politică

OpenAI a inițiat o strategie pentru a-și proteja tehnologia împotriva exploatării pentru a manipula rezultatele alegerilor. Compania a înființat o echipă specializată care se concentrează pe preocupările legate de alegeri, îmbinând expertiza din diferite departamente, inclusiv juridic, inginerie și politică. Scopul principal al acestei echipe este de a identifica și atenua potențialul abuz al IA în alegeri.

„Avem un efort interfuncțional dedicat activității electorale, reunind expertiza sistemelor noastre de siguranță, informații despre amenințări, echipe juridice, de inginerie și politici.”

Amenințarea dezinformarii în politică nu este nouă, dar apariția tehnologiei AI prezintă provocări fără precedent. Recunoscând acest lucru, OpenAI ia măsuri proactive. Compania intenționează să folosească o combinație de tehnici, cum ar fi teaming roșu, implicarea utilizatorilor și balustrade de siguranță. Mai exact, imaginea lor instrument de generare, DALL-E, a fost actualizat pentru a preveni crearea de imagini care înfățișează oameni reali, inclusiv candidați politici.

„DALL·E are balustrade pentru a refuza cererile care solicită generarea de imagini a oamenilor reali, inclusiv a candidaților.”

OpenAI își revizuiește continuu politicile privind utilizatorii pentru a ține pasul cu peisajul evolutiv al tehnologiei AI și cu potențiala utilizare greșită a acesteia. Politicile sale de siguranță actualizate limitează acum în mod explicit dezvoltarea de aplicații AI pentru campanii politice și lobby. În plus, au fost puse în aplicare măsuri pentru a preveni crearea de chatbot-uri care imită persoane sau organizații reale.

Creșterea transparenței și a răspunderii

O componentă cheie a strategiei OpenAI este introducerea unui clasificator de proveniență pentru instrumentul său DALL-E. Această caracteristică, aflată în prezent în testare beta, poate detecta imaginile generate de DALL-E. Compania își propune să facă acest instrument accesibil jurnaliștilor, platformelor și cercetătorilor pentru a spori transparența conținutului generat de AI.

„Plănuim să-l punem la dispoziția primului nostru grup de testeri, inclusiv jurnalişti, platforme și cercetători, pentru feedback.”

OpenAI integrează, de asemenea, raportarea de știri în timp real în Chat GPT. Această integrare își propune să ofere utilizatorilor informații exacte și în timp util, sporind transparența în jurul surselor de informații furnizate de IA.

Într-un efort comun cu Asociația Națională a Secretarilor de Stat din SUA, OpenAI se concentrează pe prevenirea ca tehnologia sa să descurajeze participarea electorală. Munca în echipă implică direcționarea utilizatorilor de chatbot bazați pe GPT către site-uri web de încredere cu informații despre vot precum CanIVote.org.

Rivalii urmează exemplul în cursa AI

Anunțul OpenAI a creat un precedent în industria AI, cu rivali precum Google LLC și Meta Platforms Inc. implementează, de asemenea, măsuri de combatere a dezinformării răspândite prin tehnologiile lor. Acest efort colectiv al liderilor din industrie semnifică o conștientizare și o responsabilitate tot mai mare față de impactul potențial al inteligenței artificiale asupra proceselor democratice.

Dar este suficient? Charles King of Pund-IT Inc. ridică un punct critic, punând la îndoială dacă aceste măsuri sunt oportune sau reactive. El susține că preocupările cu privire la dezinformarea generată de AI există de ani de zile, iar anunțul recent al OpenAI ar putea fi văzut ca prea puțin, prea târziu. Această perspectivă provoacă o reflecție mai profundă asupra rolului și responsabilității dezvoltatorilor de inteligență artificială în peisajul politic.

„Deci, în cel mai bun caz, acest anunț sugerează că OpenAI a adormit la comutator. Dar, în cel mai rău caz, seamănă cu un ritual de spălare a mâinilor pe care OpenAI îl poate indica atunci când IA generativă lovește fanul în timpul viitoarelor alegeri globale din acest an.”

Timestamp-ul:

Mai mult de la MetaNews