OpenAI udelukker brug ved valg og undertrykkelse af vælgere

OpenAI udelukker brug ved valg og undertrykkelse af vælgere

Kildeknude: 3073710

I et afgørende skridt til at bekæmpe misinformation ved valg har OpenAI erklæret en streng holdning imod at bruge dets generative AI-værktøjer i valgkampagner og vælgerundertrykkelsestaktik.

Denne meddelelse kommer som et væsentligt skridt hen imod at sikre integriteten af ​​adskillige vigtige valg, der er planlagt til 2024.

Læs også: OpenAI forhandler nyhedsindholdslicens med CNN, Fox og Time

Bekæmpelse af misbrug med innovation og politik

OpenAI har iværksat en strategi for at beskytte sin teknologi mod at blive udnyttet til at manipulere valgresultater. Virksomheden har etableret et specialiseret team, der fokuserer på valgrelaterede bekymringer, og fusionerer ekspertisen fra forskellige afdelinger, herunder jura, teknik og politik. Dette teams primære mål er at identificere og afbøde det potentielle misbrug af kunstig intelligens ved valg.

"Vi har en tværfunktionel indsats dedikeret til valgarbejde, der samler ekspertise fra vores sikkerhedssystemer, trusselsefterretninger, juridiske, ingeniørmæssige og politiske teams."

Truslen om misinformation i politik er ikke ny, men alligevel byder fremkomsten af ​​AI-teknologi på hidtil usete udfordringer. I erkendelse af dette tager OpenAI proaktive foranstaltninger. Virksomheden planlægger at anvende en blanding af teknikker såsom red teaming, brugerinddragelse og sikkerhedsværn. Nærmere bestemt deres image generationsværktøj, DALL-E, er blevet opdateret for at forhindre oprettelsen af ​​billeder, der forestiller rigtige mennesker, herunder politiske kandidater.

"DALL·E har autoværn til at afvise anmodninger, der beder om billedgenerering af rigtige mennesker, inklusive kandidater."

OpenAI reviderer løbende sine brugerpolitikker for at holde trit med det udviklende landskab af AI-teknologi og dets potentielle misbrug. Dens opdaterede sikkerhedspolitikker begrænser nu eksplicit udviklingen af ​​AI-applikationer til politisk kampagne og lobbyvirksomhed. Derudover er der iværksat foranstaltninger for at forhindre oprettelsen af ​​chatbots, der efterligner rigtige mennesker eller organisationer.

Forbedring af gennemsigtighed og ansvarlighed

En nøglekomponent i OpenAIs strategi er introduktionen af ​​en herkomstklassifikator for dets DALL-E-værktøj. Denne funktion, som i øjeblikket er i beta-testning, kan detektere billeder genereret af DALL-E. Virksomheden sigter mod at gøre dette værktøj tilgængeligt for journalister, platforme og forskere for at øge gennemsigtigheden i AI-genereret indhold.

"Vi planlægger snart at gøre det tilgængeligt for vores første gruppe af testere - inklusive journalister, platforme og forskere - for feedback."

OpenAI integrerer også nyhedsrapportering i realtid i ChatGPT. Denne integration har til formål at give brugerne nøjagtige og rettidige oplysninger, hvilket øger gennemsigtigheden omkring de informationskilder, der leveres af AI.

I en fælles indsats med National Association of Secretaries of State i USA er OpenAI fokuseret på at forhindre, at dets teknologi modvirker valgdeltagelse. Teamarbejdet involverer at lede GPT-drevne chatbot-brugere til pålidelige websteder med stemmeinformation som CanIVote.org.

Rivalerne følger trop i AI-løbet

OpenAI's meddelelse har skabt præcedens i AI-industrien, med rivaler som Google LLC og Meta Platforms Inc. implementerer også foranstaltninger til at bekæmpe misinformation spredt gennem deres teknologier. Denne kollektive indsats fra industriledere betyder en voksende bevidsthed og ansvarlighed over for AIs potentielle indvirkning på demokratiske processer.

Men er dette nok? Charles King fra Pund-IT Inc. rejser et kritisk punkt, idet han stiller spørgsmålstegn ved, om disse foranstaltninger er rettidige eller reaktive. Han hævder, at bekymringer om AI-genereret misinformation har eksisteret i årevis, og OpenAIs seneste meddelelse kan ses som for lidt, for sent. Dette perspektiv fremkalder en dybere refleksion over AI-udvikleres rolle og ansvar i det politiske landskab.

"Så i bedste fald tyder denne meddelelse på, at OpenAI sov ved kontakten. Men i værste fald ligner det et håndvask-ritual, som OpenAI kan pege på, når generativ AI rammer fanen under det kommende globale valg i år."

Tidsstempel:

Mere fra MetaNews