Az OpenAI kizárja a felhasználást a választásokon és a szavazók elnyomásában

Az OpenAI kizárja a felhasználást a választásokon és a szavazók elnyomásában

Forrás csomópont: 3073710

A választások során a félretájékoztatás elleni küzdelem döntő lépéseként az OpenAI kijelentette: a szigorú álláspont a generatív mesterséges intelligencia eszközeinek választási kampányokban és a szavazók elnyomásában való felhasználása ellen.

Ez a bejelentés lényeges lépés a 2024-re tervezett számos kulcsfontosságú választás integritásának biztosítása felé.

Lásd még: Az OpenAI tárgyalásokat folytat a hírtartalom engedélyezéséről a CNN-nel, a Fox-szal és a Time-mal

A visszaélések elleni küzdelem innovációval és politikával

Az OpenAI stratégiát indított annak érdekében, hogy megvédje technológiáját attól, hogy azt a választási eredmények manipulálására használják fel. A vállalat egy speciális csapatot hozott létre, amely a választásokkal kapcsolatos kérdésekre összpontosít, egyesítve a különböző részlegek szakértelmét, beleértve a jogi, mérnöki és politikai részlegeket. Ennek a csapatnak az elsődleges célja, hogy azonosítsa és mérsékelje a mesterséges intelligenciával való esetleges visszaéléseket a választásokon.

„Közfunkciós erőfeszítéseket teszünk a választási munkának szentelve, egyesítve a biztonsági rendszereink, a fenyegetésekkel kapcsolatos hírszerzési, a jogi, mérnöki és szakpolitikai csapataink szakértelmét.”

A félretájékoztatás veszélye a politikában nem új keletű, de az AI technológia megjelenése soha nem látott kihívásokat jelent. Ezt felismerve az OpenAI proaktív intézkedéseket tesz. A vállalat olyan technikák keverékét tervezi alkalmazni, mint a red teaming, a felhasználói elkötelezettség és a biztonsági védőkorlátok. Pontosabban a képük generációs szerszám, DALL-E, frissítésre került, hogy megakadályozzák a valós személyeket, köztük politikai jelölteket ábrázoló képek létrehozását.

„A DALL·E-nek megvannak a korlátai, hogy elutasítsa azokat a kéréseket, amelyek valódi emberek, köztük jelöltek képének létrehozását kérik.”

Az OpenAI folyamatosan felülvizsgálja felhasználói irányelveit, hogy lépést tartson a mesterséges intelligencia technológia fejlődő környezetével és az esetleges visszaélésekkel. Frissített biztonsági irányelvei immár kifejezetten korlátozzák az AI-alkalmazások fejlesztését politikai kampányokhoz és lobbizáshoz. Ezenkívül intézkedéseket vezettek be annak megakadályozására, hogy valódi embereket vagy szervezeteket utánzó chatbotok jöjjenek létre.

Az átláthatóság és az elszámoltathatóság fokozása

Az OpenAI stratégiájának egyik kulcseleme a származási osztályozó bevezetése a DALL-E eszközhöz. Ez a jelenleg béta tesztelés alatt álló funkció képes észlelni a DALL-E által generált képeket. A vállalat célja, hogy ezt az eszközt elérhetővé tegye az újságírók, platformok és kutatók számára, hogy fokozza az AI által generált tartalmak átláthatóságát.

„Azt tervezzük, hogy hamarosan elérhetővé tesszük tesztelőink első csoportja számára – köztük újságírók, platformok és kutatók – visszajelzés céljából.”

Az OpenAI a valós idejű híradást is integrálja ChatGPT. Ennek az integrációnak az a célja, hogy pontos és időszerű információkat biztosítson a felhasználóknak, növelve az AI által biztosított információforrások átláthatóságát.

Az Egyesült Államok Külügyminisztereinek Országos Szövetségével közösen az OpenAI arra törekszik, hogy megakadályozza, hogy technológiája elriassza a választási részvételt. A csapatmunka magában foglalja a GPT-alapú chatbot-felhasználók irányítását olyan megbízható szavazási információs webhelyekre, mint a CanIVote.org.

A riválisok követik példájukat az AI-versenyben

Az OpenAI bejelentése precedenst teremtett az AI-iparban, olyan riválisokkal, mint pl Google LLC és a Meta Platforms Inc. szintén intézkedéseket hajt végre a technológiáikon keresztül terjedő félretájékoztatás leküzdésére. Az iparág vezetőinek ez a közös erőfeszítése a mesterséges intelligencia demokratikus folyamatokra gyakorolt ​​lehetséges hatásai iránti növekvő tudatosság és felelősségvállalás növekedését jelenti.

De vajon ez elég? Charles King, a Pund-IT Inc. egy kritikus pontot vet fel, megkérdőjelezve, hogy ezek az intézkedések időszerűek-e vagy reagálnak-e. Azzal érvel, hogy a mesterséges intelligencia által generált félretájékoztatás miatti aggodalmak évek óta fennállnak, és az OpenAI közelmúltbeli bejelentése túl kevésnek, túl későnek tekinthető. Ez a perspektíva mélyebb gondolkodásra készteti az AI-fejlesztők szerepét és felelősségét a politikai környezetben.

„Tehát ez a bejelentés a legjobb esetben azt sugallja, hogy az OpenAI aludt a váltáskor. De a legrosszabb esetben is egy kézmosási rituáléhoz hasonlít, amelyre az OpenAI mutathat, amikor a generatív mesterséges intelligencia eltalálja a rajongókat a közelgő idei globális választásokon.”

Időbélyeg:

Még több MetaNews