Az AFP és más médiaóriások globális mesterségesintelligencia-szabályozást kérnek az integritás védelme érdekében

Az AFP és más médiaóriások globális mesterségesintelligencia-szabályozást kérnek az integritás védelme érdekében

Forrás csomópont: 2815840

Számos vezető globális hír- és kiadószervezet, köztük az Agence France-Presse (AFP), az Európai Pressfotó Ügynökség, a Getty Images és mások aláírt nyílt levél a politikai döntéshozókhoz és az iparági vezetőkhöz. A generatív mesterséges intelligencia modellekre vonatkozó szabályozási keret létrehozását sürgetik a médiába vetett közbizalom megőrzése és a tartalom integritásának védelme érdekében.

A „KÖZBIZALOM MEGŐRZÉSE A MÉDIÁBAN AZ EGYESÍTETT MI SZABÁLYOZÁSNAL ÉS GYAKORLATOKKAL” című levél felvázolja az AI-modellek felelős fejlesztésének konkrét elveit, és aggodalmát fejezi ki a lehetséges kockázatokkal kapcsolatban, ha a megfelelő szabályozást nem hajtják végre gyorsan.

Szabályzati javaslat

A levél a javasolt szabályozási elvek közül kiemeli:

Átláthatóság: A generatív mesterségesintelligencia-modellek létrehozásához használt képzési készletek közzététele, amely lehetővé teszi a lehetséges torzítások vagy félretájékoztatás vizsgálatát.

Szellemi tulajdon védelme: A tartalomkészítők jogainak védelme, akik munkáját gyakran ellenszolgáltatás nélkül hasznosítják az AI-modellek képzésében.

Kollektív tárgyalás: Lehetővé teszi a médiavállalatok számára, hogy kollektív tárgyalásokat folytassanak az AI-modell-fejlesztőkkel a védett szellemi tulajdon használatáról.

A mesterséges intelligencia által generált tartalom azonosítása: A mesterséges intelligencia által generált kimenetek és interakciók egyértelmű, konkrét és következetes címkézése.

Félretájékoztatás ellenőrzése: Intézkedések végrehajtása az elfogultság, a félretájékoztatás és az AI-szolgáltatásokkal való visszaélés korlátozására.

Aggályok és kockázatok

A levél részletezi a lehetséges veszélyeket, ha a szabályokat nem vezetik be azonnal. Ide tartozik a médiába vetett közbizalom eróziója, a szellemi tulajdonjogok megsértése és a hagyományos média üzleti modellek aláásása.

A generatív mesterséges intelligencia modellek képesek szintetikus tartalom előállítására és terjesztésére korábban nem látott méretekben, ami potenciálisan a tények torzulásához és torzítások terjedéséhez vezethet. A levél emellett kiemeli a médiavállalatokra gyakorolt ​​pénzügyi hatásokat, amelyek tartalmukat forrásmegjelölés vagy díjazás nélkül terjeszthetik, ami veszélyezteti az iparág fenntarthatóságát.

Felhívás globális szabványokért

Az aláíró felek nemcsak azonnali szabályozási és iparági fellépést kérnek, hanem támogatásukat fejezik ki a mesterséges intelligencia fejlesztésére és telepítésére vonatkozó következetes globális szabványok mellett. A levél elismeri a generatív mesterséges intelligencia technológia lehetséges előnyeit, ugyanakkor hangsúlyozza a felelős növekedés szükségességét a demokratikus értékek és a média sokszínűségének védelme érdekében.

Bár a levél üdvözli a mesterséges intelligencia közösségén és a különböző kormányokon belül az ezen aggodalmak kezelésére tett erőfeszítéseket, a párbeszéd előmozdítására és a szabályozás előmozdítására irányuló közös felhívást. Az aláíró felek kifejezik azon vágyukat, hogy részesei legyenek a megoldásnak, biztosítva, hogy az AI-alkalmazások továbbra is virágozzanak, miközben tiszteletben tartják a médiavállalatok és az egyes újságírók jogait.

Az Egyesült Államok kormányának legújabb kezdeményezései a mesterséges intelligencia szabályozásában

A mesterséges intelligencia szabályozásával kapcsolatos globális aggodalmakra, amelyek magukban foglalják a magánélet védelmét, a biztonságot, a szerzői jogokat és a visszaéléseket, az Egyesült Államok kormányzati szervei a közelmúltban kezdeményezték.

13. július 2023-án az Egyesült Államok Szövetségi Kereskedelmi Bizottsága (FTC) alapos vizsgálatba kezdett ellenőrizze a ChatGPT-be a fogyasztóvédelmi aggályok miatt. Az OpenAI, a ChatGPT mögött álló vállalat 20 oldalas iratkérést kapott az FTC-től, amely különösen azt vizsgálja, hogy az OpenAI mesterséges intelligencia modellek kezelése tisztességtelen vagy félrevezető volt-e, esetleg kárt okozott-e az emberek hírnevében.

26. július 2023-án a SEC javasolt új szabályok a prediktív adatelemzést és mesterséges intelligenciát alkalmazó befektetési tanácsadókból és brókerkereskedőkből eredő esetleges összeférhetetlenségek megelőzésére. A SEC elnöke, Gary Gensler van még kifejezve attól tartanak, hogy a mesterséges intelligencia a következő pénzügyi válsághoz vezethet.

Képforrás: Shutterstock

Időbélyeg:

Még több Blockchain News