Az Egyesült Államokban, Nagy-Britanniában és más országokban a tinta „beépített biztonságos” AI irányelvei

Az Egyesült Államokban, Nagy-Britanniában és más országokban a tinta „beépített biztonságos” AI irányelvei

Forrás csomópont: 2979839

Az Egyesült Államok, az Egyesült Királyság, Ausztrália és 15 másik ország globális irányelveket adott ki, amelyek segítenek megvédeni a mesterséges intelligencia-modelleket a manipulációtól, és arra ösztönzik a vállalatokat, hogy tegyék biztonságossá modelljeit.

November 26-án a 18 ország 20 oldalas kiadványt adott ki dokumentum felvázolják, hogy az AI-cégeknek miként kell kezelniük kiberbiztonságukat AI-modellek fejlesztése vagy használata során, mivel azt állították, hogy „a biztonság gyakran másodlagos szempont lehet” a felgyorsult iparágban.

Az irányelvek többnyire általános ajánlásokat tartalmaztak, mint például a mesterséges intelligencia-modell infrastruktúrájának szoros láncolatának fenntartása, a modellek kibocsátása előtti és utáni manipulációinak megfigyelése, valamint a személyzet kiberbiztonsági kockázatokkal kapcsolatos képzése.

Nem említettek bizonyos vitás kérdéseket a mesterséges intelligencia terén, beleértve azt sem, hogy milyen lehetséges vezérlőelemek kellenek a használat körül képgeneráló modellek és mélyhamisítványok vagy az adatgyűjtési módszerek és a képzési modellekben való felhasználás – ez a probléma látható több mesterségesintelligencia-cég beperelte a szerzői jogok megsértése miatti keresetekről.

Alejandro Mayorkas, az Egyesült Államok belbiztonsági minisztere: „A mesterséges intelligencia fejlesztésének inflexiós pontján vagyunk, amely korunk legkövetkezményesebb technológiája lehet. mondott nyilatkozatban. „A kiberbiztonság kulcsfontosságú a biztonságos, biztonságos és megbízható AI-rendszerek felépítésében.”

Kapcsolódó: Az EU technológiai koalíciója a mesterséges intelligencia túlszabályozására figyelmeztet az EU AI-törvény véglegesítése előtt

Az iránymutatások más kormányzati kezdeményezéseket követnek, amelyek hatással vannak az AI-ra, beleértve a kormányokat és az AI-cégeket találkozó az AI biztonsági csúcstalálkozón a hónap elején Londonban, hogy koordinálják a mesterséges intelligencia fejlesztéséről szóló megállapodást.

Eközben az Európai Unió az részletek kivonatolása A világűrt felügyelő mesterségesintelligencia-törvényben foglaltaknak megfelelően, Joe Biden amerikai elnök pedig októberben végrehajtó rendeletet adott ki, amely szabványokat határoz meg a mesterséges intelligencia biztonságára és biztonságára vonatkozóan – bár mindkettő látták a visszaszorítást az AI-ipar részéről, azt állítva, hogy elfojthatják az innovációt.

Az új „beépített biztonságos” irányelvek további aláírói közé tartozik Kanada, Franciaország, Németország, Izrael, Olaszország, Japán, Új-Zéland, Nigéria, Norvégia, Dél-Korea és Szingapúr. Az AI cégek, köztük az OpenAI, a Microsoft, a Google, az Anthropic és a Scale AI szintén hozzájárultak az irányelvek kidolgozásához.

Magazin: AI Eye: A mesterséges intelligencia valódi felhasználása a titkosításban, a Google GPT-4 riválisa, az AI előnye a rossz alkalmazottak számára

Időbélyeg:

Még több Cointelegraph