De VS, Groot-Brittannië en andere landen schrijven ‘secure by design’ AI-richtlijnen op

De VS, Groot-Brittannië en andere landen schrijven ‘secure by design’ AI-richtlijnen op

Bronknooppunt: 2979839

De Verenigde Staten, het Verenigd Koninkrijk, Australië en vijftien andere landen hebben mondiale richtlijnen gepubliceerd om te helpen voorkomen dat er met AI-modellen wordt geknoeid, en dringen er bij bedrijven op aan om hun modellen ‘veilig te maken door hun ontwerp’.

Op 26 november brachten de 18 landen een twintig pagina's tellende publicatie uit document waarin wordt uiteengezet hoe AI-bedrijven met hun cyberbeveiliging moeten omgaan bij het ontwikkelen of gebruiken van AI-modellen, omdat zij beweren dat “beveiliging vaak een secundaire overweging kan zijn” in de snel veranderende industrie.

De richtlijnen bestonden voornamelijk uit algemene aanbevelingen, zoals het strak aan de lijn houden van de infrastructuur van het AI-model, het monitoren op eventuele manipulatie van modellen voor en na de release, en het trainen van personeel op het gebied van cyberveiligheidsrisico's.

Niet vermeld werden bepaalde controversiële kwesties in de AI-ruimte, inclusief de mogelijke controles rond het gebruik ervan beeldgenererende modellen en deepfakes of methoden voor het verzamelen van gegevens en het gebruik ervan in trainingsmodellen – een probleem dat wordt gezien meerdere AI-bedrijven hebben een rechtszaak aangespannen over claims wegens inbreuk op het auteursrecht.

“We bevinden ons op een keerpunt in de ontwikkeling van kunstmatige intelligentie, wat misschien wel de meest consequente technologie van onze tijd is”, zei de Amerikaanse minister van Binnenlandse Veiligheid, Alejandro Mayorkas. zei in een verklaring. “Cyberbeveiliging is de sleutel tot het bouwen van AI-systemen die veilig, beveiligd en betrouwbaar zijn.”

Zie ook: De EU-technologiecoalitie waarschuwt voor overregulering van AI voordat de EU AI Act is afgerond

De richtlijnen volgen andere overheidsinitiatieven die invloed hebben op AI, waaronder overheden en AI-bedrijven bijeenkomst voor een AI Safety Summit eerder deze maand in Londen om een ​​overeenkomst over de ontwikkeling van AI te coördineren.

Intussen is de Europese Unie dat wel details uitwerken van zijn AI-wet die toezicht zal houden op de ruimte en de Amerikaanse president Joe Biden vaardigde in oktober een uitvoerend bevel uit waarin normen werden vastgelegd voor de veiligheid en beveiliging van AI – hoewel beide tegenslag gezien van de AI-industrie die beweert dat ze innovatie kunnen onderdrukken.

Andere mede-ondertekenaars van de nieuwe ‘secure by design’-richtlijnen zijn onder meer Canada, Frankrijk, Duitsland, Israël, Italië, Japan, Nieuw-Zeeland, Nigeria, Noorwegen, Zuid-Korea en Singapore. AI-bedrijven, waaronder OpenAI, Microsoft, Google, Anthropic en Scale AI, hebben ook bijgedragen aan de ontwikkeling van de richtlijnen.

Magazine: AI Eye: Echte toepassingen voor AI in crypto, Google's GPT-4-rivaal, AI-voordeel voor slechte werknemers

Tijdstempel:

Meer van Cointelegraph