Les États-Unis, la Grande-Bretagne et d’autres pays signent des lignes directrices sur l’IA « sécurisées dès la conception »

Les États-Unis, la Grande-Bretagne et d’autres pays signent des lignes directrices sur l’IA « sécurisées dès la conception »

Nœud source: 2979839

Les États-Unis, le Royaume-Uni, l’Australie et 15 autres pays ont publié des lignes directrices mondiales pour aider à protéger les modèles d’IA contre la falsification, exhortant les entreprises à rendre leurs modèles « sécurisés dès leur conception ».

Le 26 novembre, les 18 pays ont publié un document de 20 pages document décrivant comment les entreprises d'IA devraient gérer leur cybersécurité lors du développement ou de l'utilisation de modèles d'IA, car elles affirment que « la sécurité peut souvent être une considération secondaire » dans un secteur en évolution rapide.

Les lignes directrices consistaient principalement en recommandations générales telles que le maintien d'une surveillance étroite sur l'infrastructure du modèle d'IA, la surveillance de toute falsification des modèles avant et après leur publication et la formation du personnel aux risques de cybersécurité.

Certaines questions controversées dans le domaine de l’IA n’ont pas été mentionnées, notamment les contrôles possibles autour de l’utilisation de modèles générateurs d’images et deep fakes ou les méthodes de collecte de données et leur utilisation dans les modèles de formation - un problème observé plusieurs entreprises d’IA poursuivies sur les réclamations pour violation du droit d'auteur.

"Nous sommes à un point d'inflexion dans le développement de l'intelligence artificielle, qui pourrait bien être la technologie la plus importante de notre époque", a déclaré le secrétaire américain à la Sécurité intérieure, Alejandro Mayorkas. a affirmé Valérie Plante. dans un rapport. « La cybersécurité est essentielle pour créer des systèmes d’IA sûrs, sécurisés et dignes de confiance. »

Connexe: La coalition technologique européenne met en garde contre une réglementation excessive de l’IA avant la finalisation de la loi européenne sur l’IA

Les lignes directrices font suite à d’autres initiatives gouvernementales qui pèsent sur l’IA, notamment les gouvernements et les entreprises d’IA. réunion pour un AI Safety Summit à Londres au début du mois pour coordonner un accord sur le développement de l'IA.

Pendant ce temps, l'Union européenne est hacher les détails de sa loi sur l'IA qui supervisera l'espace et le président américain Joe Biden a publié en octobre un décret fixant des normes pour la sûreté et la sécurité de l'IA - bien que les deux j'ai vu des représailles de l’industrie de l’IA prétendant qu’ils pourraient étouffer l’innovation.

Parmi les autres cosignataires des nouvelles directives « sécurisé dès la conception » figurent le Canada, la France, l'Allemagne, Israël, l'Italie, le Japon, la Nouvelle-Zélande, le Nigeria, la Norvège, la Corée du Sud et Singapour. Des sociétés d'IA, notamment OpenAI, Microsoft, Google, Anthropic et Scale AI, ont également contribué à l'élaboration des lignes directrices.

Magazine: AI Eye : utilisations réelles de l'IA dans la cryptographie, rival du GPT-4 de Google, avantage de l'IA pour les mauvais employés

Horodatage:

Plus de Cointelegraph