Le chef de la cybersécurité du Canada met en garde contre les vidéos générées par l’IA qui menacent les élections

Le chef de la cybersécurité du Canada met en garde contre les vidéos générées par l’IA qui menacent les élections

Nœud source: 3051446

Penka Christovska


Penka Christovska

Publié le: 8 janvier 2024

Le responsable canadien de la cybersécurité met en garde contre les dangers que représentent les fausses vidéos générées par l'IA pour les prochaines élections.

Sami Khoury, directeur du Centre canadien pour la cybersécurité (CCCS), affirme que la technologie de l'IA utilisée pour créer de fausses vidéos se développe à un rythme beaucoup plus rapide que le développement d'outils de vérification visant à détecter l'utilisation de cette technologie.

Cela signifie essentiellement que le Canada (ou tout autre pays) n’a peut-être pas les moyens de détecter avec succès toutes les fausses vidéos et audios d’IA que de mauvais acteurs pourraient utiliser pour diffuser de la désinformation liée aux élections à venir.

"L'IA peut désormais être utilisée pour presque usurper l'identité de ma voix", a déclaré Khoury au National Post. « C’est la prochaine évolution. Maintenant, vous pouvez prendre un extrait de ma voix, 30 secondes, une minute, et lui faire dire quelque chose de complètement opposé à mon message et ce sera très authentique.

« Cela peut être fait assez facilement en utilisant des outils en ligne », a-t-il poursuivi. « Et puis vous évoluez un peu plus loin et vous vous lancez dans les vidéos deepfake. La technologie évolue dans cette direction. On ne sait pas encore comment s’authentifier… ou se désauthentifier. Comment puis-je dire que ce n’est pas ma voix, ou comment puis-je authentifier qu’un message vient véritablement de moi ? »

À la lumière du rapport sur les cybermenaces contre le processus démocratique du Canada, selon lequel les opposants géopolitiques du Canada pourraient utiliser l'IA pour créer des vidéos et des images « deepfakes », Khoury a également souligné les tentatives de phishing de plus en plus convaincantes : les mauvais acteurs disposent désormais de l'IA pour les aider à perfectionner leurs attaques. .

« L’époque où un e-mail de phishing… contenait des fautes de frappe, des signes de ponctuation amusants et vous vendait quelque chose de trop beau pour être vrai est révolue depuis longtemps », a-t-il déclaré.

De plus, c’est beaucoup plus simple que de pirater une organisation.

"Les entreprises investissent pour rendre leurs produits un peu plus sécurisés", a expliqué Khoury. « Ainsi, le seul moyen souvent de contourner cette coque dure, ce périmètre de sécurité, est… de vous catapulter au milieu d’un réseau. Le phishing est généralement un moyen de le faire.

Concernant les attaques de ransomwares, Khoury a déclaré que le Centre de la sécurité des communications a lancé un programme pour avertir les agences gouvernementales et d'autres organisations lorsqu'elles détectent une attaque potentielle de ransomware.

« Nous avons mis au point une technique pour détecter certains de ces pas de danse avec suffisamment de confiance maintenant pour pouvoir émettre une alerte automatisée pour dire… que nous avons capté certains de ces signaux, qu'il y a une activité sur votre infrastructure. ce sont des étapes vers un incident potentiel de ransomware », a-t-il déclaré.

Jusqu’à présent, l’organisation a émis environ 500 notifications de ce type.

« Dans de nombreux cas, les commentaires que nous entendons indiquent que cela a fait une différence et qu’ils ont réussi à isoler le système et à empêcher le déploiement du ransomware », a déclaré Khoury.

Horodatage:

Plus de Détectives de sécurité