Szef kanadyjskiego bezpieczeństwa cybernetycznego ostrzega przed filmami generowanymi przez sztuczną inteligencję, które zagrażają wyborom

Szef kanadyjskiego bezpieczeństwa cybernetycznego ostrzega przed filmami generowanymi przez sztuczną inteligencję, które zagrażają wyborom

Węzeł źródłowy: 3051446

Penka Christowska


Penka Christowska

Opublikowany: 8 stycznia 2024 r.

Kanadyjski szef ds. cyberbezpieczeństwa ostrzega przed zagrożeniami, jakie dla nadchodzących wyborów stanowią fałszywe filmy generowane przez sztuczną inteligencję.

Sami Khoury, szef Kanadyjskiego Centrum Cyberbezpieczeństwa (CCCS), twierdzi, że technologia sztucznej inteligencji wykorzystywana do tworzenia fałszywych filmów rozwija się w znacznie szybszym tempie niż rozwój narzędzi weryfikacyjnych mających na celu wykrycie użycia takiej technologii.

Zasadniczo oznacza to, że Kanada (ani jakikolwiek inny kraj) może nie mieć środków, aby skutecznie wychwytywać wszystkie fałszywe filmy i nagrania audio oparte na sztucznej inteligencji, które złe podmioty mogłyby wykorzystać do szerzenia dezinformacji związanej z nadchodzącymi wyborami.

„Sztuczną inteligencję można teraz wykorzystać do niemal podszywania się pod mój głos” – powiedziała Khoury National Post. „To następna ewolucja. Teraz możesz wziąć fragment mojego głosu, 30 sekund i jedną minutę, i sprawić, by mówił coś zupełnie przeciwnego do mojego przesłania, a to będzie bardzo autentyczne”.

„Można tego dość łatwo dokonać za pomocą narzędzi internetowych” – kontynuował. „A potem ewoluujesz trochę dalej i dojdziesz do filmów typu deepfake. Technologia idzie w tym kierunku. Nie wiemy jeszcze, jak uwierzytelnić… lub cofnąć uwierzytelnienie. Jak powiedzieć, że to nie jest mój głos lub jak potwierdzić, że wiadomość naprawdę pochodzi ode mnie?”

W świetle raportu dotyczącego cyberzagrożeń dla kanadyjskiego procesu demokratycznego, w którym stwierdzono, że geopolityczni przeciwnicy Kanady mogą wykorzystywać sztuczną inteligencję do tworzenia „głęboko fałszywych” filmów i obrazów, Khoury wskazała również na coraz bardziej przekonujące próby phishingu – nieuczciwi przestępcy mają teraz sztuczną inteligencję, która pomaga im udoskonalać swoje ataki .

„Już dawno minęły czasy, gdy e-mail phishingowy… zawierał literówki, zabawną interpunkcję i sprzedawał coś, co jest zbyt piękne, aby mogło być prawdziwe” – powiedział.

Poza tym jest to znacznie łatwiejsze niż włamanie się do organizacji.

„Firmy inwestują w zwiększanie bezpieczeństwa produktów” – wyjaśnił Khoury. „Tak więc często jedynym sposobem na ominięcie tej twardej powłoki, zabezpieczeń obwodowych, jest… katapultowanie się w środek sieci. Wyłudzanie informacji jest zwykle na to skuteczną metodą”.

Jeśli chodzi o ataki oprogramowania typu ransomware, Khoury powiedział, że Communications Security Facilities uruchomiło program ostrzegający agencje rządowe i inne organizacje w przypadku wykrycia potencjalnego ataku oprogramowania typu ransomware.

„Opracowaliśmy technikę wykrywania niektórych kroków w tańcu z wystarczającą pewnością, że możemy teraz wysłać automatyczny alert informujący… że wykryliśmy niektóre z tych sygnałów, w Twojej infrastrukturze dzieje się pewna aktywność to kroki prowadzące do potencjalnego incydentu związanego z oprogramowaniem ransomware” – powiedział.

Do tej pory organizacja wydała około 500 takich powiadomień.

„W wielu przypadkach z opinii, które słyszymy, wynika, że ​​zrobiło to różnicę i udało się odizolować system i powstrzymać instalację oprogramowania ransomware” – powiedział Khoury.

Znak czasu:

Więcej z Detektywi bezpieczeństwa