O impacto da IA ​​na segurança cibernética - DATAVERSITY

O impacto da IA ​​na segurança cibernética – DATAVERSITY

Nó Fonte: 2995031

A inteligência artificial tem atraído muita atenção dos meios de comunicação social para tudo, desde a tomada de empregos às pessoas até à disseminação de desinformação e à violação de direitos de autor, mas o impacto da IA ​​na segurança cibernética pode ser a sua questão imediata mais premente.

O impacto da IA ​​nas equipes de segurança é previsivelmente duplo. Quando aplicado corretamente, pode ser um poderoso multiplicador de forças para os profissionais de segurança cibernética, através de meios como o processamento de grandes quantidades de dados à velocidade do computador, a localização de ligações entre pontos de dados distantes, a descoberta de padrões, a deteção de ataques e a previsão de progressões de ataques. Mas, como os profissionais de segurança bem sabem, a IA nem sempre é aplicada de forma adequada. Intensifica o já imponente conjunto de ameaças à segurança cibernética, desde comprometimento de identidade e phishing até ransomware e ataques à cadeia de fornecimento.

Os CISOs e as equipas de segurança precisam de compreender as vantagens e os riscos da IA, o que requer um reequilíbrio substancial de competências. Os engenheiros de segurança, por exemplo, devem compreender os conceitos básicos de aprendizado de máquina, qualidade e preconceitos do modelo, níveis de confiança e métricas de desempenho. Cientistas de dados precisam aprender fundamentos de segurança cibernética, padrões de ataque e modelagem de risco para contribuir efetivamente com equipes híbridas.

Os modelos de IA precisam de treinamento adequado para auxiliar na segurança cibernética

A tarefa de lidar com a proliferação de ameaças alimentadas por IA agrava os desafios para os CISOs e para as equipes de segurança já sobrecarregadas, que devem não apenas lidar com novas campanhas sofisticadas de phishing elaboradas por um modelo de linguagem grande (LLM) como o ChatGPT, mas ainda precisa se preocupar com um servidor sem patch na DMZ que pode representar uma ameaça maior.

A IA, por outro lado, pode economizar muito tempo e esforço das equipes na avaliação de riscos e na detecção de ameaças. Também pode ajudar na resposta – embora isso deva ser feito com cuidado. Um modelo de IA pode orientar os analistas para aprender como eles fazem a triagem de incidentes e, em seguida, executar essas tarefas por conta própria ou priorizar casos para revisão humana. Mas as equipes precisam ter certeza de que as pessoas certas estão ministrando as instruções de IA.

Anos atrás, por exemplo, realizei um experimento em que 10 analistas de diversos níveis de habilidade revisaram 100 casos de suspeita de exfiltração de dados. Dois analistas seniores identificaram corretamente todos os pontos positivos e negativos, três analistas menos experientes erraram em quase todos os casos e os cinco restantes obtiveram resultados aleatórios. Não importa quão bom seja um modelo de IA, seria inútil se fosse treinado por uma equipe como essa.

A IA é como um carro potente: pode fazer maravilhas nas mãos de um motorista experiente ou muitos danos nas mãos de um inexperiente. Essa é uma área onde a escassez de competências pode afetar o impacto da IA ​​na segurança cibernética.

Como os CTOs podem escolher uma solução de IA?

Dado o entusiasmo sobre a IA, as organizações podem ficar tentadas a simplesmente apressar-se a adotar a tecnologia. Mas, além de treinar adequadamente a IA, há questões que os CTOs precisam responder, começando pelas questões de adequação:

  • A IA se enquadra no ecossistema da organização? Isso inclui a plataforma, componentes externos, como banco de dados e mecanismo de pesquisa, software e licenciamento gratuitos e de código aberto, e também a segurança e certificações da organização, backup e failover. 
  • A IA se adapta ao tamanho da empresa?
  • Quais conjuntos de habilidades são necessários para a equipe de segurança manter e operar a IA?

Os CTOs também devem abordar questões específicas para uma solução de IA: 

  • Quais das funções reivindicadas de um produto específico de IA estão alinhadas com seus objetivos de negócios?
  • A mesma funcionalidade pode ser alcançada usando ferramentas existentes?
  • A solução realmente detecta ameaças?

Esta última pergunta pode ser difícil de responder porque os eventos maliciosos de cibersegurança ocorrem numa escala minúscula em comparação com atividades legítimas. Num estudo de prova de conceito limitado que utiliza dados em tempo real, uma ferramenta de IA pode não detetar nada se não existir nada. Os fornecedores costumam usar dados sintéticos ou ataques Red Team para demonstrar a capacidade de uma IA, mas permanece a questão se está demonstrando a verdadeira capacidade de detecção ou simplesmente validando a suposição sob a qual os indicadores foram gerados.

É difícil determinar por que uma IA pensa que algo foi um ataque porque os algoritmos de IA são essencialmente caixas pretas, ainda incapazes de explicar como chegaram a uma determinada conclusão – como demonstrado pelo estudo da DARPA IA Explicável (XAI) .

Mitigando os riscos da IA

Uma solução de IA é tão boa quanto os dados com os quais trabalha. Para garantir o comportamento ético, os modelos de IA devem ser treinados em dados éticos, e não na recolha em massa de lixo que existe na World Wide Web. E qualquer cientista de dados sabe que produzir um conjunto de dados bem equilibrado, imparcial e limpo para treinar um modelo é uma tarefa difícil, tediosa e pouco glamorosa. 

Por causa disso, os modelos de IA, incluindo os LLMs, podem eventualmente ser gerenciados de maneira semelhante à forma como serviriam melhor à segurança cibernética - como modelos especializados (em oposição aos modelos de uso geral “oniscientes”) que atendem campos específicos e são treinados em dados com curadoria de especialistas no assunto na área. 

Tentar censurar a IA em resposta ao clamor mediático do momento não resolverá o problema. Somente um trabalho diligente na criação de conjuntos de dados confiáveis ​​pode fazer isso. Até que as empresas de IA – e os VCs que as apoiam – aceitem esta abordagem como a única forma de fornecer conteúdo respeitável, o lixo entra/sai lixo. 

O desenvolvimento da IA ​​deveria ser mais regulamentado?

O desenvolvimento da IA ​​gerou muitos preocupações legítimas sobre tudo, desde deepfakes e clonagem de voz até phishing/vishing/smishing avançados, robôs assassinos e até mesmo a possibilidade de um Apocalipse de IA. Eliezer Yudkowsky, um dos nomes mais respeitados em Inteligência Artificial Geral (AGI), lançou recentemente um apelo para “desligue tudo”, dizendo que uma proposta de moratória de seis meses não era suficiente.

Mas não se pode impedir o desenvolvimento de novas tecnologias, fato que é evidente desde os tempos dos alquimistas nos tempos antigos. Então, de um ponto de vista prático, o que pode ser feito para evitar que a IA cresça fora de controlo e para mitigar o risco de um evento de extinção provocado pela IA? A resposta é muitos dos mesmos conjuntos de controles empregados em outros campos que têm potencial para armamento: 

  • Pesquisa transparente. O desenvolvimento de IA de código aberto não só impulsiona a inovação e democratiza o acesso, mas também traz muitos benefícios de segurança, desde a detecção de falhas de segurança e linhas de desenvolvimento perigosas até a criação de defesas contra possíveis abusos. Até agora, as grandes tecnologias apoiam os esforços de código aberto, mas isso pode mudar se a concorrência se intensificar. Pode haver necessidade de medidas legislativas para manter o acesso ao código aberto.
  • Contenha experimentação. Todos os experimentos com IA suficientemente avançada precisam ser colocados em sandbox, com procedimentos de segurança e proteção estritamente aplicados. Estas não são medidas infalíveis, mas podem fazer a diferença entre uma perturbação local e uma catástrofe global.
  • Mate os interruptores. Tal como os antídotos e as vacinas, as contramedidas contra variantes descontroladas ou destrutivas da IA ​​têm de ser parte integrante do processo de desenvolvimento. Até mesmo os criadores de ransomware incorporam um kill switch. 
  • Regular como ele é usado. A IA é uma tecnologia que pode ser aplicada para o bem da humanidade ou abusada com consequências desastrosas. A regulamentação de suas aplicações é tarefa dos governos mundiais, e a urgência é muito maior do que a necessidade de censurar a próxima versão do ChatGPT. O Lei de IA da UE é uma base bem definida e concisa que visa prevenir o uso indevido sem sufocar a inovação. Os EUA Declaração de Direitos da IA e a recente Ordem Executiva sobre IA são menos específicas e parecem centrar-se mais no politicamente correcto do que nas questões de desenvolvimento, formação e contenção de modelos adequados. Essas medidas são apenas um começo, no entanto. 

Conclusão

A IA está chegando à segurança cibernética, quer os CISOs queiram ou não, e trará benefícios e riscos substanciais para o campo da segurança cibernética, especialmente com a eventual chegada de criptografia pós-quântica. No mínimo, os CISOs devem investir tempo para compreender os benefícios das ferramentas promovidas pela IA e as ameaças dos ataques conduzidos pela IA. O facto de investirem dinheiro em IA depende em grande parte dos benefícios tangíveis dos produtos de segurança de IA, das consequências divulgadas dos ataques de IA e, até certo ponto, da sua experiência pessoal com o ChatGPT. 

O desafio que os CISOs enfrentam é como implementar a IA de forma eficaz e responsável.

Carimbo de hora:

Mais de DATAVERSIDADE