Ato de equilíbrio: o valor da experiência humana na era da IA ​​generativa - DATAVERSITY

Ato de equilíbrio: o valor da experiência humana na era da IA ​​generativa – DATAVERSITY

Nó Fonte: 3052574

Os humanos são considerados o elo mais fraco da empresa quando se trata de segurança. Com razão, como mais de 95% dos incidentes de segurança cibernética são causados ​​por erro humano. Os humanos são inconstantes, falíveis e imprevisíveis, o que os torna alvos fáceis para os cibercriminosos que procuram obter acesso aos sistemas das organizações.  

Isso torna nossa dependência de máquinas muito mais importante. Até este ponto, pudemos confiar nas máquinas para operar com código como verdade. Embora possam ser comprometidos através de vulnerabilidades no código ou através de falhas sociais dos seus operadores humanos, os problemas são geralmente resolvidos com uma solução clara. 

No entanto, com a ascensão de IA generativa (GenAI) e grandes modelos de linguagem (LLMs), as organizações agora enfrentam ataques de engenharia social que enganam a IA para fazer coisas que não deveriam fazer. À medida que transferimos mais para a IA, será interessante ver esses novos padrões de ataque se concretizarem.

Diante desse dilema, cabe mais uma vez aos humanos navegar nesse cenário complexo e em evolução da segurança da IA. Isto exige que os CISO comuniquem claramente os benefícios, bem como as deficiências da IA ​​e reconheçam a longa lista de considerações de segurança ligadas aos produtos e capacidades alimentados pela IA. 

A implementação apressada de IA generativa traz novos desafios de segurança cibernética

Para começar, um problema comum quando se trata de GenAI e LLMs é uma ampla dependência de conteúdo gerado por IA. Confiar no conteúdo gerado pela IA sem verificar ou verificar se há informações enganosas ou incorretas, sem intervenção ou supervisão humana, pode levar à propagação de dados errôneos que informam tomadas de decisão inadequadas e à redução do pensamento crítico. Sabe-se que os LLMs alucinam, portanto parte da desinformação pode nem resultar de intenção maliciosa.

Na mesma linha, a quantidade de código inseguro que está a ser introduzida após a evolução da GenAI também se tornará um desafio significativo para os CISOs, se não for antecipado de forma proativa. Os mecanismos de IA são conhecidos por escrever códigos cheios de bugs com vulnerabilidades de segurança. Sem a supervisão humana adequada, o GenAI capacita pessoas sem os fundamentos técnicos adequados para enviar código. Isto leva a um aumento do risco de segurança ao longo do ciclo de vida de desenvolvimento de software para organizações que utilizam estas ferramentas de forma inadequada.

O vazamento de dados é outro problema predominante. Em alguns casos, os invasores podem usar a injeção imediata para extrair informações confidenciais que o modelo de IA aprendeu de outro usuário. Muitas vezes isso pode ser inofensivo, mas o uso malicioso certamente não está excluído. Os malfeitores podem investigar intencionalmente a ferramenta de IA com avisos meticulosamente elaborados, com o objetivo de extrair informações confidenciais que a ferramenta memorizou, levando ao vazamento de informações sensíveis ou confidenciais.

A IA pode aumentar algumas lacunas de segurança cibernética, mas tem potencial significativo para fechar outras

Por último, entende-se que a propagação de GenAI e LLMs irá regredir parte da redução da superfície de ataque da nossa indústria por alguns motivos. Primeiro, a capacidade de gerar código com GenAI reduz o nível de quem pode ser um engenheiro de software, resultando em código mais fraco e padrões de segurança ainda mais fracos. Em segundo lugar, a GenAI requer grandes quantidades de dados, o que significa que a escala e o impacto das violações de dados crescerão exponencialmente. Terceiro, como acontece com qualquer tecnologia emergente, os desenvolvedores podem não estar totalmente conscientes das formas como a sua implementação pode ser explorada ou abusada. 

No entanto, é essencial adotar uma perspectiva equilibrada. Embora a facilitação da geração de código pela Gen AI possa levantar preocupações, ela também traz atributos positivos para o cenário da segurança cibernética. Por exemplo, ele pode identificar com eficácia vulnerabilidades de segurança, como Cross-Site Scripting (XSS) ou injeção de SQL. Esta dupla natureza sublinha a importância de uma compreensão diferenciada. Em vez de considerar a IA apenas prejudicial, enfatiza a relação complementar entre a inteligência artificial e o envolvimento humano na segurança cibernética. Os CISOs devem compreender os riscos associados à GenAI e aos LLMs, ao mesmo tempo que exploram abordagens centradas no ser humano para implementar a GenAI e fortalecer as suas organizações.

Os humanos captam o que a IA deixa para trás

Os CISOs não têm apenas a tarefa de desvendar as complexidades da GenAI. Eles devem preparar um caminho para a sua organização e demonstrar à liderança como a sua organização pode continuar a prosperar num mundo dominado pela GenAI. 

Embora os utilizadores finais sejam frequentemente responsáveis ​​por muitas vulnerabilidades de segurança, não há melhor defesa contra o crime cibernético do que um ser humano bem treinado e preocupado com a segurança. Não importa quais ferramentas de detecção de ameaças uma organização tenha, simplesmente não há como substituir a pessoa por trás da tela quando se trata de testar software. 

As organizações podem ultrapassar os cibercriminosos usando o poder do hackers éticos. Embora alguns hesitem em convidar hackers para a sua rede devido a equívocos desatualizados, estes especialistas em segurança cibernética cumpridores da lei são a melhor opção para enfrentar maus atores – porque, ao contrário da IA, eles podem entrar na cabeça dos ciberataques.

Na verdade, os hackers já estão complementando as ferramentas automatizadas na luta contra os cibercriminosos, com 92% de hackers éticos dizendo que podem encontrar vulnerabilidades que os scanners não conseguem. Ao retirar definitivamente o véu sobre o hacking, os líderes empresariais podem adotar o hacking ético e o apoio humano para alcançar um equilíbrio mais eficaz entre a IA e os especialistas humanos no combate ao crime cibernético moderno. Nosso recente Relatório de segurança desenvolvido por hackers destaca isso, com 91% de nossos clientes afirmando que os hackers fornecem relatórios de vulnerabilidade mais impactantes e valiosos do que IA ou soluções de varredura. À medida que a IA continua a moldar o nosso futuro, a comunidade de hackers éticos continuará empenhada em garantir a sua integração segura.

A combinação da automação com uma rede de hackers altamente qualificados significa que as empresas podem identificar falhas críticas nas aplicações antes que sejam exploradas. Quando as organizações combinam efetivamente ferramentas de segurança automatizadas com hacking ético, elas fecham lacunas na superfície de ataque digital em constante evolução. 

Isso ocorre porque os humanos e a IA podem trabalhar juntos para melhorar a produtividade da equipe de segurança: 

  1. Reconhecimento de superfície de ataque: As organizações modernas podem desenvolver uma infraestrutura de TI extensa e complexa, composta por uma variedade de hardware e software autorizados e não sancionados. O desenvolvimento de um índice completo de ativos de TI, como software e hardware, é importante para reduzir vulnerabilidades, simplificar o gerenciamento de patches e ajudar na conformidade com as exigências do setor. Também ajuda a identificar e analisar os pontos através dos quais um invasor pode atingir uma organização.
  2. Avaliações contínuas: Indo além da segurança pontual, as organizações podem combinar a engenhosidade de especialistas em segurança humana com insights de superfície de ataque em tempo real para realizar testes contínuos do cenário digital. Os testes de penetração contínuos permitem que as equipes de TI visualizem os resultados de simulações constantes que mostram como seria uma violação no ambiente atual e possíveis pontos fracos onde as equipes podem se adaptar em tempo real.
  3. Melhorias de processo: Hackers humanos confiáveis ​​podem fornecer às equipes de segurança informações valiosas sobre vulnerabilidades e ativos para auxiliar nas melhorias de processos.

Conclusão

À medida que a IA generativa continua a evoluir a um ritmo tão rápido, os CISOs devem aproveitar a sua compreensão de como os humanos podem colaborar para melhorar a segurança da IA ​​e obter o apoio do seu conselho e da sua equipa de liderança. Como resultado, as organizações podem ter pessoal e recursos adequados para enfrentar estes desafios de forma eficaz. Encontrar o equilíbrio certo entre a implementação rápida de IA e a segurança abrangente através da colaboração com hackers éticos fortalece o argumento para investir em soluções adequadas baseadas em IA.

Carimbo de hora:

Mais de DATAVERSIDADE