Usando seus próprios dados para mitigar problemas de privacidade de IA e melhorar a confiança na IA | Notícias e relatórios sobre IoT Now

Usando seus próprios dados para mitigar problemas de privacidade de IA e melhorar a confiança na IA | Notícias e relatórios sobre IoT Now

Nó Fonte: 3068504

Com modelos de IA capazes de detectar padrões e fazer previsões que seriam difíceis ou impossíveis de serem feitas manualmente por um ser humano, as aplicações potenciais para ferramentas como ChatGPT nos setores de saúde, finanças e atendimento ao cliente são enormes.

No entanto, embora as prioridades das organizações em torno da IA ​​devam ser avaliar as oportunidades que as ferramentas generativas de IA oferecem aos seus negócios em termos de vantagem competitiva, o tema da privacidade de dados tornou-se uma preocupação primordial. A gestão da utilização responsável da IA, com o seu potencial para produzir resultados tendenciosos, necessita de uma análise cuidadosa. 

Embora os benefícios potenciais destes modelos sejam imensos, as organizações devem examinar cuidadosamente as considerações éticas e práticas para utilizar a IA de forma responsável, com proteção de dados de IA segura e protegida. Ao otimizar a experiência geral do usuário com o ChatGPT, as organizações podem melhorar seus Confiabilidade da IA

Preocupações com a privacidade da IA 

Tal como muitas outras tecnologias de ponta, a IA sem dúvida levantará algumas questões e desafios para aqueles que procuram implementá-la nas suas pilhas de tecnologia. Na verdade, uma pesquisa realizada Progresso revelou que 65% das empresas e executivos de TI acreditam atualmente que há preconceito de dados em suas respectivas organizações e 78% dizem que isso piorará à medida que a adoção da IA ​​aumentar. 

Provavelmente, a maior preocupação com a privacidade é o uso de dados privados de empresas em conjunto com plataformas de IA internas e públicas. Por exemplo, pode ser uma organização de saúde que armazena dados confidenciais de pacientes ou dados de folha de pagamento de funcionários de uma grande empresa. 

Para que a IA seja mais eficaz, é necessária uma amostra grande de dados públicos e/ou privados de alta qualidade e as organizações com acesso a dados confidenciais, como empresas de saúde com registos médicos, têm uma vantagem competitiva ao criar soluções baseadas em IA. Acima de tudo, estas organizações com dados tão sensíveis devem considerar os requisitos éticos e regulamentares que envolvem privacidade de dados, justiça, explicabilidade, transparência, robustez e acesso.  

Os modelos de linguagem grande (LLM) são modelos de IA poderosos treinados em dados de texto para executar várias tarefas de processamento de linguagem natural, incluindo tradução de idiomas, resposta a perguntas, resumo e análise de sentimentos. Esses modelos são projetados para analisar a linguagem de uma forma que imite a inteligência humana, permitindo processar, compreender e gerar a fala humana. 

Riscos para dados privados ao usar IA 

No entanto, estes modelos complexos trazem consigo desafios éticos e técnicos que podem representar riscos para a precisão dos dados, violação de direitos de autor e potenciais casos de difamação. Alguns dos desafios para usar IAs de chatbot de maneira eficaz incluem: 

  • Alucinações – Na IA, uma alucinação ocorre quando ela relata respostas cheias de erros ao usuário e isso é muito comum. A forma como os LLMs prevêem a próxima palavra faz com que as respostas pareçam plausíveis, embora as informações possam ser incompletas ou falsas. Por exemplo, se um usuário solicitar a um chatbot a receita média de um concorrente, esses números podem estar muito distantes.  
  • Viés de dados – LLMs também podem exibir vieses, o que significa que podem produzir resultados que refletem os preconceitos dos dados de treinamento, em vez da realidade objetiva. Por exemplo, um modelo linguístico treinado num conjunto de dados predominantemente masculino pode produzir resultados tendenciosos em relação a tópicos de género. 
  • Raciocínio/Compreensão – Os LLMs também podem precisar de ajuda com tarefas que exigem raciocínio mais profundo ou compreensão de conceitos complexos. Um LLM pode ser treinado para responder a perguntas que exigem uma compreensão diferenciada da cultura ou da história. É possível que os modelos perpetuem estereótipos ou forneçam informações erradas se não forem treinados e monitorizados de forma eficaz. 

Além desses, outros riscos podem incluir cortes de dados, que ocorre quando a memória de um modelo tende a ficar desatualizada. Outro possível desafio é entender como o LLM gerou sua resposta, já que a IA não é treinada de forma eficaz para mostrar o raciocínio usado para construir uma resposta. 

Usando conhecimento semântico para fornecer dados confiáveis 

As equipes técnicas estão procurando assistência no uso de dados privados para ChatGPT. Apesar do aumento na precisão e eficiência, os LLMs, sem falar nos seus usuários, ainda podem precisar de ajuda com respostas. Especialmente porque os dados podem carecer de contexto e significado. Uma solução de gerenciamento de conhecimento de IA forte, segura, transparente e governada é a resposta. Com uma plataforma de dados semânticos, os usuários podem aumentar a precisão e a eficiência ao mesmo tempo em que introduzem governança.  

Ao obter uma resposta que é uma combinação da resposta do ChatGPT validada com conhecimento semântico de uma plataforma de dados semânticos, os resultados combinados permitirão que LLMs e usuários acessem e verifiquem facilmente os resultados em relação ao conteúdo de origem e ao conhecimento capturado das PME. 

Isso permite que a ferramenta de IA armazene e consulte dados estruturados e não estruturados, bem como capture conteúdo de especialistas no assunto (SME) por meio de sua GUI intuitiva. Ao extrair fatos encontrados nos dados e marcar os dados privados com conhecimento semântico, as perguntas ou entradas do usuário e respostas específicas do ChatGPT também podem ser marcadas com esse conhecimento.  

A proteção de dados confidenciais pode desbloquear o verdadeiro potencial da IA 

Tal como acontece com todas as tecnologias, a proteção contra entradas ou situações inesperadas é ainda mais importante com os LLMs. Ao abordar com sucesso estes desafios, a fiabilidade das nossas soluções aumentará juntamente com a satisfação do utilizador, levando, em última análise, ao sucesso da solução. 

Como primeiro passo na exploração da utilização da IA ​​nas suas organizações, os profissionais de TI e de segurança devem procurar formas de proteger dados sensíveis e, ao mesmo tempo, aproveitá-los para otimizar os resultados para a sua organização e para os seus clientes. 

Matthieu Jonglez, vice-presidente de tecnologia - aplicativos e plataforma de dados da Progress.Matthieu Jonglez, vice-presidente de tecnologia - aplicativos e plataforma de dados da Progress.

Artigo de Matthieu Jonglez, vice-presidente de tecnologia – plataforma de aplicativos e dados da ProgressoWL.

Comente este artigo abaixo ou via X: @IoTNow_

Carimbo de hora:

Mais de IoT agora