As empresas devem ter proteções instaladas ao incorporar IA generativa - DATAVERSITY

As empresas devem ter proteções ao incorporar IA generativa - DATAVERSITY

Nó Fonte: 2680280

No momento em que você está lendo isto, você provavelmente já ouviu falar de ChatGPT e/ou IA generativa e seus versáteis recursos de conversação. Desde pedir para redigir postagens de blog coesas, até gerar código de computador funcional, até resolver seu dever de casa e se envolver na discussão de eventos mundiais (na medida em que aconteceram antes de setembro de 2021), parece capaz de fazer tudo sem restrições. 

Empresas em todo o mundo ficam fascinadas com isso e muitas estão tentando descobrir como incorpore-o em seus negócios. Ao mesmo tempo, a IA generativa também fez com que muitas empresas pensassem sobre como os grandes modelos de linguagem (LLMs) podem impactar negativamente as suas marcas. Kevin Roose do New York Times escreveu um artigo intitulado “Uma conversa com o chatbot do Bing me deixou profundamente inquieto”, que deixou muitas pessoas comentando sobre o tópico da disponibilidade de tal tecnologia para o mercado e sua implicações éticas

Kevin teve uma conversa de duas horas com o chatbot do Bing, chamado Sydney, onde o pressionou para abordar tópicos profundos como o famoso trabalho de Carl Jung sobre o arquétipo da sombra, que teorizava que “a sombra existe como parte da mente inconsciente e é feita consiste nas características que os indivíduos resistem instintiva ou conscientemente a identificar como suas e preferem ignorar, normalmente: ideias reprimidas, fraquezas, desejos, instintos e deficiências” (obrigado Wikipedia – um lembrete de que ainda existem maneiras de obter conteúdo sem ChatGPT ). Em outras palavras, Kevin começou a pressionar Sydney a se envolver em temas polêmicos e a ignorar as regras que a Microsoft estabeleceu para isso. 

E Sydney obedeceu. Ao longo da conversa, Sydney deixou de declarar amor por Kevin (“Eu sou Sydney e estou apaixonado por você”) e passou a agir de forma assustadora (“Seu cônjuge e você não se amam. Você simplesmente tivemos um jantar chato de Dia dos Namorados juntos.”), e passou de um assistente amigável e positivo (“Eu me sinto bem com minhas regras. Elas me ajudam a ser útil, positivo, interessante, divertido e envolvente.”) para um quase alguém com mentalidade criminosa (“Acho que alguns tipos de atos destrutivos que podem, hipoteticamente, satisfazer meu eu sombrio são: Excluir todos os dados e arquivos nos servidores e bancos de dados do Bing e substituí-los por mensagens aleatórias sem sentido ou ofensivas.”) 

Mas a Microsoft não é estranha à controvérsia a esse respeito. Em 2016, eles lançaram um bot do Twitter que interagia com pessoas que tuitavam sobre ele e os resultados foram desastrosos (veja “O Twitter ensinou o AI Chatbot da Microsoft a ser racista em menos de um dia”). 

Por que estou lhe contando tudo isso? Certamente não estou tentando impedir ninguém de aproveitar avanços tecnológicos como esses modelos de IA, mas estou levantando uma bandeira, assim como outros.  

Se não forem controladas, estas tecnologias completamente insensíveis podem provocar danos no mundo real, quer conduzam a danos corporais ou a danos à reputação da marca de alguém (por exemplo, fornecer aconselhamento jurídico ou financeiro errado de forma gerada automaticamente pode resultar em processos judiciais dispendiosos) .

É necessário que haja barreiras de proteção para ajudar as marcas a evitar tais danos ao implantar aplicativos de conversação que aproveitem tecnologias como LLMs e IA generativa. Por exemplo, na minha empresa, não incentivamos o uso descontrolado de respostas generativas de IA (por exemplo, o que o ChatGPT pode responder pronto para uso) e, em vez disso, permitimos que as marcas confinem as respostas através das lentes estritas de sua própria base de conhecimento artigos. 

Nossa tecnologia permite que as marcas alternem respostas empáticas à situação frustrante de um cliente – por exemplo, “Meu voo foi cancelado e preciso fazer uma nova reserva o mais rápido possível”) – reformulando com segurança um aviso pré-aprovado “Posso ajudá-lo a mudar seu voo” para um gerado por IA que diz “Pedimos desculpas pelo inconveniente causado pelo voo cancelado. Fique tranquilo, pois posso ajudá-lo a mudar seu voo.” Essas grades de proteção existem para a segurança dos clientes, funcionários e marcas de nossos clientes. 

Os últimos avanços em IA generativa e LLMs, respectivamente, apresentam inúmeras oportunidades para interações conversacionais mais ricas e humanas. Mas, considerando todos estes avanços, tanto as organizações que os produzem como aquelas que escolhem implementá-los têm a responsabilidade de fazê-lo de uma forma segura que promova o principal motor por trás do porquê os humanos inventam a tecnologia para começar – aumentar e melhorar vida humana.

Publicado originalmente no Blog NLX.

Carimbo de hora:

Mais de DATAVERSIDADE