A IA conversacional nos diz o que queremos ouvir – uma mentira de que a Web é confiável e amigável

A IA conversacional nos diz o que queremos ouvir – uma mentira de que a Web é confiável e amigável

Nó Fonte: 1945652

Opinião Há um velho ditado: quando os gigantes lutam, é a grama que sofre. Para nós, os pequenos que estão assistindo, há pouco a fazer a não ser correr para se esconder e pegar a pipoca.

Por duas décadas, a Microsoft e o Google se consideraram fundamentalmente ilegítimos. A Microsoft nunca se recuperou realmente de perder a batalha pela busca, nem do fracasso do Windows Mobile. O Google tinha aspirações de possuir um sistema operacional universal, mas curiosamente não conseguiu alavancar o domínio global do Android além do celular. A batalha deles continua em várias frentes: Bing x Google Search, Azure x Google Cloud e assim por diante.

E em um espetáculo nada edificante de nós-chegamos-aqui-antes-de-você-não-você-não, os dois gigantes da computação têm tentado minar os esforços um do outro para lançar produtos de busca 'conversacionais', baseados em Large Language Modelos (LLM). O Google passou anos refinando o LaMDA - no ano passado, até demitiu um funcionário que se convenceu de que LaMDA possuía senciência - enquanto a Microsoft foi alimentando e regando OpenAI e seu Generative Pre-trained Transformer (GPT) multigeracional.

O Google provavelmente tem mais PhDs em IA trabalhando para ele do que qualquer outro negócio combinado. Durante a metade da última década, ela efetivamente desnudou os programas de pós-graduação em IA em todo o mundo, contratando turmas inteiras, encarregando-as de melhorar a qualidade dos resultados de pesquisa da empresa.

Com esse tipo de inteligência, o Google deveria ser o líder indiscutível em aplicativos de IA voltados para o público. Mas é claro que o Google faz apenas algumas coisas muito bem: pesquisa e segmentação de anúncios. Ambos precisam de muita inteligência, mas estão bem escondidos dos olhos das pessoas reais. Tanto quanto Joe Citizen pode perceber, esses enormes esforços em IA foram totalmente desperdiçados.

Isso ficou óbvio cerca de meia hora depois do OpenAI lançado ChatGPT - seu LLM conversacional e contextualmente consciente. Quase instintivamente, qualquer pessoa que interaja com o ChatGPT se pergunta “Por que não posso usar isso para pesquisa?” Sua interface parece natural, discursiva, amigável e completamente humana – exatamente o oposto de uma página feia de resultados de pesquisa generosamente salpicada de anúncios e rastreadores e todas as outras porcarias que o Google considera necessário inserir para manter suas margens altas.

A Microsoft imediatamente viu o ChatGPT como a arma de que precisava para desestabilizar seu concorrente. Redmond rapidamente pintou um acordo de investimento multibilionário com OpenAI e garantiu que o ChatGPT seria integrado em todo o conjunto de produtos da Microsoft. Isso significa não apenas Bing, mas Office, Github e – muito provavelmente – Windows.

Nessa época, o Google foi “Código vermelho”- o que quer que isso signifique. Ele trouxe Larry e Sergey de volta ao convés e fez tudo o que pôde, o mais rápido possível, para integrar sua riqueza existente de LLMs ao principal produto de pesquisa.

Mas está procurando arrependimentos no final do dia.

Na semana passada, o Google anunciou um evento especial em 8 de fevereiro para revelar seu trabalho em IA. Não muito tempo depois, uma captura de tela do ChatGPT integrado ao Bing vazou online. Então, na segunda-feira, 6 de fevereiro, o CEO da Alphabet, Sundar Pichai bardo anunciado – A tentativa de primeira geração do Google de integrar o LaMDA em seu mecanismo de busca. A Microsoft rapidamente montou um evento concorrente (em 7 de fevereiro, natch) onde revelou seu progresso integrando o ChatGPT ao Bing - confirmando que a captura de tela vazada é real.

Essa pode não ser a melhor maneira de abordar uma tecnologia tão poderosa – e tão carregada – quanto as AIs LLM conversacionais e contextualmente conscientes. Um gigante pisa, o outro bate de volta – e é a grama que sofre.

Nos últimos meses, talvez cem milhões de pessoas brincaram com o ChatGPT, maravilhados com seu poder … e suas deficiências. Esse "papagaio estocástico” (uma avaliação técnica condenatória, mas precisa) não entende nada, mas apenas cospe o que avalia como mais provável a seguir ao que já foi comunicado. É útil e interessante – mas não é compreensão. E essa falta de profundidade significa que não tem absolutamente nenhum bom senso.

Há outro velho ditado: “Errar é humano, mas para realmente bagunçar as coisas em escala é preciso um computador”.

Tanto o Google quanto a Microsoft prometeram que suas ferramentas de pesquisa com sabor de LLM deixarão claro para os usuários que esses resultados não são confiáveis. Mas essas mesmas duas empresas gastaram décadas e incontáveis ​​bilhões de dólares nos dizendo que os computadores são nossos companheiros confiáveis ​​– eles nunca esquecem, nunca cometem erros e fornecem acesso à riqueza do conhecimento humano.

Depois de toda essa doutrinação, não temos escolha a não ser confiar em qualquer coisa que o ChatGPT ou o LaMDA nos digam. Fazer o contrário significa ignorar tudo o que ouvimos ao longo de duas gerações sobre o que os computadores prometem.

A Microsoft e o Google aprimoraram seu jogo, usando novas armas que ninguém entende totalmente - incluindo eles próprios. Isso é sábio? É seguro mesmo? O ChatGPT provavelmente diria que sim, mas tem interesse.

As AIs de conversação se destacam em nos dizer exatamente o que queremos ouvir. O Google e a Microsoft decidiram que, para sobreviver na próxima geração de computação, nós, usuários, devemos ser cercado por vigaristas sintéticos, continuamente confundindo fato e ficção de forma tão sutil e completa que a verdade se perde no ruído e é quase incognoscível. Passe a pipoca. ®

Carimbo de hora:

Mais de O registro