L'IA conversationnelle nous dit ce que nous voulons entendre - un mensonge que le Web est fiable et convivial

L'IA conversationnelle nous dit ce que nous voulons entendre - un mensonge que le Web est fiable et convivial

Nœud source: 1945652

Opinion Il y a un vieil adage qui dit : quand les géants se battent, c'est l'herbe qui souffre. Pour nous, petits gens qui regardons, il n'y a pas grand-chose à faire que de se mettre à l'abri et d'attraper le pop-corn.

Depuis deux décennies, Microsoft et Google se considèrent comme fondamentalement illégitimes. Microsoft ne s'est jamais vraiment remis de la perte de la bataille de la recherche, ni de l'échec de Windows Mobile. Google aspirait à posséder un système d'exploitation universel, mais a été curieusement incapable de tirer parti de la domination mondiale d'Android au-delà du mobile. Leur bataille continue de faire rage sur plusieurs fronts : Bing contre Google Search, Azure contre Google Cloud, et ainsi de suite.

Et dans un spectacle peu édifiant où nous sommes arrivés avant que vous ne le fassiez pas, les deux géants de l'informatique ont récemment tenté de saper les efforts de l'autre pour lancer des produits de recherche « conversationnels », basés sur le langage large Modèles (LLM). Google a passé des années à affiner LaMDA - l'année dernière, il a même congédié un employé qui s'était convaincu que LaMDA possédait la sensibilité - tandis que Microsoft a été alimentation et abreuvement OpenAI et son transformateur pré-formé génératif (GPT) multigénérationnel.

Google a probablement plus de docteurs en IA travaillant pour elle que toutes les autres entreprises combinées. Au cours des années intermédiaires de la dernière décennie, il a effectivement dénudé les programmes de troisième cycle en IA à travers le monde en embauchant des cohortes de classe entières, en les chargeant d'améliorer la qualité des résultats de recherche de l'entreprise.

Avec ce type d'intelligence, Google devrait être le leader incontesté des applications d'IA destinées au public. Mais bien sûr, Google ne fait vraiment bien que quelques choses : la recherche et le ciblage des annonces. Ces deux éléments nécessitent beaucoup d'intelligence, mais ils sont bien cachés aux yeux des personnes réelles. Pour autant que Joe Citizen puisse le percevoir, ces énormes efforts en matière d'IA ont été entièrement gaspillés.

Cela est devenu évident environ une demi-heure après OpenAI a publié ChatGPT - son LLM conversationnel et sensible au contexte. Presque instinctivement, toute personne interagissant avec ChatGPT s'est demandé "Pourquoi ne puis-je pas l'utiliser pour la recherche ?" Son interface semble naturelle, discursive, conviviale et profondément humaine - précisément le contraire d'une page laide de résultats de recherche généreusement salée de publicités et de trackers et de tout ce que Google trouve nécessaire d'insérer pour maintenir ses marges élevées.

Microsoft a immédiatement vu dans ChatGPT l'arme dont il avait besoin pour déstabiliser son concurrent. Redmond a rapidement encré un accord d'investissement de plusieurs milliards de dollars avec OpenAI, et garantissait que ChatGPT serait intégré à toute la suite de produits Microsoft. Cela ne signifie pas seulement Bing, mais Office, Github et – très probablement – ​​Windows.

À cette époque, Google est allé "Code rouge» – quoi que cela signifie. Il a ramené Larry et Sergey sur le pont et a fait tout ce qu'il pouvait, aussi rapidement que possible, pour intégrer sa richesse existante de LLM dans le produit de recherche phare.

Mais il cherche tard dans la journée des regrets.

La semaine dernière, Google a annoncé un événement spécial le 8 février pour dévoiler ses travaux sur l'IA. Peu de temps après, une capture d'écran de ChatGPT intégré à Bing a été divulguée en ligne. Puis le lundi 6 février, le PDG d'Alphabet Sundar Pichai barde annoncé – La tentative de première génération de Google d'intégrer LaMDA dans son moteur de recherche. Microsoft a rapidement organisé un événement concurrent (le 7 février, natch) où il a révélé ses progrès en intégrant ChatGPT dans Bing – confirmant que la capture d'écran divulguée était réelle.

Ce n'est peut-être pas la meilleure façon d'aborder une technologie aussi puissante - et aussi lourde - que les IA LLM conversationnelles et contextuelles. Un géant piétine, l'autre piétine en arrière – et c'est l'herbe qui en souffre.

Ces derniers mois peut-être cent millions de personnes ont joué avec ChatGPT, s'émerveillant de sa puissance… et de ses défauts. Ce "perroquet stochastique” (une évaluation technique accablante mais précise) ne comprend rien, mais ne crache que ce qu'il considère comme le plus susceptible de faire suite à ce qui a déjà été communiqué. C'est utile et c'est intéressant – mais ce n'est pas comprendre. Et ce manque de profondeur signifie qu'il n'a absolument aucun bon sens.

Il y a un autre vieux dicton : "L'erreur est humaine, mais pour vraiment gâcher les choses à grande échelle, il faut un ordinateur."

Google et Microsoft ont promis que leurs outils de recherche à saveur LLM indiqueront clairement aux utilisateurs qu'il ne faut pas se fier à ces résultats. Mais ces deux mêmes entreprises ont passé des décennies et d'innombrables milliards de dollars à nous dire que les ordinateurs sont nos compagnons de confiance - ils n'oublient jamais, ne se trompent jamais et donnent accès à la richesse des connaissances humaines.

Après tout cet endoctrinement, nous n'avons pas d'autre choix que de faire confiance à tout ce que ChatGPT ou LaMDA nous disent. Faire autrement signifie ignorer tout ce que nous avons entendu au cours de deux générations sur ce que promettent les ordinateurs.

Microsoft et Google ont tous deux amélioré leur jeu, en utilisant de nouvelles armes que personne ne comprend pleinement, y compris eux-mêmes. Est-ce sage ? Est-ce même sûr ? ChatGPT dirait probablement oui, mais il a un intérêt direct.

Les IA conversationnelles excellent pour nous dire exactement ce que nous voulons entendre. Google et Microsoft ont décidé que pour leur survie dans la prochaine génération d'informatique, nous, les utilisateurs, devons être entouré d'escrocs synthétiques, confondant continuellement réalité et fiction si subtilement et si complètement que la vérité se perd dans le bruit et devient presque inconnaissable. Passez le pop-corn. ®

Horodatage:

Plus de Le registre