L'intelligence artificielle est un handicap

L'intelligence artificielle est un handicap

Nœud source: 3029233

Commentaires L’intelligence artificielle, c’est-à-dire de grands modèles fondamentaux qui prédisent le texte et peuvent catégoriser les images et la parole, ressemble plus à un handicap qu’à un atout.

Jusqu’à présent, les dégâts financiers ont été mineurs. En 2019, un conducteur de Tesla qui conduisait son véhicule avec l’aide du logiciel Autopilot du constructeur automobile a grillé un feu rouge et a heurté un autre véhicule. Les occupants sont décédés et l'automobiliste de Tesla la semaine dernière a été commandé à payer 23,000 XNUMX $ de dédommagement.

Tesla a été émise à peu près au même moment un rappel de deux millions de véhicules à réviser son logiciel de pilote automatique en réponse à une enquête de la National Highway Traffic Safety Administration (NHTSA) des États-Unis qui a révélé que les contrôles de sécurité du pilote automatique étaient insuffisants.

Vingt-trois mille dollars, ce n'est pas beaucoup pour deux vies, mais les familles impliquées engagent des poursuites civiles contre le conducteur et contre Tesla, de sorte que le coût pourrait augmenter. Et on dit qu'il y en a au moins une douzaine de procès impliquant Autopilot aux États-Unis.

Pendant ce temps, dans le secteur de la santé, UnitedHealthcare est poursuivi parce que le modèle NH Predict AI qu’il a acquis lors de son achat de Navihealth en 2020 aurait refusé les soins post-aigus nécessaires aux personnes âgées assurées.

Contraintes requises

Les entreprises vendant des modèles et des services d’IA comprennent clairement qu’il y a un problème. Ils font référence aux « garde-fous » mis en place autour des modèles fondateurs pour les aider à rester dans leur voie – même si ces derniers ne fonctionne pas très bien. De telles précautions seraient inutiles si ces modèles ne contenaient pas matériel d'exploitation sexuelle d'enfants et une panoplie d'autres contenus toxiques.

C’est comme si les développeurs d’IA lisaient l’ouvrage de l’écrivain Alex Blechman message viral à propos des entreprises technologiques interprétant la mise en garde « Ne créez pas le Torment Nexus » comme une feuille de route de produit et a déclaré : « Cela me semble bien ».

Bien sûr, il existe des références littéraires plus anciennes qui conviennent à l’IA, comme Frankenstein de Mary Shelley ou La Boîte de Pandore – un choix particulièrement intéressant étant donné que les modèles d’IA sont souvent qualifiés de boîtes noires en raison du manque de transparence sur le matériel de formation.

Jusqu’à présent, le caractère impénétrable des modèles commerciaux parsemés de contenus préjudiciables n’a pas trop pesé sur les entreprises. Il y a un récent réclamer par Chris Bakke, fondateur et PDG de Laskie (acquis cette année par une société se faisant appeler X), qu'un chatbot GM utilisé par un concessionnaire automobile de Watsonville, en Californie, a été convaincu d'accepter de vendre une Chevrolet Tahoe 2024 pour 1 $ avec un peu d'ingénierie rapide. Mais il est peu probable que le concessionnaire respecte cet engagement.

Pourtant, le risque de s’appuyer sur des modèles d’IA est suffisant pour que Google, Microsoftet une Anthropique ont proposé d'indemniser les clients contre les réclamations liées aux droits d'auteur (qui sont nombreuses et largement non résolues). Ce n’est pas quelque chose que vous faites à moins qu’il n’y ait un risque de responsabilité.

Règlement

Les autorités tentent encore de déterminer comment évaluer la responsabilité de l’IA. Considérez comment la Commission européenne a formulé la question alors qu’elle s’efforce de formuler un cadre juridique viable pour l’intelligence artificielle :

"Les règles actuelles en matière de responsabilité, en particulier les règles nationales fondées sur la faute, ne sont pas adaptées pour traiter les demandes d'indemnisation pour les dommages causés par les produits/services basés sur l'IA", a déclaré la Commission. a affirmé Valérie Plante. [PDF] l'année dernière. « En vertu de ces règles, les victimes doivent prouver une action/omission fautive de la personne qui a causé le dommage. Les caractéristiques spécifiques de l’IA, notamment l’autonomie et l’opacité (ce qu’on appelle l’effet « boîte noire »), rendent difficile, voire prohibitivement coûteuse, l’identification de la personne responsable et la preuve des conditions requises pour qu’une action en responsabilité aboutisse.

Et les législateurs américains ont proposé un cadre bipartisan d’IA pour « garantir que les entreprises d’IA peuvent être tenues responsables par le biais de l’application des lois des organismes de surveillance et des droits d’action privés lorsque leurs modèles et systèmes portent atteinte à la vie privée, violent les droits civils ou causent d’une autre manière des préjudices identifiables ».

Ne vous réjouissez pas trop à l’idée de voir les dirigeants d’entreprises d’IA derrière les barreaux : l’implication des leaders de l’industrie de l’IA dans ce processus suggère que toutes les règles qui émergeront seront à peu près aussi efficaces que d’autres cadres réglementaires qui ont été défigurés par les lobbyistes.

Mais l’excitation fait partie du problème : il y a tellement de battage médiatique autour des perroquets stochastiques, comme on appelle les modèles d’IA.

Les modèles d’IA ont une réelle valeur dans certains contextes, comme l’a souligné la société de sécurité Socket, qui a utilisé ChatGPT pour drapeau d'aide vulnérabilités logicielles. Ils ont fait des merveilles en matière de reconnaissance vocale, de traduction et de reconnaissance d’images, au détriment des transcripteurs et des puzzles CAPTCHA. Ils ont rappelé aux vétérans de l’industrie à quel point il était amusant de jouer avec Eliza, un des premiers chatbots. Ils semblent avoir une réelle utilité dans les emplois d’aide à la décision, à condition qu’il y ait un humain dans le circuit. Et ils ont pris des incantations de ligne de commande complexes, avec leurs drapeaux et paramètres assortis, et les ont transformées en invites textuelles tout aussi complexes qui peuvent s'étendre sur des paragraphes.

Mais l’automatisation permise par l’IA a un coût. Dans un récent article pour le magazine spécialisé de science-fiction Locus, l'auteur et activiste Cory Doctorow a soutenu : « Les sociétés d'IA parient implicitement que leurs clients achèteront de l'IA pour une automatisation aux conséquences très importantes, licencieront des travailleurs et causeront ainsi des dommages physiques, mentaux et économiques à leurs propres clients. , échappant d’une manière ou d’une autre à la responsabilité de ces dommages.

Doctorow est sceptique quant à l’existence d’un marché significatif pour les services d’IA dans les entreprises à forte valeur ajoutée, en raison des risques, et estime que nous sommes dans une situation difficile. Bulle d'IA. Il cite GM Cruise comme exemple, notant que le modèle économique du constructeur de voitures autonomes – dans les limbes en raison d'une blessure d'un piéton et d'un rappel – revient à remplacer chaque conducteur à bas salaire par 1.5 superviseur à distance plus coûteux, sans exclure la possibilité d'accidents et de poursuites judiciaires associées.

Surcharge

Il existe au moins un certain potentiel d’activité à faible valeur associée à l’IA. Il s’agit de payer mensuellement pour accéder à une API pour un chat inexact, une génération d’images algorithmiques qui coopte les styles des artistes sans autorisation, ou générer des centaines de sites de fausses nouvelles (ou livres) de façon que "inonde la zone» avec de la désinformation.

Il semble peu probable que le groupe Arena réclamer que sa plate-forme d'IA puisse réduire de 80 à 90 % le temps nécessaire à la création d'articles pour des publications comme Sports Illustrated améliorera la satisfaction des lecteurs, la fidélité à la marque ou la qualité du contenu. Mais peut-être que générer plus d’articles qu’il n’est humainement possible à travers les centaines de titres de l’entreprise entraînera davantage de pages vues par les robots et davantage de revenus publicitaires programmatiques provenant d’acheteurs de publicité trop naïfs pour comprendre.

Une partie du problème réside dans le fait que les principaux promoteurs de l’IA – Amazon, Google, Nvidia et Microsoft – exploitent des plateformes cloud ou vendent du matériel GPU. Ce sont les vendeurs à la pelle de la ruée vers l’or de l’IA, qui veulent simplement vendre leurs services cloud ou leur kit de calcul. Ils étaient tous d’accord pour la suprématie de la blockchain express et de la crypto-monnaie jusqu’à ce que cette illusion s’éteigne.

Ils sont encore plus enthousiastes à l’idée d’aider les entreprises à gérer des charges de travail d’IA, utiles ou non. Ils se contentent de semer le cloud, dans l’espoir d’attirer les entreprises vers leurs opérations de location de processeurs. De la même manière, les startups d’apprentissage automatique sans infrastructure espèrent que les discours haletants sur la technologie transformationnelle gonfleront la valorisation de leur entreprise pour récompenser les premiers investisseurs.

L’engouement pour l’IA peut également être attribué en partie aux efforts perpétuels de l’industrie technologique pour répondre à la question « Qu’est-ce qui vient ensuite ? » pendant une période de stase prolongée. Apple, Google, Amazon, Meta, Microsoftet une Nvidia ont tous fait de leur mieux pour empêcher une concurrence significative et depuis le début de l’ère du cloud et du mobile au milieu des années 2000, ils y sont plutôt bien parvenus. Les comportements anticoncurrentiels ne sont pas quelque chose de nouveau – rappelez-vous l’industrie de 2010. règlement avec le ministère américain de la Justice au sujet des accords entre Adobe, Google, Intel, Intuit et Pixar pour éviter de braconner les talents les uns des autres.

Microsoft a fait grand cas de son intégration de l'IA avec Bing, longtemps éclipsée par la recherche Google, affirmant qu'elle est «réinventer la recherche.» Mais peu de choses ont changé depuis – Bing apparemment n’a réussi à prendre aucune part de marché à Google, à une époque où le sentiment général est que la recherche Google – également désormais dotée d’IA – s’est aggravée.

Vivement 2024

Pour savoir ce qui va suivre, nous devrons attendre que le ministère de la Justice et les régulateurs du monde entier imposent des changements. antitrust l’application des lois et les poursuites. Car si Google contrôle la distribution des recherches – via des accords avec Apple et d’autres – et la publicité numérique – via son accord avec Meta (autorisé aux États-Unis, encore sous enquête en Europe et au Royaume-Uni) et d'autres activités qui piqué l’intérêt du ministère de la Justice – ni le secteur de la recherche ni celui de la publicité ne semblent se prêter à de nouveaux challengers, quelle que soit la quantité de sauce IA ajoutée.

L’IA est un handicap non seulement au sens financier mais aussi au sens éthique. Il promet des économies de salaires – malgré étant extrêmement cher en termes de formation et DEVELOPPEMENT ainsi que impact environnemental – tout en encourageant l’indifférence à l’égard du travail humain, de la propriété intellectuelle, des productions nuisibles et de l’exactitude des informations. L’IA invite les entreprises à retirer les personnes de l’équation alors qu’elles ajoutent souvent de la valeur qui n’est pas évidente dans un bilan.

L’IA peut être véritablement utile, mais elle doit être déployée pour aider les gens plutôt que de s’en débarrasser. ®

Horodatage:

Plus de Le registre