Nous avons besoin d'une réglementation pour sauver l'humanité de l'IA... et pour sauver les stocks d'IA - CryptoInfoNet

Nous avons besoin d’une réglementation pour sauver l’humanité de l’IA… et pour sauver les stocks d’IA – CryptoInfoNet

Nœud source: 2968903

Comme l'intelligence artificielle (AI) les développements placent la technologie au centre de la scène, les investisseurs flairent naturellement les opportunités qui se présentent dans l’air. Ils sentent également les formulaires fraîchement imprimés et la bureaucratie du régulateur qui ne demandent qu’à prendre leur part et entravent la machine rugissante de l’innovation en matière d’IA. Mais à ceux qui craignent que l’Oncle Sam puisse écraser l’industrie par de nouvelles réglementations et restrictions, je dirais que c’est exactement le contraire qui est vrai ici : les réglementations peuvent sauver l’industrie d’elle-même. Et par extension, davantage de réglementations pour l’industrie protègent les investisseurs, sans leur nuire. 

Dans la plupart des nouvelles industries, le mot « réglementation » est tabou. L’industrie de l’IA n’est pas vraiment nouvelle. Le concept moderne remonte aux années 1950, et les investissements privés et publics dans ce domaine ont connu des hauts et des bas au cours des quelque 70 dernières années. Les années 1980 et le début des années 1990 ont vu une cycle d'expansion et de récession dans les investissements en intelligence artificielle. Les investissements du gouvernement japonais dans les années 80 ont déclenché le premier grand boom commercial de l’IA. Cependant, en 1993, « plus de 300 entreprises ont fermé leurs portes » lorsque la bulle a éclaté. Cependant, les progrès modernes en matière de puissance de calcul et les grands modèles de langage (LLM) ont donné un nouveau souffle à l'industrie, et son potentiel attire non seulement les investisseurs mais aussi les régulateurs.

Réglementation sur l’IA : un gâchis d’intérêts et de risques

La question de savoir ce que devrait ou peut être la « réglementation de l’IA » concerne les hommes politiques, les décideurs politiques et les éthiciens. Ce que les investisseurs veulent savoir, c’est bien entendu ce que cela signifierait pour leurs portefeuilles. Quels sont les plus grands risques ? Et c’est là que les lois et réglementations peuvent offrir une certaine protection et aider à gérer ces risques.

Les plus grands risques pour les investisseurs se résument à trois préoccupations fondamentales qui se chevauchent : la fraude, la protection de la propriété intellectuelle et la vie privée. Bien sûr, il existe déjà des lois qui abordent ces trois questions individuellement. Le problème, cependant, est que l’IA représente un mélange particulièrement complexe de ces trois risques qui, sans cadres, lois et réglementations clairs, menacent le progrès de l’ensemble du secteur.

La fraude est la préoccupation la plus pressante des investisseurs. Presque tout le monde s’accorde à dire que la prévention de la fraude constitue un rôle important et vital de la réglementation.

Singes frauduleux sur fil : deux études de cas

Deux études de cas montrent l’avenir potentiel de la réglementation sur l’IA, le risque de fraude et les délais réglementaires auxquels les investisseurs doivent s’attendre. Tous deux illustrent également la façon dont la fraude façonnera les mesures réglementaires à venir.

Le premier est le monde des crypto-monnaies et des jetons non fongibles (NFT). Une industrie nettement plus récente que l’IA, la cryptographie a connu son lot d’expansions et de récessions et, plus important encore, de fraude. La Securities and Exchange Commission (SEC) et la Federal Trade Commission (FTC) ont passé une bonne décennie à essayer de comprendre comment intégrer la cryptographie dans leurs systèmes réglementaires. Le Congrès n'a pas encore adopté de législation explicite relative à la cryptographie malgré quelques tentatives.

Durant cette période, de nombreux échanges ont augmenté et se sont effondrés. Les NFT sont passés de la mode en 2021 et 2022 à perdre 95% de leur valeur, emportant avec eux des milliards de dollars d’investisseurs. Il est tristement célèbre que l’effondrement de FTX et du procès récent de Sam Bankman-Fried impliquait des milliards de dollars de fonds utilisés frauduleusement.

La deuxième étude de cas ici est celle de la cybersécurité. Contrairement à la cryptographie, il existe un certain nombre de lois fondamentales établies pour l’industrie. Les deux premières « vraies » lois sur la cybersécurité étaient la Computer Fraud and Abuse Act de 1986 et la Comprehensive Crime Control Act de 1984. Toutes deux reposaient sur une compréhension créative et relativement nouvelle des « fils » (comme dans les fils télégraphiques) et de la fraude électronique.

Au cours des décennies qui ont suivi, le Congrès a adopté des lois fragmentaires sur des sujets liés à la cybersécurité. résultats mitigés. Cela a amené les États à prendre le relais. Le monde de la cybersécurité fournit également un exemple d’industrie aux intérêts profondément croisés, dont beaucoup ne sont pas sans rappeler les risques et les angles morts réglementaires auxquels est confrontée l’industrie de l’intelligence artificielle. L’un des plus notables est la confidentialité. Les préoccupations concernant la vie privée des individus, généralement associées aux médias sociaux et à l’Internet des objets (IoT), se posent également avec les modèles de formation à l’IA.

Les deux exemples présentés ici fournissent des leçons pour le secteur de l’IA en croissance rapide. L’environnement à haut risque, à haute récompense et à faible réglementation du monde de la cryptographie est en proie à la fraude et à l’instabilité. La cybersécurité est un secteur bien plus ancien et bien établi, mais l’environnement réglementaire reste inégal, notamment en ce qui concerne la confidentialité.

L’état actuel de la réglementation sur l’IA

Ainsi, pour avoir une idée de laquelle de ces voies réglementaires les investisseurs devraient s’attendre, examinons l’environnement réglementaire actuel de l’intelligence artificielle.

A commencer par la scène domestique, eh bien… il n'y a pas grand chose, du moins sur le plan législatif. Le président Joe Biden, de son côté, s’est employé à tracer une voie réglementaire via un engagement volontaire et, plus récemment et surtout, un décret exécutif historique et radical.

Plus tôt cette année, la Maison Blanche a annoncé un engagement volontaire et non contraignant à « gérer les risques posés par l’IA ». Parmi les signataires de cet engagement figurent de grands noms comme Amazon (NASDAQ :AMZN), Métaplateformes (NASDAQ :BUT), alphabétique (NASDAQ :GOOG, NASDAQ:GOOGL) et OpenAI. L'Office of Science and Technology Policy (OSTP), un département de la Maison Blanche, a également publié un "Plan directeur pour une déclaration des droits de l'IA." Un autre cadre particulièrement volontaire pour une utilisation sûre et éthique de l’IA.

Selon la Maison Blanche, « l’utilisation sûre et éthique de l’IA » nécessite des « tests préalables au déploiement » rigoureux et est créée avec « la consultation de diverses communautés, parties prenantes et experts du domaine pour identifier les préoccupations, les risques et les impacts potentiels du système ». Les systèmes d’IA devraient également faire l’objet d’« évaluations et rapports indépendants » pour garantir leur sécurité à long terme.

Décret exécutif de Biden sur l'IA

Aux petites heures du 30 octobre, la Maison Blanche a annoncé l’initiative réglementaire la plus complète concernant l’IA. Mener cet effort était un Décret exécutif radical (et un nouveau élégant site de NDN Collective) couvrant tout, de la sûreté et de la sécurité à la vie privée, en passant par les droits civils et bien plus encore. Ce décret s'appuie sur l'engagement volontaire susmentionné et sur la Déclaration des droits d'IA, et il se concentre principalement sur ce que font la plupart des décrets : mobiliser les nombreux départements et agences du pouvoir exécutif dans l'action.

Il y a de nombreux détails à régler concernant l’impact de ce décret sur l’industrie, mais les points à retenir les plus importants pour les investisseurs sont :

1. Il faudra un certain temps aux régulateurs pour élaborer ces nouvelles lignes directrices et politiques.

2. Quelles que soient les réglementations spécifiques qui découleront de cet EO, elles reposeront sur un fondement juridique fragile jusqu'à ce que le Congrès adopte des lois liées à l'IA. Cela dépend toujours du respect volontaire, à une exception majeure près : la loi sur la production de défense (DPA).

L’invocation du DPA par Biden est aussi remarquable que déroutante. Le DPA était la seule loi explicite à laquelle l’EO fait référence avec des implications potentiellement puissantes. Le DPA a été utilisé plus récemment dans le contexte de la pandémie de Covid-19, mais il est généralement associé à la production en temps de guerre. Biden l’utilise ici dans un contexte purement de sécurité nationale :

« … l'Ordre exigera que les entreprises développant tout modèle de fondation qui présente un risque sérieux pour la sécurité nationale, la sécurité économique nationale ou la santé et la sécurité publiques nationales informent le gouvernement fédéral lors de la formation du modèle et partagent les résultats de tous les tests red- tests de sécurité en équipe.

On ne sait pas clairement qui est couvert par ce « processus d'examen » soutenu par la DPA, car d'autres agences ont des responsabilités réglementaires plus spécifiques. Par exemple, le National Institute of Standards and Technology (NIST) doit élaborer des normes de sécurité en matière d'IA et le Department of Homeland Security (DHS ) est de les mettre en œuvre pour les infrastructures critiques. Peut-être plus important encore, des éclaircissements sont nécessaires quant à l’agence qui mettra en œuvre cette politique.

Il existe un candidat notable que la DPA couvrirait presque certainement en raison de ses contrats de défense existants : Palantir (NYSE :PLTR). L'entrepreneur de défense axé sur le Big Data et de plus en plus axé sur l'IA n'est pas signataire de l'accord de la Maison Blanche. engagement volontaire. Cela pourrait avoir plus à voir avec les tendances politiques conservatrices-libertaires du président de Palantir, Peter Thiel, et avec son soutien à l'ancien président Donald Trump qu'à un rejet catégorique d'une réglementation plus poussée. Cependant, cette omission est notable car Palantir a de grands projets pour "prendre l'ensemble du marché de l'IA."

Dans l’ensemble, le cadre réglementaire établi par le décret de Biden est révolutionnaire et incite le Congrès à construire le reste de l’organisme de réglementation, pour ainsi dire.

Malheureusement, nous attendrons peut-être un certain temps avant que les législateurs commencent à « couler le béton ».

Et le Congrès ?

Le décret de la Maison Blanche sur l'IA ne fait que deux références au Congrès, mais les deux appellent le Congrès à adopter des lois bipartites sur l'IA (l'une d'elles concernait explicitement l'adoption d'une loi sur la confidentialité).

Selon le Brennan Center For Justice, le Congrès a environ 60 factures liées à l'IA siégeant dans diverses commissions.

Cependant, au moment d’écrire ces lignes, la Chambre des représentants vient tout juste de se mettre d’accord sur le choix d’un nouveau président de la Chambre et a « un plus gros poisson à faire frire », avec une nouvelle échéance imminente de fermeture du gouvernement et une bataille budgétaire qui l’accompagne. Sans parler des projets de loi controversés sur l’aide à Israël et à l’Ukraine et d’une foule d’autres préoccupations plus urgentes.

Cela laisse deux autres sources pour la réglementation de l’IA : les États américains individuels et les acteurs internationaux. Le premier groupe, composé d'une poignée seulement des 50 États du pays, a passé un patchwork des lois pertinentes, l’IA et la vie privée des consommateurs étant au centre des préoccupations. À l’échelle internationale, la Chine ouvre la voie à la construction d’un ensemble complexe et avancé de la réglementation sur l’IA. Le cadre réglementaire global de l'Union européenne, simplement intitulé « Loi sur l'IA » devrait être finalisé et adopté d'ici la fin de l'année.

Réglementation sur l’IA et ce que l’avenir nous réserve

Alors, qu’en est-il de cette industrie en croissance rapide et potentiellement très perturbatrice ? Empruntera-t-il la voie cryptographique vers la réglementation, qui a été en proie à la fraude et à l’instabilité ? Ou la voie de la cybersécurité, plus lente, plus stable, mais toujours inégale. Eh bien, pour l’instant, du moins aux États-Unis, ce sera probablement un mélange des deux.

L’IA a le potentiel perturbateur et lucratif dont l’industrie de la cryptographie ne peut que rêver. Pourtant, il présente également le potentiel et l’utilité grand public qu’offre le secteur de la cybersécurité. Pour les investisseurs, et pour ne pas paraître trop sensationnaliste, pour l’humanité, c’est une combinaison risquée.

Il existe une myriade d’applications potentielles de l’IA dans le monde réel, de l’agriculture à la défense en passant par la finance et la santé. Un tirage de tapis crypto pourrait frauder les investisseurs de leur argent, ou un pirate informatique pourrait voler de l'argent à une banque, mais les risques d'accidents d'IA ou de comportement malveillant ça pourrait être catastrophique.

Les hypothèses sur ce qui pourrait mal se passer sont infinies à mesure que l’IA est de plus en plus intégrée à la vie quotidienne. Mais nous constatons déjà des cas d’utilisation malveillante troublants de l’IA. Le récent début de la guerre entre Israël et le Hamas a donné lieu à un flot de désinformation sur les plateformes de médias sociaux comme X, anciennement Twitter. Certaines des fausses images partagées en ligne sont générées par l'IA, souvent créées avec des outils facilement accessibles comme le générateur d'images de Bing. Avec l’amélioration constante de la technologie, il deviendra de plus en plus difficile d’identifier les fausses images et vidéos.

Nous sommes également confrontés à des risques qui n’apparaissaient autrefois que dans la science-fiction, comme les « IA malveillantes ». En tant que planificateur de repas IA suggérant accidentellement une recette de chlore gazeux vaut quelques rires aujourd'hui, ce serait beaucoup moins humoristique s'il s'agissait d'une IA chargée, par exemple, d'une ferme automatisée à grande échelle contaminant accidentellement (ou pire, intentionnellement) une culture de légumes.

Comme le dit le proverbe : « Les règles de sécurité sont écrites avec du sang ». Et nous ne devrions vraiment pas avoir à attendre que le sang coule avant d’agir.

Sur le plan juridique, il existe déjà un « marteau » contre Google qui, selon l'entreprise, détruire le concept d’IA générative. Ce dont l’industrie a besoin pour éviter ce sort, ce sont des réglementations claires et applicables qui peuvent protéger à la fois le public et les entreprises d’IA de la colère juridique des uns et des autres.

Dans l’intérêt des investisseurs et de tous, il est nécessaire de renforcer la surveillance réglementaire du secteur de l’intelligence artificielle avant que quelque chose ne tourne terriblement mal. Le nouveau décret de la Maison Blanche fournit un cadre très complet sur de nombreuses questions liées à l'IA et constitue un bon début. Cependant, sans les lois adoptées par le Congrès qui fournissent une base solide sur laquelle les régulateurs peuvent s'appuyer, nous nous retrouverons avec un désordre de type crypto, composé de régulateurs confus. Cela ne fera que semer la confusion parmi les acteurs du marché et les investisseurs. Et comme le potentiel de l’IA est si grand et si dangereux, ce n’est pas quelque chose que quiconque devrait souhaiter.

Donc non, les réglementations sur l’IA ne le sont pas "l'ennemi," comme le dit le manifeste d'un investisseur en capital-risque, mais ils peuvent servir de barrières de sécurité qui peuvent aider à protéger l'industrie et les investisseurs contre des risques énormes.

Ce que les investisseurs devraient faire maintenant

Sans garde-fous clairs, investir dans le monde de l’intelligence artificielle est une entreprise risquée. Les investisseurs qui ne sont pas très préoccupés par l’impact de ces réglementations abandonnées peuvent faire des paris plus risqués sur la multitude de startups qui tentent de devenir riches. Ou sur des pièces établies mais méprisantes comme Palantir.

Autrement, les investisseurs feraient mieux de voir quelles entreprises « jouent le jeu » avec l'engagement volontaire de la Maison Blanche. Ou ceux qui s’adaptent aux changements réglementaires internationaux en provenance de l’UE et de la Chine. Ces entreprises considèrent probablement ces nouvelles réglementations comme quelque chose avec lesquelles elles peuvent vivre ou comme quelque chose qu’elles peuvent utiliser à leur avantage.

Quoi qu’il en soit, le marteau de la réglementation tombera à un moment ou à un autre. Il serait préférable pour tout le monde, et pas seulement pour les investisseurs, qu’il tombe avant que la seconde moitié de l’expression « agir vite et casser les choses » ne brise l’industrie de l’IA.

À la date de publication, Andrew Bush détenait une position LONGUE sur les actions GOOGL et AMZN. Les opinions exprimées dans cet article sont celles de l'auteur, sous réserve des directives de publication d'InvestorPlace.com.

Andrew Bush est rédacteur en chef de l'actualité financière pour InvestorPlace et est titulaire de deux diplômes en affaires internationales. Il a travaillé dans l'éducation, le secteur technologique et en tant qu'analyste de recherche pour une société de conseil axée sur la sécurité nationale basée à Washington.

Lien Source

#Réglementation #Sauvegarder #Humanité #IA.. #Sauvegarder #Stocks

Horodatage:

Plus de CryptoInfonet