Google promet 20 millions de dollars pour financer des études sur l'IA responsable

Google promet 20 millions de dollars pour financer des études sur l'IA responsable

Nœud source: 2881081

Google a rassemblé 20 millions de dollars pour financer des études sur la manière dont l'intelligence artificielle peut être développée et utilisée de manière responsable et avoir un impact positif sur le monde.

"L'IA a le potentiel de nous faciliter la vie et de relever certains des défis de société les plus complexes, comme prévenir les maladies, améliorer le fonctionnement des villes et prédire les catastrophes naturelles", Brigitte Hoyer Gosselink, directrice de l'impact des produits chez le géant de la recherche. expliqué dans un communiqué aujourd'hui. 

« Mais cela soulève également des questions sur l’équité, les préjugés, la désinformation, la sécurité et l’avenir du travail. Répondre à ces questions nécessitera une collaboration approfondie entre l’industrie, le monde universitaire, les gouvernements et la société civile.

Les 20 millions de dollars réservés à ce projet Digital Futures – pas beaucoup d'argent pour Google mais beaucoup pour les universitaires et les groupes de réflexion – serviront à soutenir des chercheurs extérieurs explorant comment la technologie d'apprentissage automatique façonnera la société alors qu'elle empiète de plus en plus sur la vie des gens. . Le projet s’intéresse particulièrement au potentiel de l’IA à bouleverser les économies, les gouvernements et les institutions, et finance des chercheurs pour étudier des questions telles que :

  • Quel sera l’impact de l’IA sur la sécurité mondiale et comment peut-elle être utilisée pour renforcer la sécurité des institutions et des entreprises ?
  • Quel sera l’impact de l’IA sur le travail et l’économie, quelles mesures pouvons-nous prendre aujourd’hui pour faire évoluer la main-d’œuvre vers les emplois de demain basés sur l’IA, et comment les gouvernements peuvent-ils utiliser l’IA pour stimuler la productivité et la croissance économique ?
  • Quels types de structures de gouvernance et d’efforts intersectoriels peuvent le mieux promouvoir une innovation responsable en matière d’IA ?

Google a déclaré avoir déjà distribué une partie de l'argent sous forme de subventions à divers groupes de réflexion : Aspen Institute, Brookings Institution, Carnegie Endowment for International Peace, le Center for a New American Security, le Center for Strategic and International Studies et le R Street Institute. , ainsi que Future of Work du MIT et les organisations à but non lucratif SeedAI, l'Institute for Security and Technology et le Leadership Conference Education Fund. 

Comme d’autres grands noms de la technologie, le géant du Web tient à se présenter comme un leader dans le développement de l’IA pour le bien. Sous son Principes de l'IA, Google s'est engagé à développer la technologie en toute sécurité et à éviter les préjugés nuisibles. Elle n’a cependant pas toujours réussi à tenir ses promesses et s’est retrouvée dans une situation délicate pour certains de ses produits.

Un logiciel de reconnaissance d'images déployé sur son application Photos qualifiait par exemple les Noirs de gorilles en 2015. Pour éviter ce genre d'erreur, Google simplement bloqué la capacité des utilisateurs à rechercher dans leurs images en utilisant toutes les étiquettes associées aux primates. D'autres sociétés, comme Apple, Microsoft et Amazon, ont fait de même avec leur propre logiciel de stockage d'images.

De même, Google était critiqué pour s'être empressé de déployer son chatbot de recherche sur Internet barde pour rivaliser avec la recherche Bing remaniée basée sur le chat de Microsoft. Le jour du lancement, Bard a été surpris en train de générer de fausses informations lors d'une manifestation publique. Lorsqu’on a posé une question au chatbot sur les plus grandes découvertes du télescope spatial James Webb, il a affirmé à tort que « JWST a pris les toutes premières photos d’une planète en dehors de notre propre système solaire ».

En fait, notre toute première image d’une exoplanète, 2M1207b, a été prise par le Very Large Telescope de l’Observatoire européen austral en 2004, selon à la NASA.

Il a été découvert plus tard que l’IA Bing de Microsoft n’était pas vraiment meilleure et généré informations incorrectes sur les lieux et provenant des rapports.

Google tente néanmoins de rendre sa technologie plus sûre et s'est joint à d'autres grandes entreprises, telles qu'OpenAI, Meta, Amazon, Microsoft et d'autres, pour accepter des audits de ses produits menés par le gouvernement. Ces enquêtes se concentreront sur des domaines particulièrement risqués, tels que la cybersécurité et la biosécurité. Ils ont également promis de développer des techniques de tatouage numérique pour détecter le contenu généré par l'IA et lutter contre la désinformation.

Le mois dernier, des chercheurs de Google DeepMind ont annoncé ID de synthétiseur, un outil qui modifie subtilement les pixels d'une image générée par son modèle Imagen pour signaler qu'il s'agit d'une image synthétique. Pendant ce temps, Google a également récemment mis à jour son contenu politique et exige désormais que tous les annonceurs électoraux vérifiés divulguent si leurs publicités contiennent des images, des vidéos ou de l'audio générés par l'IA. La nouvelle politique entrera en vigueur à la mi-novembre plus tard cette année.

Et Amazone tout recemment a modifié ses politiques pour obliger les auteurs partageant leur travail via Kindle Direct Publishing du géant du commerce électronique à divulguer toute utilisation de l’IA pour générer du contenu. ®

Horodatage:

Plus de Le registre