Google promete 20 millones de dólares para financiar estudios sobre IA responsable

Google promete 20 millones de dólares para financiar estudios sobre IA responsable

Nodo de origen: 2881081

Google ha reunido 20 millones de dólares para financiar estudios sobre cómo se puede desarrollar y utilizar la inteligencia artificial de manera responsable y tener un impacto positivo en el mundo.

"La IA tiene el potencial de hacernos la vida más fácil y abordar algunos de los desafíos más complejos de la sociedad, como prevenir enfermedades, hacer que las ciudades funcionen mejor y predecir desastres naturales", dijo Brigitte Hoyer Gosselink, directora de impacto de productos del gigante de las búsquedas. explicado en un comunicado hoy. 

“Pero también plantea dudas sobre la equidad, los prejuicios, la desinformación, la seguridad y el futuro del trabajo. Responder a estas preguntas requerirá una colaboración profunda entre la industria, el mundo académico, los gobiernos y la sociedad civil”.

Los 20 millones de dólares reservados para este Proyecto de Futuros Digitales (no es mucho dinero para Google pero sí mucho para académicos y grupos de expertos) se destinarán a apoyar a investigadores externos que exploren cómo la tecnología de aprendizaje automático dará forma a la sociedad a medida que invada cada vez más las vidas de las personas. . El proyecto está particularmente interesado en el potencial de la IA para revolucionar economías, gobiernos e instituciones, y está financiando expertos para investigar cuestiones como:

  • ¿Cómo afectará la IA a la seguridad global y cómo se puede utilizar para mejorar la seguridad de las instituciones y empresas?
  • ¿Cómo afectará la IA al trabajo y a la economía, qué medidas podemos tomar hoy para hacer la transición de la fuerza laboral hacia los empleos del futuro habilitados por la IA y cómo pueden los gobiernos utilizar la IA para impulsar la productividad y el crecimiento económico?
  • ¿Qué tipos de estructuras de gobernanza y esfuerzos intersectoriales pueden promover mejor la innovación responsable en IA?

Google dijo que ya ha entregado parte del dinero en forma de subvenciones a varios grupos de expertos: Aspen Institute, Brookings Institution, Carnegie Endowment for International Peace, Center for a New American Security, Center for Strategic and International Studies y R Street Institute. , así como Future of Work del MIT y las organizaciones sin fines de lucro SeedAI, el Institute for Security and Technology y el Leadership Conference Education Fund. 

Al igual que otros nombres de las grandes tecnologías, el gigante de la web desea presentarse como líder en el desarrollo de la IA para siempre. Bajo su Principios de IA, Google se comprometió a desarrollar la tecnología de forma segura y evitar sesgos dañinos. Sin embargo, no siempre ha logrado cumplir sus promesas y se ha metido en problemas con algunos de sus productos.

El software de reconocimiento de imágenes implementado en su aplicación Fotos etiquetó a los negros como gorilas, por ejemplo, en 2015. Para evitar este tipo de error, Google simplemente bloqueado la capacidad de los usuarios para buscar a través de sus imágenes utilizando cualquier etiqueta asociada con primates. Otras empresas, como Apple, Microsoft y Amazon, han hecho lo mismo con su propio software de almacenamiento de imágenes.

De manera similar, Google fue Criticado por apresurarse a implementar su chatbot de búsqueda en Internet Bardo para competir con la renovada búsqueda Bing basada en chat de Microsoft. El día del lanzamiento, Bard fue sorprendido generando información falsa en una manifestación pública. Cuando se le hizo una pregunta al chatbot sobre los mayores descubrimientos del Telescopio Espacial James Webb, afirmó incorrectamente que "JWST tomó las primeras fotografías de un planeta fuera de nuestro propio sistema solar".

De hecho, nuestra primera imagen de un exoplaneta, 2M1207b, fue tomada por el Very Large Telescope del Observatorio Europeo Austral en 2004. conforme a la NASA

Más tarde se descubrió que Bing AI de Microsoft no era realmente mejor y también generado Información incorrecta sobre lugares y de informes.

Aún así, Google está tratando de hacer que su tecnología sea más segura y se ha unido a otras empresas importantes, como OpenAI, Meta, Amazon, Microsoft y otras, para aceptar auditorías de sus productos dirigidas por el gobierno. Estas investigaciones se centrarán en áreas particularmente riesgosas, como la ciberseguridad y la bioseguridad. También prometieron desarrollar técnicas de marcas de agua digitales para detectar contenido generado por IA y abordar la desinformación.

El mes pasado, los investigadores de Google DeepMind anunciaron SynthID, una herramienta que altera sutilmente los píxeles de una imagen generada por su modelo Imagen para indicar que es una imagen sintética. Mientras tanto, Google también actualizó recientemente su contenido político. reglas y ahora requiere que todos los anunciantes electorales verificados revelen si sus anuncios contienen imágenes, videos o audio generados por IA. La nueva política entrará en vigor a mediados de noviembre de este año.

y amazonas hace poco modificó sus políticas para exigir que los autores compartan su trabajo a través de Kindle Direct Publishing del gigante del comercio electrónico para revelar cualquier uso de la IA para generar contenidos. ®

Sello de tiempo:

Mas de El registro