Anuncio de nuevas herramientas y capacidades para permitir la innovación responsable en IA | Servicios web de Amazon

Anuncio de nuevas herramientas y capacidades para permitir la innovación responsable en IA | Servicios web de Amazon

Nodo de origen: 2994256

El rápido crecimiento de la IA generativa trae nuevas innovaciones prometedoras y, al mismo tiempo, plantea nuevos desafíos. Estos desafíos incluyen algunos que eran comunes antes de la IA generativa, como el sesgo y la explicabilidad, y nuevos exclusivos para los modelos de cimientos (FM), incluidas alucinaciones y toxicidad. En AWS, estamos comprometidos con desarrollar IA generativa de manera responsable, Adoptar un enfoque centrado en las personas que priorice la educación, la ciencia y nuestros clientes, para integrar una IA responsable en todo el ciclo de vida de la IA de un extremo a otro.

Durante el año pasado, introdujimos nuevas capacidades en nuestras aplicaciones y modelos de IA generativa, como el escaneo de seguridad integrado en Código de Amazon Whisperer, formación para detectar y bloquear contenidos nocivos en Titán Amazonasy protecciones de privacidad de datos en lecho rocoso del amazonas. Nuestra inversión en IA generativa segura, transparente y responsable incluye la colaboración con la comunidad global y los formuladores de políticas, ya que alentamos y apoyamos tanto a la Compromisos voluntarios de IA de la Casa Blanca y Cumbre de seguridad de IA en el Reino Unido. Y seguimos trabajando mano a mano con los clientes para poner en práctica una IA responsable con herramientas diseñadas específicamente como Amazon SageMaker aclarar, Gobernanza de aprendizaje automático con Amazon SageMaker, y más.

Presentamos una nueva innovación responsable en IA

A medida que la IA generativa escala a nuevas industrias, organizaciones y casos de uso, este crecimiento debe ir acompañado de una inversión sostenida en el desarrollo responsable de FM. Los clientes quieren que sus FM se construyan teniendo en cuenta la seguridad y la equidad, para que a su vez puedan implementar la IA de manera responsable. En AWS re:Invent este año, nos complace anunciar nuevas capacidades para fomentar la innovación responsable en IA generativa a través de un amplio conjunto de capacidades con nuevas herramientas integradas, protecciones al cliente, recursos para mejorar la transparencia y herramientas para combatir la desinformación. Nuestro objetivo es brindar a los clientes la información que necesitan para evaluar los FM en función de consideraciones clave de IA responsable, como la toxicidad y la solidez, e introducir barreras de seguridad para aplicar salvaguardas basadas en los casos de uso de los clientes y las políticas de IA responsable. Al mismo tiempo, nuestros clientes quieren estar mejor informados sobre la seguridad, la equidad, la protección y otras propiedades de los servicios de IA y FM, a medida que los utilizan dentro de su propia organización. Nos complace anunciar más recursos para ayudar a los clientes a comprender mejor nuestros servicios de IA de AWS y brindarles la transparencia que solicitan.

Implementación de salvaguardias: barandillas para Amazon Bedrock

La seguridad es una prioridad cuando se trata de introducir IA generativa a escala. Las organizaciones quieren promover interacciones seguras entre sus clientes y aplicaciones de IA generativa que eviten el lenguaje dañino u ofensivo y se alineen con las políticas de la empresa. La forma más sencilla de hacerlo es implementar salvaguardias consistentes en toda la organización para que todos puedan innovar de forma segura. Ayer anunciamos el avance de Barandillas para Amazon Bedrock—una nueva capacidad que facilita la implementación de salvaguardas específicas de aplicaciones basadas en casos de uso de clientes y políticas de IA responsables.

Guardrails impulsa la coherencia en la forma en que los FM en Amazon Bedrock responden al contenido no deseado y dañino dentro de las aplicaciones. Los clientes pueden aplicar barreras de seguridad a modelos de lenguaje grandes en Amazon Bedrock, así como a modelos ajustados y en combinación con Agentes de Amazon Bedrock. Guardrails le permite especificar temas que se deben evitar y el servicio detecta y previene automáticamente consultas y respuestas que caen en categorías restringidas. Los clientes también pueden configurar umbrales de filtrado de contenido en todas las categorías, incluidos discursos de odio, insultos, lenguaje sexualizado y violencia, para filtrar contenido dañino al nivel deseado. Por ejemplo, se puede configurar una aplicación de banca en línea para evitar brindar asesoramiento sobre inversiones y limitar el contenido inapropiado (como discursos de odio, insultos y violencia). En un futuro próximo, los clientes también podrán redactar información de identificación personal (PII) en las entradas de los usuarios y las respuestas de los FM, establecer filtros de malas palabras y proporcionar una lista de palabras personalizadas para bloquear las interacciones entre los usuarios y los FM, mejorando el cumplimiento y aún más. protegiendo a los usuarios. Con Guardrails, puede innovar más rápido con IA generativa mientras mantiene protecciones y salvaguardas consistentes con las políticas de la empresa.

Identificación del mejor FM para un caso de uso específico: evaluación de modelos en Amazon Bedrock

Hoy en día, las organizaciones cuentan con una amplia gama de opciones de FM para impulsar sus aplicaciones de IA generativa. Para lograr el equilibrio adecuado entre precisión y rendimiento para su caso de uso, las organizaciones deben comparar modelos de manera eficiente y encontrar la mejor opción basada en IA responsable clave y métricas de calidad que sean importantes para ellas. Para evaluar modelos, las organizaciones primero deben dedicar días a identificar puntos de referencia, configurar herramientas de evaluación y realizar valoraciones, todo lo cual requiere una profunda experiencia en ciencia de datos. Además, estas pruebas no son útiles para evaluar criterios subjetivos (p. ej., voz, relevancia y estilo de la marca) que requieren juicio a través de flujos de trabajo de revisión humana tediosos y que consumen mucho tiempo. El tiempo, la experiencia y los recursos necesarios para estas evaluaciones (para cada nuevo caso de uso) dificultan que las organizaciones evalúen los modelos en comparación con las dimensiones responsables de la IA y tomen una decisión informada sobre qué modelo proporcionará la experiencia más precisa y segura para sus clientes.

Ahora disponible en vista previa, Evaluación de modelos en Amazon Bedrock ayuda a los clientes a evaluar, comparar y seleccionar los mejores FM para su caso de uso específico en función de métricas personalizadas, como precisión y seguridad, mediante evaluaciones automáticas o humanas. En la consola de Amazon Bedrock, los clientes eligen los FM que desean comparar para una tarea determinada, como la respuesta a preguntas o el resumen de contenido. Para las evaluaciones automáticas, los clientes seleccionan criterios de evaluación predefinidos (por ejemplo, precisión, solidez y toxicidad) y cargan su propio conjunto de datos de prueba o seleccionan entre conjuntos de datos integrados y disponibles públicamente. Para criterios subjetivos o contenido matizado que requiere juicio, los clientes pueden configurar fácilmente flujos de trabajo de evaluación basados ​​en humanos con solo unos pocos clics. Estos flujos de trabajo aprovechan el equipo de trabajo interno de un cliente o utilizan una fuerza laboral administrada proporcionada por AWS para evaluar las respuestas del modelo. Durante las evaluaciones basadas en humanos, los clientes definen métricas específicas de casos de uso (por ejemplo, relevancia, estilo y voz de marca). Una vez que los clientes finalizan el proceso de configuración, Amazon Bedrock ejecuta evaluaciones y genera un informe, para que los clientes puedan comprender fácilmente cómo se desempeñó el modelo según los criterios clave de seguridad y precisión y seleccionar el mejor modelo para su caso de uso.

Esta capacidad de evaluar modelos no se limita a Amazon Bedrock; los clientes también pueden utilizar la evaluación de modelos en Amazon SageMaker Clarify para evaluar, comparar y seleccionar fácilmente la mejor opción de FM a través de métricas clave de calidad y responsabilidad, como precisión, solidez y toxicidad, en todo el mundo. todas las FM.

Luchar contra la desinformación: marcas de agua en Amazon Titan

Hoy, anunciamos Generador de imágenes de Amazon Titan en vista previa, lo que permite a los clientes producir y mejorar rápidamente imágenes de alta calidad a escala. Consideramos una IA responsable durante cada etapa del proceso de desarrollo del modelo, incluida la selección de datos de entrenamiento, la creación de capacidades de filtrado para detectar y eliminar entradas de usuario y resultados de modelo inapropiados, y la mejora de la diversidad demográfica de los resultados de nuestro modelo. Todas las imágenes generadas por Amazon Titan contienen una marca de agua invisible de forma predeterminada, que está diseñada para ayudar a reducir la propagación de desinformación al proporcionar un mecanismo discreto para identificar imágenes generadas por IA. AWS se encuentra entre los primeros proveedores de modelos en lanzar ampliamente marcas de agua invisibles integradas en las salidas de imágenes y diseñadas para ser resistentes a las alteraciones.

Generar confianza: respaldar nuestros modelos y aplicaciones con indemnización

Generar confianza en los clientes es fundamental para AWS. Hemos emprendido un viaje con nuestros clientes desde nuestros inicios y, con el crecimiento de la IA generativa, seguimos comprometidos a construir juntos tecnología innovadora. Para permitir que los clientes aprovechen el poder de nuestra IA generativa, necesitan saber que están protegidos. AWS ofrece cobertura de indemnización por derechos de autor para los resultados de los siguientes servicios de IA generativa de Amazon: Amazon Titan Text Express, Amazon Titan Text Lite, Amazon Titan Embeddings, Amazon Titan Multimodal Embeddings, Amazon CodeWhisperer Professional, AWS HealthScribe, Amazon lexy Amazon Personalize. Esto significa que los clientes que utilizan los servicios de manera responsable están protegidos contra reclamos de terceros que alegan infracción de derechos de autor por los resultados generados por esos servicios (consulte la Sección 50.10 de la Términos del servicio). Además, nuestra indemnización de propiedad intelectual estándar por el uso de los servicios protege a los clientes de reclamaciones de terceros que alegan infracción de propiedad intelectual por parte de los servicios y los datos utilizados para capacitarlos. Para decirlo de otra manera, si utiliza un servicio de IA generativa de Amazon mencionado anteriormente y alguien lo demanda por infracción de propiedad intelectual, AWS defenderá esa demanda, lo que incluye cubrir cualquier sentencia en su contra o los costos del acuerdo.

Respaldamos nuestros servicios de IA generativa y trabajamos para mejorarlos continuamente. A medida que AWS lanza nuevos servicios y la IA generativa continúa evolucionando, AWS seguirá enfocándose incansablemente en ganarse y mantener la confianza de los clientes.

Mejora de la transparencia: Tarjeta de servicio de IA de AWS para Amazon Titan Text

We presentó las tarjetas de servicio de IA de AWS en re:Invent 2022 como recurso de transparencia para ayudar a los clientes a comprender mejor nuestros servicios de IA de AWS. Las tarjetas de servicio de IA son una forma de documentación de IA responsable que brinda a los clientes un lugar único para encontrar información sobre los casos de uso previstos y las limitaciones, las opciones de diseño de IA responsable y las mejores prácticas de implementación y optimización del rendimiento para nuestros servicios de IA. Son parte de un proceso de desarrollo integral que llevamos a cabo para construir nuestros servicios de una manera responsable que aborde la equidad, la explicabilidad, la veracidad y solidez, la gobernanza, la transparencia, la privacidad y la seguridad, y la controlabilidad.

En re:Invent este año anunciamos una nueva tarjeta de servicio AI para Amazon Titan Text aumentar la transparencia en los modelos de fundaciones. También estamos lanzando cuatro nuevas tarjetas de servicio de IA que incluyen: Amazon Comprender Detectar PII, Detección de toxicidad de Amazon Transcribe, El reconocimiento de Amazon se enfrenta a la vivacidady AWS HealthScribe. Puedes explorar cada una de estas tarjetas en el Sitio web de AWS. A medida que la IA generativa continúa creciendo y evolucionando, la transparencia sobre cómo se desarrolla, prueba y utiliza la tecnología será un componente vital para ganarse la confianza tanto de las organizaciones como de sus clientes. En AWS, estamos comprometidos a seguir brindando recursos de transparencia, como tarjetas de servicio de IA, a la comunidad en general, y a repetir y recopilar comentarios sobre las mejores formas de avanzar.

Invertir en IA responsable a lo largo de todo el ciclo de vida de la IA generativa

Estamos entusiasmados con las nuevas innovaciones anunciadas en re:Invent esta semana que brindan a nuestros clientes más herramientas, recursos y protecciones integradas para construir y utilizar IA generativa de manera segura. Desde la evaluación de modelos hasta las barreras de seguridad y las marcas de agua, los clientes ahora pueden incorporar IA generativa a su organización más rápido y, al mismo tiempo, mitigar el riesgo. Nuevas protecciones para los clientes, como la cobertura de indemnización de propiedad intelectual y nuevos recursos para mejorar la transparencia, como tarjetas de servicio de IA adicionales, también son ejemplos clave de nuestro compromiso de generar confianza entre empresas de tecnología, formuladores de políticas, grupos comunitarios, científicos y más. Seguimos realizando inversiones significativas en IA responsable durante todo el ciclo de vida de un modelo básico, para ayudar a nuestros clientes a escalar la IA de una manera segura y responsable.


Acerca de los autores

Pedro Hallinan lidera iniciativas en la ciencia y la práctica de la IA responsable en AWS AI, junto con un equipo de expertos en IA responsable. Tiene una gran experiencia en IA (PhD, Harvard) y emprendimiento (Blindsight, vendido a Amazon). Sus actividades voluntarias han incluido servir como profesor consultor en la Facultad de Medicina de la Universidad de Stanford y como presidente de la Cámara de Comercio Estadounidense en Madagascar. Cuando es posible, se va a la montaña con sus hijos: esquí, escalada, senderismo y rafting.

Vasi Philomin Actualmente es vicepresidente de IA generativa en AWS. Lidera esfuerzos de IA generativa, incluidos Amazon Bedrock, Amazon Titan y Amazon CodeWhisperer.

Sello de tiempo:

Mas de Aprendizaje automático de AWS