GuardRail OSS, proyecto de código abierto, proporciona barreras para el desarrollo responsable de la IA

GuardRail OSS, proyecto de código abierto, proporciona barreras para el desarrollo responsable de la IA

Nodo de origen: 3012227

Veteranos de la industria desarrollan un marco para ayudar a las empresas a crear soluciones de IA éticas


Un proyecto de código abierto proporciona barreras para el desarrollo responsable de la IA

SAN FRANCISCO–(BUSINESS WIRE)–Hoy, un grupo de veteranos del software empresarial lanzó GuardRail OSS, un proyecto de código abierto que ofrece barreras de seguridad prácticas para garantizar el desarrollo y la implementación responsable de la inteligencia artificial (IA). Creado por tecnólogos, incluido el empresario en serie Reuven Cohen, el director ejecutivo de Peripety Labs, Mark Hinkle, y el veterano de ServiceNow y actual director ejecutivo de Opaque Systems, Aaron Fulkerson, GuardRail OSS ofrece un marco basado en API para análisis de datos avanzado, mitigación de sesgos, análisis de sentimientos, clasificación de contenido y supervisión adaptada a las necesidades específicas de IA de una organización.

A medida que las capacidades de inteligencia artificial han avanzado rápidamente, también lo ha hecho la demanda de rendición de cuentas y supervisión para mitigar los riesgos. GuardRail OSS proporciona a las empresas que buscan aprovechar la IA las herramientas para garantizar que sus sistemas actúen de manera responsable y ética analizando las entradas de datos, monitoreando las salidas y guiando las contribuciones de la IA. Su disponibilidad de código abierto promueve la transparencia al tiempo que permite la personalización de diferentes aplicaciones industriales en el ámbito académico, sanitario, software empresarial y más.

"La IA ofrece una oportunidad importante para remodelar el panorama empresarial y social, y su potencial sólo se materializa plenamente cuando está anclado en un desarrollo responsable", comentó Reuven Cohen, el desarrollador de IA detrás de GuardRail OSS. “Con este marco, las empresas obtienen no sólo herramientas de supervisión y análisis, sino también los medios para integrar funcionalidades avanzadas como la inteligencia emocional y la toma de decisiones éticas en sus sistemas de IA. Se trata de mejorar las capacidades de la IA y al mismo tiempo garantizar la transparencia y la rendición de cuentas, estableciendo un nuevo punto de referencia para la evolución progresiva y responsable de la IA”.

Con el respaldo de Opaque Systems y un equipo de veteranos de la industria, GuardRail OSS está posicionado para convertirse en una solución ampliamente utilizada para inculcar responsabilidad en el desarrollo de IA. A medida que la IA prolifera en todas las industrias, las barreras de seguridad y la supervisión especialmente diseñadas garantizarán la seguridad, reducirán los prejuicios y desarrollarán la confianza en los sistemas de IA. Como solución de código abierto disponible gratuitamente, GuardRail OSS predica con el ejemplo al proporcionar herramientas y marcos prácticos para allanar el camino para el avance responsable de la IA.

“A medida que las empresas realizan la transición de los modelos de lenguajes grandes desde las fases piloto a la producción a gran escala, somos testigos de un aumento en la demanda empresarial de una puerta de enlace de datos sólida, segura y adaptable. Una puerta de enlace de este tipo no sólo es crucial para garantizar la privacidad y la ética en la IA, sino que también es clave para aprovechar los valiosos conocimientos latentes en el escape de datos, que, cuando se analizan con responsabilidad, pueden desbloquear inteligencia sin precedentes”, dijo Raluca Ada Popa, reconocida especialista en IA. y experto en seguridad, profesor asociado en UC Berkeley, cofundador de los innovadores RISELab y Skylab en UC Berkeley, y cofundador de Opaque Systems y Preveil. “En este panorama, la llegada de GuardRail OSS como marco seguro para la implementación de IA no sólo es oportuna sino fundamental. Es una herramienta que resuena con la creciente demanda de la industria de mecanismos que garanticen la privacidad de los datos y el uso ético de la IA”.

Acerca de Reuven “rUv” Cohen

Reuven Cohen es un experimentado experto en tecnología con un profundo impacto en innovaciones revolucionarias. Su experiencia abarca la computación en la nube, la inteligencia artificial y la web3. Contribuye a los avances de la IA como probador alfa/beta de OpenAI. Reuven asesora a gobiernos, cofundó una iniciativa global de base en la nube y lidera iniciativas en algunos de los sistemas de IA empresariales más grandes, incluida una reciente implementación de IA generativa de 400,000 empleados y 1.4 millones de dólares. Puedes seguirlo en LinkedIn (https://www.linkedin.com/in/reuvencohen/).

Acerca de los sistemas opacos

Sistemas opacos (https://opaque.co) es líder en tecnología de privacidad para datos e inteligencia artificial y es pionero en computación confidencial para análisis e inteligencia artificial en UC Berkeley RISElab. Opaque lo utilizan organizaciones como Ant Group, IBM, Scotiabank y Ericsson. Opaque Systems ha lanzado recientemente Opaque Prompts (https://opaqueprompts.opaque.co/) como servicio pero ha publicado el código bajo la licencia de código abierto en Github (https://github.com/opaque-systems/opaqueprompts-python).

Acerca de los laboratorios Peripety

Laboratorios Peripety (https://peripety.com) es una consultoría de IA fundada por Mark Hinkle. Mark ha sido durante mucho tiempo un defensor del código abierto y ejecutivo de software empresarial. Ha sido miembro del comité de la Apache Software Foundation para Apache CloudStack y editor en jefe de LinuxWorld y Enterprise Open Source Magazine. Ha sido ejecutivo de la Fundación Linux, la Fundación Node.js y director fundador de la Oficina Comercial de Código Abierto de Citrix. Publica un boletín semanal sobre inteligencia artificial, The Artificial Intelligence Enterprise (https://www.theenterprise.io).

Contacto

marca hinkle

prensa@peripety.com
919.228.8049

Laboratorios de peripecia

www.peripety.com

Sello de tiempo:

Mas de LasNoticiasCrypto