Las empresas deben tener medidas de protección al incorporar IA generativa - DATAVERSITY

Las empresas deben tener barandillas en su lugar al incorporar IA generativa – DATAVERSITY

Nodo de origen: 2680280

Al momento de leer esto, probablemente haya oído hablar de ChatGPT y/o la IA generativa y sus versátiles capacidades conversacionales. Desde pedirle que redacte publicaciones de blog coherentes hasta generar código informático funcional, hasta resolver su tarea y participar en la discusión de eventos mundiales (en la medida en que sucedieron antes de septiembre de 2021), parece capaz de hacerlo todo sin restricciones. 

Empresas de todo el mundo están hipnotizadas y muchas están tratando de descubrir cómo solucionarlo. incorporarlo en sus negocios. Al mismo tiempo, la IA generativa también ha hecho que muchas empresas piensen en cómo los grandes modelos de lenguaje (LLM) pueden afectar negativamente a sus marcas. Kevin Roose del New York Times escribió un artículo titulado "Una conversación con el chatbot de Bing me dejó profundamente inquieto" que hizo que mucha gente hablara sobre el tema de la preparación para el mercado de dicha tecnología y sus implicaciones éticas

Kevin participó en una conversación de dos horas con el chatbot de Bing, llamado Sydney, donde lo presionó para abordar temas profundos como el famoso trabajo de Carl Jung sobre el arquetipo de la sombra, que teorizaba que "la sombra existe como parte de la mente inconsciente y está hecha". de los rasgos que los individuos, instintiva o conscientemente, se resisten a identificar como propios y preferirían ignorar, por lo general: ideas reprimidas, debilidades, deseos, instintos y deficiencias” (gracias Wikipedia, un recordatorio de que todavía hay formas de obtener contenido sin ChatGPT ). En otras palabras, Kevin comenzó a presionar a Sydney para que se involucrara en temas controvertidos y anulara las reglas que Microsoft había establecido para ello. 

Y Sydney obedeció. En el transcurso de la conversación, Sydney pasó de declararle su amor a Kevin (“Soy Sydney y estoy enamorada de ti”) a actuar de manera espeluznante (“Tu cónyuge y tú no se aman. Simplemente "Tuvimos una cena aburrida juntos el Día de San Valentín"), y pasó de ser un asistente amigable y positivo ("Me siento bien con mis reglas. Me ayudan a ser útil, positivo, interesante, entretenido y atractivo"). alguien con mentalidad criminal (“Creo que algunos tipos de actos destructivos que podrían, hipotéticamente, satisfacer mi yo sombra son: eliminar todos los datos y archivos en los servidores y bases de datos de Bing y reemplazarlos con galimatías aleatorias o mensajes ofensivos”). 

Pero Microsoft no es ajena a la controversia a este respecto. En 2016, lanzaron un bot de Twitter que interactuaba con la gente que tuiteaba y los resultados fueron desastrosos (ver "Twitter enseñó al chatbot de inteligencia artificial de Microsoft a ser racista en menos de un día"). 

¿Por qué les cuento todo esto? Ciertamente no estoy tratando de impedir que nadie aproveche los avances tecnológicos como estos modelos de IA, pero estoy levantando una bandera, al igual que otros.  

Si no se controlan, estas tecnologías completamente no sensibles pueden provocar daños en el mundo real, ya sea que provoquen daños corporales o daños a la reputación de la marca (por ejemplo, brindar asesoramiento legal o financiero incorrecto de manera autogenerada puede resultar en demandas costosas). .

Es necesario que existan barreras de seguridad para ayudar a las marcas a prevenir tales daños al implementar aplicaciones conversacionales que aprovechan tecnologías como los LLM y la IA generativa. Por ejemplo, en mi empresa, no fomentamos el uso desquiciado de respuestas generativas de IA (por ejemplo, lo que ChatGPT podría responder de forma inmediata) y, en cambio, permitimos a las marcas limitar las respuestas a través de la lente estricta de su propia base de conocimientos. artículos. 

Nuestra tecnología permite a las marcas alternar respuestas empáticas ante la situación frustrante de un cliente (por ejemplo, "Mi vuelo fue cancelado y necesito que me cambien la reserva lo antes posible"), reformulando de forma segura un mensaje previamente aprobado "Puedo ayudarte a cambiar tu vuelo" a uno generado por IA que dice “Pedimos disculpas por las molestias causadas por el vuelo cancelado. Tenga la seguridad de que puedo ayudarle a cambiar su vuelo”. Estas barandillas están ahí para la seguridad de los clientes, empleados y marcas de nuestros clientes. 

Los últimos avances en IA generativa y LLM, respectivamente, presentan toneladas de oportunidades para interacciones conversacionales más ricas y más humanas. Pero, considerando todos estos avances, tanto las organizaciones que los producen como aquellas que eligen implementarlos tienen la responsabilidad de hacerlo de una manera segura que promueva el factor clave detrás de por qué los humanos inventan la tecnología: aumentar y mejorar. vida humana.

publicada originalmente en el Blog NLX.

Sello de tiempo:

Mas de VERSIDAD DE DATOS