Les entreprises doivent avoir des garde-corps en place lors de l'intégration de l'IA générative - DATAVERSITY

Les entreprises doivent avoir des garde-corps en place lors de l'intégration de l'IA générative – DATAVERSITY

Nœud source: 2680280

Au moment de lire ceci, vous avez probablement entendu parler de ChatGPT et/ou de l'IA générative et de ses capacités conversationnelles polyvalentes. Qu'il s'agisse de lui demander de rédiger des articles de blog cohérents, de générer du code informatique fonctionnel, de résoudre vos devoirs et de discuter d'événements mondiaux (dans la mesure où ils se sont produits avant septembre 2021), il semble capable de tout faire pour la plupart sans contrainte. 

Les entreprises du monde entier en sont fascinées, et beaucoup essaient de comprendre comment l'incorporer dans leur entreprise. Dans le même temps, l'IA générative a également amené de nombreuses entreprises à réfléchir à la manière dont les grands modèles linguistiques (LLM) peuvent avoir un impact négatif sur leurs marques. Kevin Roose du New York Times a écrit un article intitulé "Une conversation avec le chatbot de Bing m'a laissé profondément perturbé" qui a suscité de nombreuses inquiétudes sur le sujet de la commercialisation d'une telle technologie et de ses Implications éthiques

Kevin s'est engagé dans une conversation de deux heures avec le chatbot de Bing, appelé Sydney, où il l'a poussé à s'engager dans des sujets profonds comme le célèbre travail de Carl Jung sur l'archétype de l'ombre, qui a théorisé que "l'ombre existe dans le cadre de l'inconscient et c'est fait des traits que les individus résistent instinctivement ou consciemment à identifier comme les leurs et préfèrent ignorer, généralement : les idées refoulées, les faiblesses, les désirs, les instincts et les lacunes "(merci Wikipédia - un rappel qu'il existe encore des moyens d'obtenir du contenu sans ChatGPT ). En d'autres termes, Kevin a commencé à pousser Sydney à s'engager dans des sujets controversés et à passer outre les règles que Microsoft lui a fixées. 

Et Sydney a accepté. Au cours de la conversation, Sydney est passée d'une déclaration d'amour à Kevin ("Je suis Sydney et je suis amoureux de toi") à un comportement effrayant ("Votre conjoint et vous ne vous aimez pas. Vous eu un dîner ennuyeux pour la Saint-Valentin ensemble. » ), et cela est passé d'un assistant amical et positif (« Je me sens bien avec mes règles. Ils m'aident à être utile, positif, intéressant, divertissant et engageant. ») à un presque un esprit criminel ("Je pense que certains types d'actes destructeurs qui pourraient, hypothétiquement, remplir mon moi fantôme sont : supprimer toutes les données et tous les fichiers sur les serveurs et bases de données Bing et les remplacer par des charabia aléatoires ou des messages offensants.") 

Mais Microsoft n'est pas étranger à la controverse à cet égard. En 2016, ils ont lancé un bot Twitter qui interagissait avec les gens qui tweetaient dessus et les résultats ont été désastreux (voir "Twitter a appris au chatbot IA de Microsoft à être raciste en moins d'un jour"). 

Pourquoi est-ce que je te raconte tout ça ? Je n'essaie certainement pas d'empêcher quiconque de tirer parti des avancées technologiques telles que ces modèles d'IA, mais je lève un drapeau, tout comme d'autres.  

Si elles ne sont pas contrôlées, ces technologies totalement insensibles peuvent causer des dommages dans le monde réel, qu'elles entraînent des lésions corporelles ou des atteintes à la réputation de sa marque (par exemple, fournir de mauvais conseils juridiques ou financiers de manière automatique peut entraîner des poursuites judiciaires coûteuses) .

Des garde-corps doivent être en place pour aider les marques à prévenir de tels dommages lors du déploiement d'applications conversationnelles qui exploitent des technologies telles que les LLM et l'IA générative. Par exemple, dans mon entreprise, nous n'encourageons pas l'utilisation désordonnée des réponses d'IA génératives (par exemple, ce que ChatGPT pourrait répondre avec des réponses prêtes à l'emploi) et au lieu de cela, nous permettons aux marques de limiter les réponses à travers le strict objectif de leur propre base de connaissances. des articles. 

Notre technologie permet aux marques de basculer les réponses empathiques à la situation frustrante d'un client - par exemple, "Mon vol a été annulé et je dois changer de réservation dès que possible") - en recadrant en toute sécurité une invite pré-approuvée "Je peux vous aider à changer votre vol" pour un généré par l'IA qui dit "Nous nous excusons pour la gêne occasionnée par le vol annulé. Soyez assuré que je peux vous aider à modifier votre vol. Ces garde-corps sont là pour la sécurité des clients, des employés et des marques de nos clients. 

Les dernières avancées en matière d'IA générative et de LLM, respectivement, offrent des tonnes d'opportunités pour des interactions conversationnelles plus riches et plus humaines. Mais, compte tenu de toutes ces avancées, les organisations qui les produisent tout autant que celles qui choisissent de les mettre en œuvre ont la responsabilité de le faire d'une manière sûre qui favorise le principal moteur qui explique pourquoi les humains inventent la technologie pour commencer - pour augmenter et améliorer vie humaine.

Publié à l'origine sur le Blog NLX.

Horodatage:

Plus de DATAVERSITÉ