Utiliser vos propres données pour atténuer les problèmes de confidentialité de l’IA et améliorer la confiance dans l’IA | Actualités et rapports IoT Now

Utiliser vos propres données pour atténuer les problèmes de confidentialité de l’IA et améliorer la confiance dans l’IA | Actualités et rapports IoT Now

Nœud source: 3068504

Avec des modèles d’IA capables de détecter des modèles et de faire des prédictions qu’il serait difficile, voire impossible pour un humain de faire manuellement, les applications potentielles d’outils tels que ChatGPT dans les secteurs de la santé, de la finance et du service client sont énormes.

Pourtant, alors que les priorités des organisations en matière d’IA devraient être d’évaluer les opportunités que les outils d’IA générative offrent à leur entreprise en termes d’avantage concurrentiel, le sujet de la confidentialité des données est devenu une préoccupation majeure. La gestion de l’utilisation responsable de l’IA, avec son potentiel de produire des résultats biaisés, doit être soigneusement étudiée. 

Bien que les avantages potentiels de ces modèles soient immenses, les organisations devraient examiner attentivement les considérations éthiques et pratiques pour utiliser l’IA de manière responsable avec une protection sûre et sécurisée des données d’IA. En optimisant leur expérience utilisateur globale avec ChatGPT, les organisations peuvent améliorer leur Fiabilité de l'IA

Problèmes de confidentialité de l’IA 

Comme beaucoup d’autres technologies de pointe, l’IA soulèvera sans aucun doute des questions et des défis pour ceux qui cherchent à la déployer dans leurs piles technologiques. En fait, une enquête menée par Progrès a révélé que 65 % des entreprises et des responsables informatiques pensent actuellement qu'il existe un biais en matière de données dans leurs organisations respectives et 78 % affirment que cela va s'aggraver à mesure que l'adoption de l'IA augmente. 

La plus grande préoccupation en matière de confidentialité concerne probablement l’utilisation des données d’entreprises privées en tandem avec des plateformes d’IA publiques et internes. Par exemple, il peut s’agir d’un organisme de santé stockant des données confidentielles sur les patients ou des données de paie des employés d’une grande entreprise. 

Pour que l’IA soit la plus efficace possible, vous avez besoin d’un échantillon important de données publiques et/ou privées de haute qualité, et les organisations ayant accès à des données confidentielles, telles que les entreprises de soins de santé disposant de dossiers médicaux, disposent d’un avantage concurrentiel lors de la création de solutions basées sur l’IA. Par-dessus tout, ces organisations disposant de données aussi sensibles doivent tenir compte des exigences éthiques et réglementaires entourant confidentialité des données, l’équité, l’explicabilité, la transparence, la robustesse et l’accès.  

Les grands modèles linguistiques (LLM) sont de puissants modèles d'IA entraînés sur des données textuelles pour effectuer diverses tâches de traitement du langage naturel, notamment la traduction linguistique, la réponse aux questions, la synthèse et l'analyse des sentiments. Ces modèles sont conçus pour analyser le langage d’une manière qui imite l’intelligence humaine, leur permettant ainsi de traiter, comprendre et générer la parole humaine. 

Risques pour les données privées lors de l’utilisation de l’IA 

Cependant, ces modèles complexes s'accompagnent de défis éthiques et techniques qui peuvent présenter des risques en termes d'exactitude des données, de violation du droit d'auteur et d'éventuelles affaires de diffamation. Certains des défis liés à l’utilisation efficace des chatbots IA incluent : 

  • Hallucinations – Dans l’IA, une hallucination se produit lorsqu’elle rapporte à l’utilisateur des réponses remplies d’erreurs et celles-ci sont bien trop courantes. La façon dont les LLM prédisent le mot suivant rend les réponses plausibles, tandis que les informations peuvent être incomplètes ou fausses. Par exemple, si un utilisateur demande à un chatbot le revenu moyen d’un concurrent, ces chiffres pourraient être très erronés.  
  • Biais de données – Les LLM peuvent également exposer biais, ce qui signifie qu'ils peuvent produire des résultats qui reflètent les biais des données de formation plutôt que la réalité objective. Par exemple, un modèle linguistique formé sur un ensemble de données à prédominance masculine pourrait produire des résultats biaisés concernant des sujets sexospécifiques. 
  • Raisonnement/Compréhension – Les LLM peuvent également avoir besoin d’aide pour des tâches qui nécessitent un raisonnement plus approfondi ou une compréhension de concepts complexes. Un LLM peut être formé pour répondre à des questions qui nécessitent une compréhension nuancée de la culture ou de l'histoire. Il est possible que les modèles perpétuent des stéréotypes ou fournissent des informations erronées s’ils ne sont pas formés et surveillés efficacement. 

En plus de ceux-ci, d’autres risques peuvent inclure les coupures de données, c’est-à-dire lorsque la mémoire d’un modèle a tendance à être obsolète. Un autre défi possible est de comprendre comment le LLM a généré sa réponse, car l’IA n’est pas entraînée efficacement pour montrer son raisonnement utilisé pour construire une réponse. 

Utiliser les connaissances sémantiques pour fournir des données fiables 

Les équipes techniques recherchent de l'aide pour utiliser des données privées pour ChatGPT. Malgré l'augmentation de la précision et de l'efficacité, les LLM, sans parler de leurs utilisateurs, peuvent toujours avoir besoin d'aide pour trouver des réponses. D’autant plus que les données peuvent manquer de contexte et de sens. Une solution de gestion des connaissances en IA solide, sécurisée, transparente et gouvernée est la réponse. Avec une plateforme de données sémantiques, les utilisateurs peuvent accroître la précision et l'efficacité tout en introduisant la gouvernance.  

En obtenant une réponse qui est une combinaison de la réponse de ChatGPT validée avec les connaissances sémantiques d'une plate-forme de données sémantiques, les résultats combinés permettront aux LLM et aux utilisateurs d'accéder facilement et de vérifier les résultats par rapport au contenu source et aux connaissances capturées des PME. 

Cela permet à l'outil d'IA de stocker et d'interroger des données structurées et non structurées, ainsi que de capturer du contenu d'expert en la matière (SME) via son interface graphique intuitive. En extrayant les faits trouvés dans les données et en étiquetant les données privées avec des connaissances sémantiques, les questions ou entrées des utilisateurs et les réponses ChatGPT spécifiques peuvent également être étiquetées avec ces connaissances.  

La protection des données sensibles peut libérer le véritable potentiel de l’IA 

Comme pour toutes les technologies, se prémunir contre les entrées ou situations inattendues est encore plus important avec les LLM. En relevant ces défis avec succès, la fiabilité de nos solutions augmentera ainsi que la satisfaction des utilisateurs, conduisant finalement au succès de la solution. 

Dans un premier temps avant d’explorer l’utilisation de l’IA pour leur organisation, les professionnels de l’informatique et de la sécurité doivent rechercher des moyens de protéger les données sensibles tout en les exploitant pour optimiser les résultats pour leur organisation et ses clients. 

Matthieu Jonglez, VP technologie - plateforme applications et données chez Progress.Matthieu Jonglez, VP technologie - plateforme applications et données chez Progress.

Article de Matthieu Jonglez, VP technologie – plateforme applications et données chez Progresserss.

Commentez cet article ci-dessous ou via X : @IoTNow_

Horodatage:

Plus de IoT maintenant