Usar sus propios datos para mitigar los problemas de privacidad de la IA y mejorar la confianza en la IA | Noticias e informes de IoT Now

Usar sus propios datos para mitigar los problemas de privacidad de la IA y mejorar la confianza en la IA | Noticias e informes de IoT Now

Nodo de origen: 3068504

Dado que los modelos de IA son capaces de detectar patrones y hacer predicciones que serían difíciles o imposibles de hacer manualmente para un ser humano, las aplicaciones potenciales de herramientas como ChatGPT en las industrias de atención médica, finanzas y servicio al cliente son enormes.

Sin embargo, si bien las prioridades de las organizaciones en torno a la IA deberían ser evaluar las oportunidades que las herramientas de IA generativa ofrecen a sus negocios en términos de ventaja competitiva, el tema de la privacidad de los datos se ha convertido en una preocupación primordial. La gestión del uso responsable de la IA, con su potencial de producir resultados sesgados, requiere una consideración cuidadosa. 

Si bien los beneficios potenciales de estos modelos son inmensos, las organizaciones deben examinar cuidadosamente las consideraciones éticas y prácticas para utilizar la IA de manera responsable con una protección de datos de IA segura. Al optimizar su experiencia general de usuario con ChatGPT, las organizaciones pueden mejorar su Confiabilidad de la IA

Preocupaciones por la privacidad de la IA 

Al igual que muchas otras tecnologías de vanguardia, la IA sin duda planteará algunas preguntas y desafíos para quienes deseen implementarla en sus pilas de tecnología. De hecho, una encuesta realizada por Progreso reveló que el 65% de las empresas y los ejecutivos de TI creen actualmente que existe un sesgo en los datos en sus respectivas organizaciones y el 78% dice que esto empeorará a medida que aumente la adopción de la IA. 

Probablemente la mayor preocupación en materia de privacidad tiene que ver con el uso de datos de empresas privadas junto con plataformas de inteligencia artificial internas y de cara al público. Por ejemplo, podría tratarse de una organización sanitaria que almacena datos confidenciales de pacientes o datos de nómina de empleados de una gran corporación. 

Para que la IA sea más efectiva, se necesita una muestra grande de datos públicos y/o privados de alta calidad, y las organizaciones con acceso a datos confidenciales, como las empresas de atención médica con registros médicos, tienen una ventaja competitiva al crear soluciones basadas en IA. Por encima de todo, estas organizaciones con datos tan sensibles deben considerar los requisitos éticos y regulatorios que rodean privacidad de datos, equidad, explicabilidad, transparencia, solidez y acceso.  

Los modelos de lenguaje grande (LLM) son potentes modelos de inteligencia artificial entrenados en datos de texto para realizar diversas tareas de procesamiento del lenguaje natural, incluida la traducción de idiomas, la respuesta a preguntas, el resumen y el análisis de sentimientos. Estos modelos están diseñados para analizar el lenguaje de una manera que imite la inteligencia humana, permitiéndoles procesar, comprender y generar el habla humana. 

Riesgos para los datos privados al utilizar IA 

Sin embargo, estos modelos complejos conllevan desafíos éticos y técnicos que pueden plantear riesgos para la precisión de los datos, la infracción de derechos de autor y posibles casos de difamación. Algunos de los desafíos para el uso eficaz de la IA de los chatbots incluyen: 

  • Alucinaciones – En la IA, una alucinación es cuando informa al usuario respuestas llenas de errores y estas son muy comunes. La forma en que los LLM predicen la siguiente palabra hace que las respuestas parezcan plausibles, mientras que la información puede ser incompleta o falsa. Por ejemplo, si un usuario le pregunta a un chatbot los ingresos promedio de un competidor, estas cifras podrían estar muy equivocadas.  
  • Sesgo de datos – Los LLM también pueden exhibir los prejuicios, lo que significa que pueden producir resultados que reflejen los sesgos en los datos de entrenamiento en lugar de la realidad objetiva. Por ejemplo, un modelo de lenguaje entrenado con un conjunto de datos predominantemente masculino podría producir resultados sesgados con respecto a temas de género. 
  • Razonamiento/comprensión – Los LLM también pueden necesitar ayuda con tareas que requieren un razonamiento o comprensión más profundos de conceptos complejos. Se puede capacitar a un LLM para responder preguntas que requieran una comprensión matizada de la cultura o la historia. Es posible que los modelos perpetúen estereotipos o proporcionen información errónea si no se los capacita y monitorea de manera efectiva. 

Además de estos, otros riesgos pueden incluir cortes de datos, que es cuando la memoria de un modelo tiende a estar desactualizada. Otro posible desafío es comprender cómo el LLM generó su respuesta, ya que la IA no está entrenada de manera efectiva para mostrar su razonamiento utilizado para construir una respuesta. 

Uso del conocimiento semántico para entregar datos confiables 

Los equipos técnicos buscan ayuda con el uso de datos privados para ChatGPT. A pesar del aumento en precisión y eficiencia, los LLM, sin mencionar a sus usuarios, aún pueden necesitar ayuda con las respuestas. Sobre todo porque los datos pueden carecer de contexto y significado. La respuesta es una solución de gestión del conocimiento de IA sólida, segura, transparente y gobernada. Con una plataforma de datos semánticos, los usuarios pueden aumentar la precisión y la eficiencia al tiempo que introducen la gobernanza.  

Al lograr una respuesta que sea una combinación de la respuesta de ChatGPT validada con conocimiento semántico de una plataforma de datos semánticos, los resultados combinados permitirán a los LLM y a los usuarios acceder fácilmente y verificar los resultados con el contenido fuente y el conocimiento capturado de las PYME. 

Esto permite que la herramienta de IA almacene y consulte datos estructurados y no estructurados, así como capturar contenido de expertos en la materia (PYME) a ​​través de su GUI intuitiva. Al extraer los hechos encontrados dentro de los datos y etiquetar los datos privados con conocimiento semántico, las preguntas o entradas de los usuarios y las respuestas específicas de ChatGPT también se pueden etiquetar con este conocimiento.  

La protección de datos confidenciales puede desbloquear el verdadero potencial de la IA 

Como ocurre con todas las tecnologías, protegerse contra entradas o situaciones inesperadas es aún más importante con los LLM. Al abordar con éxito estos desafíos, la confiabilidad de nuestras soluciones aumentará junto con la satisfacción del usuario, lo que en última instancia conducirá al éxito de la solución. 

Como primer paso en la exploración del uso de la IA para su organización, los profesionales de TI y seguridad deben buscar formas de proteger los datos confidenciales y al mismo tiempo aprovecharlos para optimizar los resultados para su organización y sus clientes. 

Matthieu Jonglez, vicepresidente de tecnología, plataforma de datos y aplicaciones de Progress.Matthieu Jonglez, vicepresidente de tecnología, plataforma de datos y aplicaciones de Progress.

Artículo de Matthieu Jonglez, vicepresidente de tecnología, plataforma de aplicaciones y datos de progresoss.

Comenta este artículo a continuación o vía X: @IoTNow_

Sello de tiempo:

Mas de IoT ahora