Las crecientes preocupaciones sobre la seguridad de ChatGPT resaltan la necesidad de educación pública y transparencia sobre los riesgos de la IA

Las crecientes preocupaciones sobre la seguridad de ChatGPT resaltan la necesidad de educación pública y transparencia sobre los riesgos de la IA

Nodo de origen: 2556048

El auge de la inteligencia artificial (IA) generó una ola de preocupaciones sobre la seguridad y la privacidad, particularmente a medida que estas tecnologías se vuelven más avanzadas e integradas en nuestra vida diaria. Uno de los ejemplos más destacados de la tecnología de IA es ChatGPT, un modelo de lenguaje de inteligencia artificial creado por OpenAI y respaldado por Microsoft. Hasta ahora, millones de personas ya han usado ChatGPT desde su lanzamiento en noviembre de 2022.

En los últimos días, las búsquedas de "¿es seguro ChatGPT?" se han disparado a medida que personas de todo el mundo expresan sus preocupaciones sobre los riesgos potenciales asociados con esta tecnología.

Según datos de Google Trends, las búsquedas de "¿es seguro ChatGPT?" han aumentado en un masivo 614% desde el 16 de marzo. Los datos fueron descubiertos por Criptomaniaks.com, una plataforma de educación criptográfica líder que se dedica a ayudar a los recién llegados y principiantes en criptomonedas a comprender el mundo de la cadena de bloques y las criptomonedas.

El aumento de las búsquedas de información sobre la seguridad de ChatGPT destaca la necesidad de una mayor educación pública y transparencia en torno a los sistemas de inteligencia artificial y sus riesgos potenciales. A medida que la tecnología de IA como ChatGPT continúa avanzando e integrándose en nuestra vida diaria, es esencial abordar las preocupaciones de seguridad que están surgiendo, ya que podría haber peligros potenciales asociados con el uso de ChatGPT o cualquier otro chatbot de IA.

ChatGPT está diseñado para ayudar a los usuarios a generar respuestas similares a las humanas a sus consultas y entablar una conversación. Por lo tanto, las preocupaciones sobre la privacidad son uno de los riesgos más importantes asociados con el uso de ChatGPT. Cuando los usuarios interactúan con ChatGPT, sin darse cuenta pueden compartir información personal sobre ellos, como su nombre, ubicación y otros datos confidenciales. Esta información podría ser vulnerable a la piratería u otras formas de ciberataques.

Otra preocupación es el potencial de desinformación. ChatGPT está programado para generar respuestas basadas en la entrada que recibe de los usuarios. Si la entrada es incorrecta o engañosa, la IA puede generar respuestas inexactas o engañosas. Además, los modelos de IA pueden perpetuar sesgos y estereotipos presentes en los datos con los que se entrenan. Si los datos utilizados para entrenar ChatGPT incluyen lenguaje sesgado o prejuicioso, la IA puede generar respuestas que perpetúen esos sesgos.

A diferencia de otros asistentes de IA como Siri o Alexa, ChatGPT no utiliza Internet para encontrar respuestas. En cambio, genera respuestas basadas en los patrones y asociaciones que ha aprendido de la gran cantidad de texto en el que se entrenó. Construye una oración palabra por palabra, seleccionando la más probable, con base en sus técnicas de aprendizaje profundo, específicamente una arquitectura de red neuronal llamada transformador, para procesar y generar lenguaje.

ChatGPT está entrenado previamente en una gran cantidad de datos de texto, incluidos libros, sitios web y otro contenido en línea. Cuando un usuario ingresa un aviso o una pregunta, el modelo utiliza su comprensión del lenguaje y su conocimiento del contexto del aviso para generar una respuesta. Y finalmente llega a una respuesta haciendo una serie de conjeturas, lo cual es parte de la razón por la que puede darte respuestas incorrectas.

Si ChatGPT se entrena con la escritura colectiva de humanos en todo el mundo y continúa haciéndolo a medida que los humanos lo usan, esos mismos sesgos que existen en el mundo real también pueden aparecer en el modelo. Al mismo tiempo, este nuevo y avanzado chatbot es excelente para explicar conceptos complejos, lo que lo convierte en una herramienta muy útil y poderosa para aprender, pero es importante no creer todo lo que dice. ChatGPT ciertamente no siempre es correcto, bueno, al menos, todavía no.

Tenga en cuenta que estos peligros no son exclusivos de ChatGPT y también se aplican a otros modelos de IA. Para mitigar estos riesgos, es fundamental que ChatGPT se use de manera responsable y se proporcione información precisa y adecuada. También debemos entender sus limitaciones.

A pesar de estos riesgos, la tecnología de IA como ChatGPT tiene un inmenso potencial para revolucionar varias industrias, incluida la cadena de bloques. El uso de la IA en la tecnología blockchain ha ido ganando terreno, particularmente en áreas como la detección de fraudes, la gestión de la cadena de suministro y los contratos inteligentes. Nuevos bots impulsados ​​por IA como CadenaGPT, puede ayudar a las nuevas empresas de blockchain a acelerar su proceso de desarrollo.

Sin embargo, es fundamental lograr un equilibrio entre innovación y seguridad. Los desarrolladores, usuarios y reguladores deben trabajar juntos para crear pautas que garanticen el desarrollo y la implementación responsables de la tecnología de IA.

En noticias recientes, Italia se ha convertido en el primer país occidental en bloquear el chatbot avanzado ChatGPT. La autoridad italiana de protección de datos expresó su preocupación por la privacidad relacionada con el modelo. El regulador dijo que prohibiría e investigaría OpenAI "con efecto inmediato".

Microsoft ha gastado miles de millones de dólares en él y agregó la herramienta de chat AI a Bing el mes pasado. También ha dicho que planea incorporar una versión de la tecnología en sus aplicaciones de Office, incluidas Word, Excel, PowerPoint y Outlook.

Al mismo tiempo, más de 1,000 expertos en inteligencia artificial, investigadores y patrocinadores se han sumado a un llamado para una pausa inmediata en la creación de IA durante al menos seis meses, para que las capacidades y los peligros de sistemas como GPT-4 puede ser debidamente estudiado.

La demanda se hace en una carta abierta firmada por los principales actores de IA que incluyen: Elon Musk, quien cofundó OpenAI, el laboratorio de investigación responsable de ChatGPT y GPT-4; Emad Mostaque, quien fundó Stability AI con sede en Londres; y Steve Wozniak, cofundador de Apple.

La carta abierta expresó preocupaciones sobre poder controlar lo que no se puede entender completamente:

“Los últimos meses han visto a los laboratorios de IA encerrados en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera confiable. Los sistemas de inteligencia artificial potentes deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables”.

El llamado a una pausa inmediata en la creación de IA demuestra la necesidad de estudiar las capacidades y los peligros de sistemas como ChatGPT y GPT-4. A medida que la tecnología de IA continúa avanzando e integrándose en nuestra vida diaria, es crucial abordar las preocupaciones de seguridad y garantizar el desarrollo y la implementación responsable de la IA.

Las crecientes preocupaciones sobre la seguridad de ChatGPT resaltan la necesidad de educación pública y transparencia sobre los riesgos de la IA -en-ai-riesgos/

Sello de tiempo:

Mas de Consultores Blockchain