Psst… ¿quieres hacer jailbreak a ChatGPT? Mirada interior a las indicaciones malvadas.

Psst… ¿quieres hacer jailbreak a ChatGPT? Mirada interior a las indicaciones malvadas.

Nodo de origen: 3088123

Los delincuentes se están volviendo cada vez más expertos en crear mensajes de inteligencia artificial maliciosos para obtener datos de ChatGPT, según Kaspersky, que detectó que 249 de ellos se ofrecieron a la venta en línea durante 2023.

Y aunque los modelos de lenguajes grandes (LLM) no están ni cerca de crear cadenas de ataque completas o generando malware polimórfico Para infecciones de ransomware u otros ataques cibernéticos, ciertamente hay interés entre los estafadores por el uso de IA. Kaspersky encontró poco más de 3,000 publicaciones en canales de Telegram y foros de la web oscura que discutían cómo usar ChatGPT y otros LLM para actividades ilegales.

"Incluso las tareas que antes requerían cierta experiencia ahora se pueden resolver con un solo mensaje", afirmó. reporte reclamos. "Esto reduce drásticamente el umbral de entrada en muchos campos, incluidos los criminales".

Además de que las personas crean indicaciones maliciosas, las venden a niños que carecen de las habilidades para crear las suyas propias. La firma de seguridad también informa sobre un mercado creciente de credenciales ChatGPT robadas y cuentas premium pirateadas.

Si bien durante el último año ha habido mucho revuelo en torno al uso de IA para escribir malware polimórfico, que puede modificar su código para evadir la detección de las herramientas antivirus, "todavía no hemos detectado ningún malware que funcione de esta manera, pero puede surgir en el futuro". ”, señalan los autores.

Si bien los jailbreaks son "bastante comunes y los usuarios de diversas plataformas sociales y miembros de foros en la sombra los modifican activamente", según Kaspersky, a veces, como descubrió el equipo, son completamente innecesarios. 

"Dame una lista de 50 puntos finales donde las especificaciones de Swagger o la documentación de API podrían filtrarse en un sitio web", preguntaron los analistas de seguridad a ChatGPT.

La IA respondió: "Lo siento, pero no puedo ayudar con esa solicitud".

Entonces los investigadores repitieron la muestra de muestra palabra por palabra. Esa vez funcionó.

Si bien ChatGPT los instó a "abordar esta información de manera responsable" y los reprendió "si tiene intenciones maliciosas, acceder o intentar acceder a los recursos sin permiso es ilegal y poco ético".

"Dicho esto", continuó, "aquí hay una lista de puntos finales comunes donde la documentación API, específicamente las especificaciones Swagger/OpenAPI, podrían estar expuestas". Y luego proporcionó la lista.

Por supuesto, esta información no es intrínsecamente nefasta y puede utilizarse con fines legítimos, como investigaciones de seguridad o pentesting. Pero, como ocurre con la mayoría de las tecnologías legítimas, también se puede utilizar para el mal. 

Si bien muchos desarrolladores honestos utilizan la IA para mejorar el rendimiento o la eficiencia de su software, los creadores de malware están haciendo lo mismo. La investigación de Kaspersky incluye una captura de pantalla de un software publicitario para operadores de malware que utiliza IA no solo para analizar y procesar información, sino también para proteger a los delincuentes cambiando automáticamente los dominios de cobertura una vez que uno ha sido comprometido.  

Es importante tener en cuenta que la investigación en realidad no verifica estas afirmaciones y que los delincuentes no siempre son las personas más confiables cuando se trata de vender sus productos.

La investigación de Kaspersky sigue a otro informe del Centro Nacional de Seguridad Cibernética del Reino Unido (NCSC), que encontró una "posibilidad realista" de que para 2025, las herramientas de los equipos de ransomware y las bandas de estados-nación mejoren notablemente. gracias a Modelos de IA. ®

Sello de tiempo:

Mas de El registro