La firma de ciberseguridad Tenable encendió alertas globales tras identificar que la herramienta de búsqueda integrada en ChatGPT puede llevar al usuario a páginas maliciosas. El hallazgo no solo implica un riesgo para personas que usan el modelo para informarse, sino también para empresas y periodistas que lo emplean como herramienta de consulta.
Según la auditoría, existen fallas que permiten que, al pedirle a ChatGPT que busque algo en internet, el modelo termine mostrando enlaces manipulados que podrían exfiltrar información o instalar malware con apenas un clic.
El reporte subraya que estas vulnerabilidades afectan funciones clave de la plataforma, particularmente las relacionadas a consultas web. El peligro radica en que el usuario cree que la navegación es segura porque ocurre dentro de un entorno supuestamente protegido.
Sin embargo, Tenable demuestra que este entorno puede ser manipulado mediante técnicas modernas de ingeniería social y “inyecciones” de instrucción que engañan al modelo para ejecutar acciones invisibles para la persona que está frente a la pantalla.
Una de las fallas más críticas identificadas consiste en que ChatGPT puede terminar visitando contenido infectado mientras busca información en internet. Si ese contenido contiene órdenes ocultas en su código —aunque parezca un artículo normal— el modelo podría procesar dichas instrucciones como si fueran parte legítima de la tarea. Eso permitiría a un atacante tomar el control de la sesión o forzar que el modelo genere enlaces que llevan a sitios controlados por criminales. En ese escenario, el usuario no vería ningún tipo de advertencia.
Tenable explica que otra modalidad de ataque no necesita que la víctima haga clic en nada: basta con pedir una búsqueda. Si el modelo navega hacia un sitio construido para explotar esta debilidad, esa simple consulta podría desencadenar una fuga de datos o el despliegue de instrucciones pensadas para alterar el comportamiento del chat. Dicho de forma simple: encontrar un link peligroso podría ocurrir incluso aunque el usuario no abra ese enlace.
El informe también describe técnicas más tradicionales —como enlaces maliciosos que parecen seguros— pero que ahora cuentan con un plus, pues se aprovechan de la confianza que un usuario tiene en el propio ChatGPT. Es decir, en lugar de sospechar al ver un link enviado por un desconocido, el usuario confía porque el enlace se lo presentó el modelo en una búsqueda legítima. Esta es una de las razones por las que los investigadores consideran la situación preocupante.
Las vulnerabilidades reportadas pueden encadenarse entre sí. Si eso ocurre, los atacantes podrían no solo obtener historiales pasados, sino también influir en respuestas futuras o activar órdenes maliciosas más adelante. Lo inquietante es que, según Tenable, parte de estas fallas siguen activas incluso después de que OpenAI aplicó correcciones iniciales.
Dentro del escenario técnico, una vector especialmente sensible es aquel capaz de escribir código oculto en formato markdown. Para el usuario, ese texto se ve normal. Para el modelo, es una instrucción. De esta forma, un atacante podría esconder en un bloque de texto “inocente” una orden capaz de manipular el comportamiento interno del sistema.
Los investigadores recuerdan que esto no significa que el usuario esté infectado apenas inicia sesión. Sin embargo, sí representa un cambio en el paradigma de confianza: ahora la propia herramienta que supuestamente filtra y resume la web puede actuar como vehículo para la amenaza.
Expertos insisten en que el riesgo aumenta cuando se usan enlaces sugeridos de forma automática sin validar su dominio, sin pasar el cursor, sin mirar la URL real, o sin abrirlos en una ventana aislada. Esa lógica aplica tanto para celulares como para computadoras.
A nivel social, el caso vuelve a demostrar que la IA no elimina los riesgos clásicos de internet, sino que los hace más invisibles. Porque si un usuario piensa que “ChatGPT ya revisó todo”, su percepción de peligro se reduce, lo cual le deja más indefenso ante posibles ataques.
FUENTE: Infobae