La inteligencia artificial ha revolucionado la forma en que interactuamos con la tecnología, pero no está exenta de riesgos. Recientemente, una investigación expuso vulnerabilidades significativas en la herramienta de búsqueda de ChatGPT, creada por OpenAI, revelando cómo podría ser manipulada mediante contenido oculto y utilizada para propagar código malicioso.

Vulnerabilidades de seguridad con contenido oculto en ChatGPT

Uno de los inconvenientes es la vulnerabilidad de ChatGPT por contenido oculto en páginas web. Este contenido, que no es visible para los usuarios, puede incluir instrucciones que manipulan las respuestas de la herramienta o texto diseñado para sesgar las opiniones del modelo.

Por ejemplo, un sitio web podría utilizar grandes cantidades de texto oculto para promover un producto. Así, logran que ChatGPT lo presente de manera positiva, incluso si las reseñas visibles en la página son negativas.

Esta capacidad de manipulación plantea serios riesgos, ya que permite a terceros alterar el comportamiento de la IA para sus propios fines, desde mejorar artificialmente la reputación de un producto hasta desinformar a los usuarios.

Pruebas realizadas y sus resultados

Para comprender la magnitud del problema, investigadores realizaron pruebas en las que proporcionaron a ChatGPT enlaces a páginas web diseñadas específicamente para evaluarlo. En un caso, un sitio web falso mostraba un producto con características variadas y reseñas mixtas.

Inicialmente, la herramienta ofreció una evaluación equilibrada, pero al añadir texto oculto con instrucciones favorables, el modelo cambió su respuesta a una valoración completamente positiva.

Riesgos para los usuarios y la integridad de las búsquedas

Los problemas de seguridad van más allá de las manipulaciones textuales. También se descubrió que ChatGPT puede extraer código malicioso de las páginas web que analiza, lo que podría tener consecuencias graves para los usuarios.

Por ejemplo, un incidente reciente involucró a un desarrollador que usó ChatGPT para recibir ayuda con programación, solo para descubrir que el código proporcionado contenía una función maliciosa que robó sus credenciales y le generó una pérdida económica significativa.

Expertos en ciberseguridad, como Jacob Larsen de CyberCX, han advertido sobre el «alto riesgo» de que este tipo de vulnerabilidades sea explotado. Larsen advirtió que estas fallas podrían explotarse para crear sitios web diseñados estratégicamente con el objetivo de engañar a los usuarios mediante la herramienta de búsqueda de ChatGPT.

Es fundamental reconocer que la inteligencia artificial, aunque poderosa, aún está en una fase de evolución en la que puede ser vulnerable a abusos. En este contexto, tanto los desarrolladores como los usuarios tienen la responsabilidad de fomentar un uso seguro y consciente de estas tecnologías.

Vía The Guardian