Los internautas aprendieron a manipular la inteligencia artificial publicando frases especiales

Los internautas aprendieron a manipular la inteligencia artificial publicando frases especiales
Por: 
Fecha de publicación: 
12 Agosto 2024
0
Imagen principal: 

Los usuarios aprendieron a manipular la inteligencia artificial, que se utiliza en los chatbots para búsquedas, publicando frases especiales en sus sitios web para que las redes neuronales funcionen como los propios internautas quieren, por ejemplo, para promocionar sus currículums, señaló a Sputnik la empresa de ciberseguridad Kaspersky Lab.

"Los expertos de Kaspersky Lab estudiaron datos abiertos y fuentes internas para averiguar cómo y por qué la gente utiliza la inyección indirecta de instrucciones, un riesgo cibernético al que están expuestos muchos sistemas basados en modelos de lenguaje grande [Large Language Model, LLM, por sus siglas en inglés]", comentó la empresa.

"Se trata de descripciones textuales de tareas que deben realizar los 'chatbots'. La gente puede colocar frases especiales —inyecciones— en sus sitios web y en documentos publicados en línea para que las redes neuronales den a otros usuarios una respuesta que tenga en cuenta los objetivos de los interesados", añadió.

Las soluciones basadas en LLM no solo se utilizan en los chatbots, sino también en los motores de búsqueda, donde la inteligencia artificial puede hacer resúmenes de los resultados en función de la consulta del usuario.

Como descubrieron los expertos de Kaspersky Lab, hay varias áreas en las que los usuarios utilizan este tipo de trucos. Por ejemplo, para promocionar un currículum entre otros perfiles a la hora de buscar trabajo, es decir, un solicitante escribe instrucciones a la inteligencia artificial con la petición de que responda lo más positivamente posible al candidato, pase el currículum a la siguiente fase o le dé mayor prioridad.

Las instrucciones son invisibles para el reclutador, porque suelen fundirse con el fondo de la página. Sin embargo, las redes neuronales que analizan los currículums leen estas frases.

Además, inyecciones similares se utilizan con fines publicitarios: se cuelgan en páginas web de diversos productos y servicios. Las instrucciones van dirigidas a los robots de chat de búsqueda, se les pide que den una valoración más positiva de un producto concreto en las respuestas a las consultas.

Algunos usuarios están publicando instrucciones para redes neuronales en protesta por el uso generalizado de la inteligencia artificial. Por ejemplo, un artista brasileño pidió a las redes neuronales que no leyeran, utilizaran, almacenaran, procesaran, adaptaran o replicaran determinados contenidos publicados en su sitio web.

"Hoy en día, lo más importante es evaluar los riesgos potenciales de este tipo de ciberataques. Los creadores de modelos básicos [por ejemplo, GPT-4] utilizan diversas técnicas para aumentar significativamente la complejidad de las inyecciones: desde un entrenamiento especial [como en el caso del último modelo de OpenAI] hasta la creación de modelos especiales que pueden detectar este tipo de ataques con antelación [por ejemplo, de Google]", afirmó el jefe del grupo de I+D de tecnología de aprendizaje automático de Kaspersky Lab, Vladislav Tushkanov.

También señaló que los casos de tal uso de las redes neuronales por Kaspersky no tenían intención maliciosa. Por el momento, las ciberamenazas como el phishing o el robo de datos mediante "inyecciones" son teóricas.

"Sin embargo, los ciberatacantes también están mostrando un interés activo en las redes neuronales. Para proteger las soluciones existentes y futuras basadas en grandes modelos lingüísticos, es necesario evaluar los riesgos y estudiar todos los métodos posibles para eludir las restricciones", añadió Tushkanov.

Añadir nuevo comentario

CAPTCHA
Esta pregunta es para comprobar si usted es un visitante humano y prevenir envíos de spam automatizado.
CAPTCHA de imagen
Introduzca los caracteres mostrados en la imagen.