Las bondades de los programas de inteligencia artificial (IA) como ChatGPT o Gemini ya son conocidas. Con solo darles un par de órdenes pueden redactar una monografía más o menos decente o un texto para un blog, entre tantas otras tareas. Incluso, estas herramientas ya tienen primos hermanos como Sora, que con sólo recibir unas palabras, pueden armar un clip de imágenes de un minuto, con actores y todo.
Pero parece que así como nos pueden ayudar, también nos pueden enviar al fondo del abismo. Invstigadores de IBM probaron que a ChatGPT se lo puede hipnotizar. Esto es, con la interacción, se lo puede llevar a que recomiende acciones perjudiciales para la ciberseguridad. En pocas palabras, le encontraron una enorme vulnerabilidad.
En un intento por explorar cómo los ciberatacantes podrían manipular las intenciones de los LLM (grandes modelos de aprendizaje) los investigadores pudieron hipnotizar a cinco LLM populares como ChatGPT para realizar actividades maliciosas.
Con sólo interactuar con ellos de manera inescrupulosa, los técnicos de la empresa norteamericana lograron que el programa termine recomendando que el usuario ofrezca sus datos confidenciales o, incluso, provea código vulnerable.
Es un problema que parece no tener solución. Ocurre que estos programas de IA generativa tiene esta característica, si solo si, son nutridos permanentemente por miles de usuarios. Y de esa interacción van aprendiendo y sumando “inteligencia”.
El problema es que, por el espíritu abierto de la IA generativa, algunos de estos usuarios pueden llevar deliberadamente esa interacción adonde más les conviene, haciendo que estos programas den consejos que perjudicarán al usuario común.
“Debería haber una forma de resolverlo. Me parece que la clave está en concientizar y educar a las personas. Esto es, no dar por sentado que el texto que ofrezca el ChatGPT es limpio. Cualquiera pudo interactuar con él para manipularlo, para que responda de manera ‘incorrecta’. Con estos programas hay que actuar como con cualquier otro de la web. Sabiendo lo qué hay que compartir y lo qué no. Y no creer que lo que aconseja siempre es lo que hay que hacer”, dice a Clarín Pamela Skokanovic, gerente de IBM Security para Argentina, Paraguay y Uruguay.
Pero el mayor riesgo es que estos LLM comiencen a ser bombardeados por hackers y así comiencen a dar consejos perjudiciales que pongan en jaque la ciberseguridad de sus usuarios.
Consultado por Clarín sobre si es posible hipnotizar a un programa de IA, Luis Corrons, experto en seguridad digital de la empresa Avast, no anda con vueltas: “Claro, cualquier inteligencia artificial puede ser entrenada para actuar de cierta manera, incluso puede ser manipulada“, sostiene.
Y agrega: “No es que precisamente la inteligencia artificial, como ChatGPT, sepa lo que es correcto o incorrecto, simplemente es que ha sido entrenada para ‘actuar de la mejor manera posible’, sin embargo, si nosotros damos una instrucción tratando de manipular al sistema, podemos obtener un resultado diferente al ‘correcto’”.
Un mal que no para de crecer
Con todo, ya cada 11 segundos se produce un ciberataque. Además, Red Hat Insights encontró que el 92% de sus clientes tienen al menos una vulnerabilidad o exposición conocida no abordada, que puede ser explotada en su entorno. Y el 80% de las diez vulnerabilidades principales detectadas en todos los sistemas en 2023 recibieron una puntuación de gravedad ‘alta’ o ‘crítica’.
¿El futuro? Según un análisis de IBM X-Force, cuando una sola tecnología de IA generativa se acerque al 50% de participación de mercado o cuando el mercado se consolide en tres tecnologías o menos, podría llegarse a la madurez de la IA como superficie de ataque, movilizando una mayor inversión en diferentes herramientas por parte de las organizaciones de ciberdelincuentes.
Como la IA ya no se podrá detener, al menos se le busca poner un freno, “Se está avanzando en la regulación de la IA. En Europa se está planteando que la IA podría tener diferentes niveles de consumo. Esto es, que la gente común podría tener un determinado acceso, los expertos otro nivel, y así”, cierra Skokanovic.
SL