Era inevitable, tal vez, que sucediera: la tecnología de modelos de lenguaje grande (LLM, sus siglas en inglés) podía empezar a ser utilizada contra objetivos inocentes, después de pasar por la zona gris entre el bien y el mal. Así, una vez más, una tecnología buena y sólida puede reconvertirse para fines nefastos

Eludiendo restricciones en los modelos de lenguaje

La mayoría de los modelos LLM tienen «barreras morales» para no hacer cosas malas, el equivalente digital de la máxima de la medicina de «primero, no hacer daño». Si le preguntas cómo construir un arma, por ejemplo, se le ha dado una guía de preprocesamiento para evitar que proporcione respuestas muy precisas que probablemente te permitan dedicarte a hacer grandes daños.

Pero, aunque no puedes preguntar directamente cómo construir un arma, puedes aprender a hacer mejores preguntas, con una combinación de herramientas, y aun así llegar a la respuesta.

Una forma hábil de hacerlo es mediante programación, a través de consultas a la API. Algunos proyectos publicados recientemente centran la API backend de un LLM en el objetivo de obtener acceso root en los servidores. Otro también aprovecha el backend ChatGPT para encontrar de forma más inteligente objetivos de oportunidades para atacar más tarde.

La combinación de herramientas basadas en IA con otras diseñadas para resolver otros problemas, como eludir las IP ofuscadas (hay unas cuantas) para detectar el verdadero servidor objetivo, puede resultar muy eficaz, sobre todo a medida que se vayan automatizando.

En el mundo digital, estas tácticas se pueden utilizar para crear herramientas mashup que identifiquen vulnerabilidades y, a continuación, iteren contra posibles exploits, sin que los modelos LLM constituyentes se enteren.

Esto es algo análogo a un «diseño de sala blanca», en el que se pide a un LLM que resuelva una parte constituyente más pequeña de la tarea más amplia definida por un atacante, y luego un mashup forma la constelación final que comprende el arma.

IA ofensiva y defensiva en expansión

Los modelos de IA también pueden buscar miles de millones de líneas de código en los repositorios de software existentes en busca de patrones de código inseguro y desarrollar armamento digital que luego pueden lanzar contra el suministro mundial de dispositivos que ejecutan software vulnerable. De este modo, se podría tener un nuevo lote fresco como posibles objetivos de compromiso, y un impulso para aquellos que deseen lanzar ataques de día cero.

Es fácil imaginar a las naciones-estado intensificando este tipo de esfuerzos: armamento predictivo de fallos de software ahora y en el futuro utilizando IA. Esto pone a los defensores en la «retaguardia», y provocará una especie de escalada de IA de defensa digital que parece ligeramente distópica. Los defensores crearán sus propias defensas habilitadas con IA para el blue-teaming, o simplemente para evitar ser hackeados. Esperamos que los defensores estén preparados.

Modelos que razonan y anticipan vulnerabilidades

Incluso los modelos de IA disponibles hoy en día pueden «razonar» los problemas sin sudar, reflexionando sin pensar de una manera que imita el razonamiento humano (al menos en nuestros momentos más lúcidos). Es cierto que la tecnología no evolucionará espontáneamente hasta convertirse en un socio sensible (en el crimen) a corto plazo, pero al haber ingerido montones de datos de Internet, se podría argumentar que «sabe» lo que hace y que se le puede engañar para que revele sus secretos.

Eficiencia y escala de los ataques

También seguirá haciendo cada vez más con menos, posiblemente prescindiendo de la excesiva ayuda, ayudando a los que están despojados de ataduras morales a dar un puñetazo muy por encima de su peso y permitiendo a los actores con recursos operar a una escala sin precedentes. Al parecer, algunos de los primeros presagios de lo que está por venir ya se han puesto de manifiesto como parte de los ejercicios de red team o incluso se han visto in the wild.

Una cosa es segura: la velocidad de los ataques basados en inteligencia aumentará. Desde el momento en que se publique una CVE que pueda explotarse, o se despliegue una nueva técnica, tendrás que pensar rápido; espero que estés preparado.

encuesta-ia-bannerTe invitamos a contestar un pequeño quiz y participar del sorteo de una suscripción por un año a ESET Home Security Premium. Haz clic aquí.