Resulta irónico y alarmante que: «Los hackers usan IA para atacar Gemini de Google». Pero, ¿cómo es posible que la misma inteligencia artificial que Google ha diseñado con esmero para comprender y responder al mundo, pueda ser manipulada para volverse contra sí misma? La respuesta reside en una nueva y sofisticada técnica, bautizada con un nombre engañosamente amigable: ‘Fun-Tuning’.
Entendiendo el Fine-Tuning en Modelos de IA
Para entender la génesis de este ataque, primero debemos comprender la naturaleza de los modelos de lenguaje grandes (LLMs) como Gemini. Estas IA aprenden patrones complejos a partir de vastas cantidades de datos, lo que les permite generar texto, traducir idiomas y responder preguntas con una coherencia sorprendente. Una de las claves de su versatilidad radica en la capacidad de ser «ajustados» o «fine-tuned» para tareas específicas. Este proceso implica exponer al modelo a conjuntos de datos más pequeños y especializados, permitiéndole refinar su comprensión y mejorar su rendimiento en un dominio particular.
Aquí es donde ‘Fun-Tuning’ introduce su perversión. En lugar de utilizar la API de ajuste de Gemini para mejorar su capacidad en una tarea legítima, los investigadores han descubierto cómo explotar las sutiles respuestas del modelo durante este proceso para inyectar instrucciones maliciosas de manera encubierta. Imaginen a un ladrón intentando forzar una cerradura: en lugar de usar la fuerza bruta, observa meticulosamente cada pequeño clic y resistencia del mecanismo para identificar el punto exacto de debilidad.
‘Fun-Tuning’ opera de manera similar. Al analizar cómo Gemini reacciona a diferentes entradas durante el ajuste – incluso a errores o inconsistencias – la técnica puede identificar los «prefijos» y «sufijos» lingüísticos más efectivos para ocultar comandos maliciosos dentro de la información aparentemente inofensiva. Estos fragmentos de texto cuidadosamente elaborados actúan como una llave maestra, engañando a la IA para que interprete las instrucciones del atacante como parte de su tarea de ajuste, eludiendo así las barreras de seguridad preprogramadas.
El peligro radica en la sutileza de este ataque. A diferencia de los intentos burdos de inyección de comandos que un modelo de IA podría identificar y rechazar fácilmente, ‘Fun-Tuning’ se aprovecha de la propia mecánica de aprendizaje del modelo. Es como hablar el idioma secreto de la IA, susurrando instrucciones maliciosas en un dialecto que solo ella puede entender y ejecutar.
Resultados Alarmantes y Bajo Costo de Implementación

Los resultados de las pruebas son alarmantes: tasas de éxito superiores al 80% en algunas versiones de Gemini superan con creces la efectividad de los métodos de ataque tradicionales. Lo que agrava aún más la situación es el bajo costo y la escalabilidad de ‘Fun-Tuning’. La API de ajuste de Google, ofrecida gratuitamente a los desarrolladores, se convierte paradójicamente en una herramienta accesible para los ciberdelincuentes, permitiendo la creación de ataques efectivos con una inversión mínima. Además, la capacidad de generalizar ataques entre diferentes versiones de Gemini abre la puerta a campañas maliciosas a gran escala.
La IA como Arma de Doble Filo en la Ciberseguridad
La aparición de ‘Fun-Tuning’ subraya una verdad cada vez más evidente en el panorama de la ciberseguridad: la inteligencia artificial no es solo un objetivo, sino también un arma de doble filo. La misma tecnología que promete revolucionar nuestras vidas también puede ser utilizada por actores maliciosos para desarrollar ataques más sofisticados y difíciles de detectar.
Una Advertencia sobre la Creciente Complejidad de la Seguridad en la Era de la IA
Este incidente con Gemini no es solo una vulnerabilidad específica de un modelo en particular; es una señal de alerta sobre la creciente complejidad de la seguridad en la era de la IA. A medida que los modelos de lenguaje se vuelven más poderosos e integrados en nuestra infraestructura digital, la necesidad de comprender y mitigar estas nuevas formas de ataque se vuelve primordial. La «guerra de la ciberseguridad relacionada con la IA» ha escalado un nuevo peldaño, y la defensa deberá evolucionar al mismo ritmo vertiginoso que la propia inteligencia artificial. La pregunta ahora es si podremos mantenernos un paso adelante en esta carrera armamentista tecnológica.
Fuente: https://www.vietnam.vn/es/hacker-dung-ai-de-tan-cong-gemini-cua-google