John Hultquist señala que, tras años de advertencias de expertos, el momento en que piratas informáticos usan la inteligencia artificial para potenciar su capacidad de irrumpir en las computadoras de todo el mundo ha llegado
Reuters y AP.- Este lunes, después de que Google impidiera a un destacado grupo de ciberdelincuentes atacar a una empresa, el analista jefe del área de inteligencia de amenazas del gigante tecnológico comentó que ya llegó «la era» en que la inteligencia artificial (IA) se puede usar para detectar vulnerabilidades en los sistemas y explotarlas.
Google compartió información limitada sobre los atacantes y su objetivo, pero John Hultquis, analista jefe del Grupo de Inteligencia sobre Amenazas de Google, señaló que lo sucedido representa un momento sobre el que los expertos en ciberseguridad han advertido durante años: los piratas informáticos utilizaron IA para descubrir un fallo de software hasta ahora desconocido.
Según la información compartida, el ataque planeado tenía como objetivo una herramienta de administración de sistemas de código abierto muy utilizada, pero fue bloqueado antes de que pudiera utilizarse como parte de un «ataque masivo».
El incidente supone la primera vez que Google identifica a atacantes que utilizan IA para descubrir una nueva vulnerabilidad e intentar explotarla a gran escala, pero partir de ahora, este uso de la IA potenciará la capacidad de los criminales para irrumpir en las computadoras del mundo.
Hultquist afirmó que los hallazgos probablemente representan la «punta del iceberg» en cuanto a cómo los delincuentes y los piratas informáticos respaldados por distintos estados están impulsando la innovación en el jaqueo mediante IA.
«Ya está aquí», expresó Hultquist. «La era de las vulnerabilidades y su explotación impulsadas por IA ya está aquí«.
Fue un modelo de lenguaje
Google afirmó que al rastrear las huellas de los hackers, encontró indicios de que los cibercriminales habían usado un gran modelo de lenguaje de IA —la misma tecnología que impulsa los populares chatbots— para descubrir la vulnerabilidad.
Sin revelar qué modelo de IA se utilizó en el ciberataque el reporte indica que lo más probable es que no fueran Gemini de Google ni Mythos de Anthropic; aunque sobre este último, Anthropic señaló que es tan capaz en tareas de hackeo y ciberseguridad que sólo podía publicarlo para un pequeño grupo de organizaciones de confianza.
Tampoco se reveló qué grupo era sospechoso de ser el culpable, pero Google dijo que no había pruebas de que estuviera vinculado a un gobierno adversario de Estados Unidos, aunque señaló que grupos vinculados a China, Rusia y Corea del Norte han estado explorando técnicas similares.

Identifica al hecho como un primer paso hacia operaciones cibernéticas más autónomas, ya que los atacantes comienzan a confiar en los sistemas de IA no sólo como herramientas de investigación, sino como componentes activos capaces de analizar objetivos, generar código y tomar decisiones con una supervisión humana limitada, según los investigadores.
Regular, sí o no
Tras cumplir una promesa de campaña de derogar las salvaguardas que puso el presidente demócrata Joe Biden en torno a la IA, el gobierno del presidente Donald Trump y sus aliados ahora envían señales contradictorias sobre el papel del gobierno en la supervisión de la IA.
«Algunas personas no quieren que haya una respuesta regulatoria a esto y otras sí», manifestó Dean Ball, investigador principal de la Foundation for American Innovation, quien anteriormente fue asesor de política tecnológica de la Casa Blanca y coautor principal el año pasado de la hoja de ruta de política de IA de Trump.
«No me gusta la regulación», comentó Ball. «Preferiría que las cosas no se regularan. Pero creo que en este caso necesitamos hacerlo«.
El incidente se produce en un momento en que los gobiernos de todo el mundo se debaten sobre cómo regular los nuevos y potentes modelos de IA que permiten hacer estos ataques.
También recuerda las recientes advertencias de los reguladores financieros europeos, quienes afirman que los modelos de IA están aumentando la velocidad y la escala de los riesgos cibernéticos en un momento de tensiones geopolíticas intensificadas.
Sin embargo, Hultquist explicó que, en comparación con los espías gubernamentales, que por lo general trabajan despacio y en silencio, los hackers criminales son quienes más pueden ganar con la «tremenda capacidad de velocidad» de la IA para encontrar fallos de seguridad y convertirlos en arma.



Más historias
LA MAYORIA DE LOS JOVENES USAN CHATBOTS DE IA PARA ENTRETENERSE; MUCHOS TIENEN RAZONES MAS PERSONALES Y RIESGOSAS
FAMILIAS EN FRANCIA DENUNCIAN A TIKTOK POR SUICIDIOS O TRASTORNOS MENTALES
GOOGLE DICE QUE FRUSTRO EL PLAN DE HACKERS DE USAR IA PARA AMENAZAR A OTRA EMPRESA