Con la creciente popularidad de las redes neuronales, no solo surgen nuevas aplicaciones sorprendentes, sino también nuevas amenazas. Una de las más intrigantes —y preocupantes— es el uso de redes neuronales para ocultar malware mediante técnicas de esteganografía.
¿Qué es la esteganografía?
La esteganografía es el arte de ocultar mensajes dentro de otros elementos, de forma que pasen desapercibidos. Aunque la técnica tiene miles de años de antigüedad (hay registros de su uso desde el 500 a.C.), su auge llegó con la era digital. Tradicionalmente, se han utilizado archivos multimedia como imágenes o audios para esconder información, ya que permiten modificar algunos bits sin que se note a simple vista.
Ahora, con los modelos de redes neuronales —que pueden ocupar cientos de megabytes o incluso gigabytes—, se abre una nueva puerta: ocultar información directamente en los pesos del modelo.
Cómo se oculta malware en los pesos de una red neuronal
Los pesos son los valores numéricos que determinan cómo una neurona procesa sus entradas. Una red típica puede tener millones de ellos. Esto permite aplicar una técnica clásica de esteganografía: modificar el bit de menor peso (el menos significativo) en cada valor.
La idea es sencilla: se toma el malware, se divide en bits, y se va incrustando uno a uno en los bits de menor peso de los pesos del modelo. Estos cambios son tan pequeños que, en la mayoría de los casos, no afectan significativamente el rendimiento de la red. La red podría dar resultados ligeramente menos precisos, pero nada evidente a simple vista.
Eso sí, esta técnica no sirve en todos los casos. Los modelos cuantizados, que usan menos bits por peso (4 o incluso 2), son mucho más sensibles. En estos casos, hasta una pequeña modificación puede dañar gravemente el rendimiento del modelo.
Otra técnica: modificar pesos enteros
Una alternativa, más robusta, es modificar unos pocos pesos completamente, en lugar de solo un bit. El truco está en que estos nuevos valores se mantengan dentro del rango estadístico habitual de los pesos de la red. Así se evita que destaquen o que degraden el comportamiento del modelo.
Esta técnica, según algunos estudios, puede ser incluso más efectiva. Y si la calidad del modelo se ve afectada, se puede reentrenar la red, congelando los pesos modificados y permitiendo que los demás se ajusten para compensar.
Técnica avanzada: overfitting controlado
Una tercera técnica más sofisticada y exclusiva de redes neuronales consiste en provocar overfitting de forma intencionada para una única entrada concreta.
Por ejemplo, se entrena un modelo de lenguaje para que, solo cuando reciba una frase específica como input (por ejemplo, «<malware>»), devuelva una salida exacta: ya sea un script, una secuencia codificada en base64, o cualquier tipo de dato malicioso. Lo notable de este método es que no requiere acceso a los pesos del modelo. Basta con acceder a la API y lanzar la consulta específica para recuperar el contenido oculto.
¿Cómo podemos protegernos?
El gran problema con la esteganografía es que nunca puedes estar completamente seguro de si un archivo está limpio o contiene datos ocultos.
Una opción defensiva sería combatir el fuego con fuego: aplicar las mismas técnicas de modificación del bit de menor peso o reentrenar el modelo para destruir posibles cargas maliciosas. Sin embargo, esto tiene un coste considerable en recursos y tiempo. No parece una solución viable salvo que se requiera seguridad a nivel militar.
Lo más razonable, por ahora, es aplicar el sentido común: descargar modelos solo de fuentes fiables y verificadas. Aunque hoy estas técnicas puedan parecer experimentales, es muy probable que en el futuro cercano se conviertan en vectores reales de ataque.
Conclusión
Ocultar malware en redes neuronales no es ciencia ficción. Es una posibilidad técnica real, con varios métodos probados, y que puede volverse más común conforme el uso de modelos crezca en todos los sectores.
Por ahora, lo mejor es mantenerse informado, trabajar con fuentes de confianza y no perder de vista los desarrollos en esta fascinante —y algo inquietante— intersección entre inteligencia artificial y ciberseguridad.