1 de febrero de 2026 • Coyprot • 1 min de lectura
La IA en la seguridad: oportunidades y riesgos (2026)
La IA en la seguridad: oportunidades y riesgos
La adopción de modelos de Machine Learning (ML) y Large Language Models (LLMs) en seguridad se ha acelerado en 2025–2026. Estos modelos permiten desde clasificación de eventos hasta generación de playbooks y automatización de respuesta.
Casos de uso relevantes
- Detección de anomalías en tráfico de red mediante modelos no supervisados.
- Clasificación automática de alertas para reducir ruido (alert triage).
- Enriquecimiento de inteligencia de amenazas (IOC extraction).
- Generación de informes y resúmenes ejecutivos mediante LLMs.
Riesgos y consideraciones
- Datos sesgados: modelos entrenados con telemetría incompleta producen falsos positivos/negativos.
- Adversarial ML: ataques que manipulan entradas para evadir detección.
- Observabilidad y explicabilidad: es crítico mantener trazabilidad de decisiones.
Ejemplo práctico: detección simple con scikit-learn
# Clasificador básico de anomalías (ejemplo didáctico)
from sklearn.ensemble import IsolationForest
import numpy as np
# features: [bytes_sent, bytes_recv, unique_ports]
X = np.array([
[1024, 2048, 2],
[100000, 10, 20],
[500, 1200, 1],
])
clf = IsolationForest(random_state=42).fit(X)
print(clf.predict(X))
Recomendaciones
- Implementar ML en un ciclo seguro: entrenamiento -> validación -> despliegue -> monitorización.
- Usar explainability (SHAP/LIME) para justificar detecciones críticas.
- Mantener humanos en el loop para decisiones sensibles (remediación automática con aprobación humana).
Nota: este artículo resume tendencias recientes. Para una implantación segura podemos diseñar un POC adaptado a su telemetría.