Repensar la ciberseguridad y la innovación desde la inteligencia artificial

La inteligencia artificial agentiva, también conocida como agentic AI, se perfila como uno de los avances más disruptivos en el mundo empresarial y académico. Según un reciente informe de McKinsey (2025), a un año de su implementación en diversos sectores, los resultados muestran aprendizajes clave que pueden marcar la diferencia entre el éxito y el fracaso de estos sistemas

ChatGPT. (2025). Ilustración futurista de un ecosistema de agentes de inteligencia artificial trabajando en sinergia con personas [Imagen generada por inteligencia artificial]. OpenAI. https://chat.openai.com/

¿Qué es la IA agentiva y por qué importa?

La IA agentiva combina modelos generativos con la capacidad de ejecutar procesos complejos de manera autónoma. A diferencia de las automatizaciones tradicionales, estos agentes pueden interactuar con información no estructurada, tomar decisiones y coordinar múltiples pasos de un flujo de trabajo. Esto representa un potencial enorme para sectores como la educación superior, la ciberseguridad y la gestión administrativa en universidades.

  • Lección 1: El valor está en el flujo de trabajo, no en el agente

McKinsey destaca que muchas organizaciones caen en el error de enfocarse solo en la herramienta. El verdadero impacto surge cuando se rediseñan procesos completos, integrando a las personas con los agentes y generando sistemas de retroalimentación continua. En un contexto académico, esto podría significar pasar de simples chatbots estudiantiles a plataformas que acompañen al docente en la evaluación, la retroalimentación y la detección temprana de riesgos de deserción.

  • Lección 2: Los agentes no siempre son la solución

No todo proceso requiere un agente de IA. Existen tareas repetitivas que se resuelven mejor con reglas automatizadas o analítica predictiva. La clave está en identificar cuándo un flujo de trabajo es suficientemente complejo y variable para justificar el uso de agentes. En la seguridad informática universitaria, por ejemplo, puede ser más eficiente aplicar algoritmos de predicción para detectar intrusiones que desplegar agentes costosos y poco precisos.

  • Lección 3: Evitar el “AI slop” y construir confianz

Uno de los riesgos más señalados es la baja calidad de resultados, que mina la confianza de los usuarios. La recomendación es clara: entrenar a los agentes como si fueran nuevos colaboradores, con manuales, retroalimentación y métricas de desempeño. En la práctica, esto se traduce en indicadores como tasas de éxito de tareas, precisión en la recuperación de información o alineación semántica con los objetivos.

  • Lección 4: El rol de la evaluación continua

El artículo enfatiza que el éxito de la IA agentiva depende de sistemas de evaluación robustos. Esto abre un espacio para que universidades y centros de investigación se conviertan en laboratorios vivos donde la comunidad académica pueda medir el impacto real de la IA en productividad, seguridad y procesos pedagógicos.

  • Lección 5: Sinergia entre personas y máquinas

Más allá de reemplazar funciones, los agentes funcionan mejor cuando potencian las habilidades humanas. La construcción de un entorno ciberseguro en la educación superior pasa precisamente por esta sinergia: agentes que monitorean incidentes, docentes que interpretan patrones y estudiantes que desarrollan competencias digitales críticas.

  • Lección 6: Gobernanza y orquestación tecnológica

Finalmente, el informe sugiere que el despliegue exitoso de la IA requiere marcos de orquestación abiertos (como AutoGen o LangGraph). Esto asegura que los agentes puedan integrarse con sistemas existentes y responder de forma coherente. Para universidades como la UNAD, significa avanzar hacia un ecosistema tecnológico gobernado, seguro y orientado a la innovación.

Conclusión

La IA agentiva no es una moda, sino un cambio profundo en la manera de trabajar, aprender y proteger la información. Las organizaciones que sepan rediseñar sus flujos de trabajo, invertir en la calidad de los agentes y fomentar la colaboración humano-máquina estarán mejor preparadas para los desafíos de la ciberseguridad y la transformación digital.

El llamado es claro: instituciones y empresas deben explorar estas recomendaciones, apoyarse en fuentes confiables y construir una cultura digital que garantice valor y confianza.

 Autores: Peña,H; Cardenas.L; Cardenas.N; Zambrano,L;

Vicerrectoria de Innovación y Emprendimiento

  • Centro de Desarrollo Tecnológico – Centro de Respuestas a Incidentes Informáticos

CSIRT Académico UNAD

Escuela de Ciencias Básicas Tecnología e Ingeniería

  • Maestría e Ciberseguridad | Esp. En Seguridad Informática – ECBTI
  • Semillero Ceros y Unos

 

Referencias

McKinsey & Company. (2025). One year of agentic AI: Six lessons from the people doing the work. Recuperado de https://www.mckinsey.com/capabilities/quantumblack/our-insights/one-year-of-agentic-ai-six-lessons-from-the-people-doing-the-work

ENISA. (2021). Artificial Intelligence Cybersecurity Challenges. European Union Agency for Cybersecurity. https://www.enisa.europa.eu/publications/artificial-intelligence-cybersecurity-challenges