Logo

Expertas: La infraestructura crítica debe ser monitoreada con IA y supervisión humana

Por Erick Murillo | 2 de Sep. 2025 | 10:04 pm

Para especialistas en materia de ciberseguridad, la infraestructura de servicios críticos debe ser monitoreada con uso de herramientas de Inteligencia Artificial (IA), pero con supervisión humana.

Así lo manifestaron Maga Masís, abogada en derecho informático y experta en ciberseguridad y Paula Brenes, presidenta de la Fundación YOD, que participaron en el conversatorio Ciberseguridad Predictiva y Resiliencia Digital en la Era de la IA, parte del Summit de la Industria IT y sus Perspectivas Globales.

"Los servicios de infraestructura crítica debería estar monitoreados por Inteligencia Artificial y controles humanos más predictivos.

Me preocupa que en infraestructura crítica delegar en los equipos de IA esas decisiones puedan afectar esa infraestructura", señaló Brenes, quien enfatizó que la forma de combatir un ciberataque que use Inteligencia Artificial es con IA.

Por su parte, Masís se refirió a las capacidades proactivas y reactivas de los sistemas de monitoreo de amenazas de ciberseguridad.

"Estamos todavía en un tiempo en que los sistemas están en capacidad reactiva, sí hay una capa predictiva, sí existe, pero creo que no deberíamos estar a un punto en el que sea 100% IA, sino que tiene que haber filtro de entrada y salida, sí tiene que haber un humano que no necesariamente tenga que accionar en el momento, pero sí supervisar, y hacer esa supervisión va a requerir comprender mucho del modelo más a fondo", explicó la especialista.

De igual manera, ambas profesionales hicieron un llamado a tener cuidado con los falsos positivos que se pueden generar y que podrían dar resultados erróneos.

"Podríamos tener tantos falsos positivos que se podría decir: estoy bajo ataque.

En mi opinión, la tecnología está siendo construida mal, no es segura por diseño, tenemos que cuestionar el verdadero problema de la seguridad, quien está detrás de la tecnología, no la están haciendo con las personas en el centro y la Inteligencia Artificial por todos", añadió Brenes Ramírez en la actividad organizada por la Universidad Latinoamericana de Ciencia y Tecnología (Ulacit), la Cámara de Tecnologías de Información y Comunicación (Camtic) y Forums Global.

Origen de los datos

Durante su conversación, se refirieron a cómo proteger los modelos de IA de contraataques de envenenamiento de datos y filtraciones.

"Podemos pensar en la separación de datos, también incluso con lo que tiene que ver con la trazabilidad, de dónde viene, la limpieza y la higiene de los datos como tal y entender el proceso de mitigarlo por medio de crear barreras", recomienda Masís sobre la segregación de datos, diferenciar cuáles son críticos y sensibles, volver a la cero confianza, así como cuestionar la fuente de los datos, que generan sesgos en los resultados de los modelos con que se entrena la IA.

 

Comentarios
0 comentarios
OPINIÓNPRO