Inteligencia artificial: riesgos y oportunidades en la seguridad de la información

Written by: Carina Hernandes

December 9, 2024

La inteligencia artificial (IA) está revolucionando la forma en que las empresas y los profesionales se ocupan de la ciberseguridad, lo que se traduce en grandes oportunidades, pero también en riesgos. Mientras que por un lado tenemos la reducción del tiempo necesario para analizar y responder a las amenazas, por otro lado los ataques tienden a ser aún más sofisticados con la IA

Para hablar de la IA desde la perspectiva del aumento de la seguridad, cabe mencionar el informe de la Agencia de Ciberseguridad de la Unión Europea (ENISA) titulado Artificial Intelligence Threat Landscape (2023). Según el documento, la automatización de tareas, como el análisis de logs y la detección de anomalías, es una de las principales ventajas de la IA. Los algoritmos de aprendizaje automático (ML) pueden identificar patrones de comportamiento sospechoso y mitigar así las amenazas en tiempo real. Esto es fundamental en un escenario en el que el volumen de datos aumenta exponencialmente y la velocidad de respuesta es crítica para evitar brechas significativas.

Otro punto positivo es el uso de la IA predictiva para anticiparse a posibles ataques. El informe Top Security and Risk Management Trends (2024) de Gartner destaca que, mediante el análisis de vastos conjuntos de datos históricos y contextuales, la IA puede anticipar posibles vectores de ataque, lo que permite a las organizaciones reforzar sus defensas de forma proactiva. Además, las soluciones de Orquestación de la Seguridad y Automatización de la Respuesta (SOAR) utilizan la IA para responder a los incidentes de forma automatizada, reduciendo el tiempo de reacción y minimizando el impacto.

Riesgos asociados al uso de la IA

A pesar de las muchas ventajas, el informe de ENISA también señala los riesgos de la IA, advirtiendo de la posibilidad de que agentes maliciosos manipulen los algoritmos de IA para burlar los sistemas de seguridad. Un ejemplo son los ataques de envenenamiento de datos,en los que los delincuentes manipulan o corrompen los datos utilizados para entrenar algoritmos de inteligencia artificial, haciendo que el modelo aprenda incorrectamente. Esto puede corromper los conjuntos de datos, alterando los resultados de los algoritmos de detección de amenazas y creando falsos negativos.

El Instituto Nacional de Estándares y Tecnología (NIST) del Departamento de Comercio de Estados Unidos, en su informe AI Risk Management Framework (2022), también señala que con la creciente integración de la IA en las operaciones de seguridad, la dependencia excesiva de estos sistemas puede convertirse en un punto débil. Los fallos en los modelos de IA, ya sean debidos a errores de configuración o a manipulaciones malintencionadas, pueden provocar graves interrupciones y una falsa sensación de seguridad.

Otro riesgo es el propio uso de la IA por parte de los ciberdelincuentes para aumentar la eficacia de sus ataques. El informe de ENISA también analiza la amenaza de los deepfakes (vídeos, imágenes o audio manipulados mediante inteligencia artificial para crear representaciones falsas pero realistas de personas o acontecimientos) y otras formas de manipulación de contenidos generados por IA, que pueden utilizarse para campañas de desinformación y phishing (ataques en los que el atacante intenta obtener datos del usuario haciéndose pasar por una entidad de confianza).

Buenas prácticas y mitigación de riesgos

Para equilibrar los riesgos y oportunidades de la IA, es crucial que las organizaciones adopten un enfoque de Seguridad por Diseño, que integre la seguridad como parte fundamental desde el principio del proceso de creación de sistemas, software y productos. En este modelo, en lugar de añadir medidas de protección después del desarrollo, la seguridad se incorpora en cada fase, garantizando que el sistema está diseñado para minimizar las vulnerabilidades y resistir las amenazas desde el principio.

El NIST también recomienda aplicar controles estrictos y auditorías continuas a los sistemas de IA para garantizar que sus algoritmos sean transparentes y puedan validarse de forma independiente. Además, ENISA sugiere que las empresas utilicen técnicas de defensa, como la diversificación de modelos y el entrenamiento de algoritmos en entornos seguros y controlados.

El uso responsable de la IA también implica formar y capacitar a los equipos de ciberseguridad para hacer frente a las nuevas amenazas que surgen con esta tecnología. Los programas de concienciación y la formación continua, como sugiere el informe Top Security and Risk Management Trends (2024) de Gartner, son esenciales para que los profesionales se adapten a los cambios y estén preparados para hacer frente a ataques cada vez más sofisticados.

Conclusión

La inteligencia artificial representa sin duda un punto de inflexión en la ciberseguridad, ya que aporta nuevas oportunidades para optimizar y reforzar los sistemas de protección. Sin embargo, no hay que subestimar sus riesgos. Informes como Artificial Intelligence Threat Landscape de ENISA (2023), AI Risk Management Framework del NIST (2022) y Top Security and Risk Management Trends de Gartner (2024) indican que el equilibrio entre innovación y seguridad depende de un enfoque robusto y consciente, donde la implantación de la IA vaya acompañada de rigurosas prácticas de monitorización, validación y formación continua. De este modo, es posible maximizar los beneficios de la tecnología, minimizando sus riesgos y garantizando un entorno digital más seguro.

Carina Hernandes es una profesional con más de 20 años de experiencia en Seguridad de la Información. Actualmente, como Security Project Manager en Logicalis, sobresale en gobernanza, riesgos, cumplimiento, gestión de servicios TI, SoD y auditoría de ITGC, contribuyendo en proyectos estratégicos para grandes multinacionales.
If you are enjoying our content, kindly consider sharing this post with your community on social media.
Share This