Tendencias
Ciberseguridad
IA
Tecnología

Ciberseguridad e IA: manual de buenas prácticas

El Centro Criptológico Nacional facilita una aproximación sobre la convergencia de la ciberseguridad y la inteligencia artificial en un contexto en el que las líneas entre ambas disciplinas se funden.

IA generativa

El Centro Criptológico Nacional (CCN-CERT) ha publicado un manual de buenas prácticas en materia de ciberseguridad e inteligencia artificial (IA). Se trata, dicen, de una aproximación sobre la convergencia de ambas disciplinas en un contexto en el que las líneas fronterizas entre ambas parecen fundirse. La IA generativa se ha convertido, hoy día, en una herramienta valiosa en una gran variedad de campos, desde la creación de arte hasta la síntesis de datos. En el contexto de la ciberseguridad, la citada tecnología puede alzarse como una solución o como una amenaza potencial, según el organismo público.

Entre los beneficios que plantea en el campo de la ciberseguridad, el informe recoge cuatro grandes apartados. El primero de ellos, la generación de datos sintéticos. La IA generativa puede utilizarse para crear conjuntos de datos sintéticos que simulan tráfico de red o comportamientos de usuarios, sin comprometer datos reales. Estos datos pueden ser utilizados para entrenar sistemas de detección de intrusos sin violar la privacidad del usuario. Por otro lado, destaca la simulación de ataques a través de redes generativas adversarias (GANs). De esta forma, detallan, es posible simular cómo actuaría un atacante, permitiendo a las organizaciones probar la robustez de sus sistemas y realizar mejoras antes de que ocurran incidentes reales.

La IA generativa puede ayudar a crear escenarios realistas de pruebas de penetración, mejorando las prácticas tradicionales que a menudo se basan en escenarios predefinidos y menos dinámicos. Por último, insisten, puede ser útil en el reforzamiento del aprendizaje, donde un agente (la red generativa) y un adversario (la red discriminativa) trabajan en conjunto. Esta técnica puede ser utilizada para enseñar a sistemas de ciberseguridad cómo mejorar su detección y respuesta a amenazas en tiempo real.

 

Desafíos a los que plantar cara

A pesar de las ventajas inequívocas, a ojos del CCN-CERT son más las amenazas y desafíos provocados por la IA generativa en el ecosistema ciber. En este apartado destacan las vulnerabilidades durante y después del entrenamiento del modelo; la violación de la privacidad de los datos personales; la exposición de la propiedad intelectual; jailbreaks y soluciones de ciberseguridad para que los usuarios enseñen a los modelos generativos a trabajar en contra de sus reglas establecidas…. También hay cabida para la creación de nuevo malware y la sofisticación de ataques; nuevos reductos para el phishing y engaños; manipulación y falsificación de datos, o deepfakes capaces de explotar ataques dirigidos para engañar y comprometer la seguridad de una empresa u organización.

 

Manual de buenas prácticas

Así, puesto que el empleo de la IA generativa presenta múltiples desafíos, el CCN-CERT ha considerado que no está de más definir algunos consejos y buenas prácticas en lo relativo a la ciberseguridad. Entre ellos se encuentran las siguientes advertencias:

Leer atentamente las políticas de seguridad de los proveedores de IA generativa. Tras las protestas iniciales por la falta de transparencia de ciertos proveedores de IA generativa en el entrenamiento de sus modelos, muchos de ellos han empezado a ofrecer una amplia documentación explicando cómo funcionan sus herramientas y en qué se basan los acuerdos con los usuarios. Para saber qué ocurre con los datos de entrada, hay que consultar las políticas de los proveedores sobre eliminación de datos y plazos, así como qué información utilizan para entrenar sus modelos. También es una buena práctica buscar en su documentación menciones a la trazabilidad, el historial de registros, la anonimización y otras funciones que pueda necesitar para cumplir requisitos normativos específicos. Y lo que es especialmente importante: hay que buscar cualquier mención a las opciones de inclusión y exclusión voluntarias y cómo elegir que los datos se utilicen o almacenen.

No introducir datos sensibles cuando se utilicen modelos generativos. La mejor manera de proteger los datos más sensibles es mantenerlos fuera de los modelos generativos, especialmente de aquellos con los que no se está familiarizado. A menudo es difícil saber qué datos pueden utilizarse o se utilizarán para entrenar futuras iteraciones de un modelo generativo, por no mencionar cuántos de los datos corporativos se almacenarán en los registros de datos del proveedor y durante cuánto tiempo. En lugar de confiar ciegamente en los protocolos de seguridad que estos proveedores puedan tener o no, es mejor crear copias sintéticas de los datos o evitar por completo el uso de estas herramientas cuando se trabaja con datos sensibles.

Mantener actualizados los modelos de IA generativa. Los modelos generativos reciben actualizaciones periódicas y, a veces, esas actualizaciones incluyen correcciones de errores y otras optimizaciones de seguridad. Es necesario estar atento a las oportunidades de actualizar las herramientas para que sigan siendo eficaces.

Formar a los empleados sobre el uso adecuado. Es sabido que las herramientas de IA generativa son fáciles de usar y, por tanto, de utilizar indebidamente. Es importante que los empleados sepan qué tipo de datos pueden utilizar como entradas, qué partes de su flujo de trabajo pueden beneficiarse de las herramientas de IA generativa y cuáles son las expectativas de cumplimiento normativo, todo ello, además del cumplimiento de las obligaciones normativas generales de la organización respecto del uso de los medios electrónicos.

Utilizar herramientas de gobierno y seguridad de datos. Estas herramientas pueden proteger toda su superficie de ataque, incluidas las herramientas de IA generativa de terceros que pueda estar utilizando. Hay que considerar la posibilidad de invertir en herramientas de prevención de pérdida de datos, inteligencia de amenazas, plataforma de protección de aplicaciones nativas de la nube (CNAPP) y/o detección y respuesta ampliadas (XDR).

La IA está impactando directamente en el campo de la ciberseguridad, ofreciendo soluciones innovadoras para la detección y prevención de amenazas, el análisis de comportamiento y la respuesta automática a incidentes. Sin embargo, como toda tecnología emergente, la IA no está exenta de desafíos y limitaciones. “A pesar de su potencial transformador, las expectativas hacia la IA deben ser equilibradas con un entendimiento claro de sus restricciones”, aconseja el survey. Unos desafíos que no solo han de abarcar aspectos técnicos como la calidad del entrenamiento de datos o la interpretación de resultados, sino también dilemas éticos y preocupaciones sobre la privacidad.



TE PUEDE INTERESAR...

Accede a la cobertura de nuestros encuentros
 
Lee aquí nuestra revista digital de canal

DealerWorld Digital

 

Forma parte de nuestra comunidad
 
¿Interesado en nuestros foros? 

 

Whitepaper

Documento Pure Storage y Kyndryl INFRAESTRUCTURAS