Ciberseguridad
Inteligencia artificial

Cómo identificar y proteger la inteligencia artificial en los entornos híbridos

A medida que la IA se vuelve parte integral de los sistemas incorporados al ecosistema empresarial, es cada vez más crítico que los equipos de seguridad sepan dónde está y reduzcan sus riesgos.

inteligencia artificial ia
Foto de Tara Winstead (Pexels).

Para 2026, más del 80% de las empresas habrán utilizado API de inteligencia artificial (IA) generativa o implementado aplicaciones habilitadas por esta tecnología, según la consultora Gartner. La mayor parte de esta actividad se lleva a cabo en aplicaciones SaaS y en la nube, como WorkDay, Salesforce y Office 36. AWS, por ejemplo, ha trabajado con más de 100.000 organizaciones para adoptar aprendizaje automático habilitado por IA para respaldar contact centers, asistentes virtuales, análisis de inversiones, servicios legales y profesionales o diagnósticos médicos, entre otros.

A medida que se suman más funciones de IA a SaaS y a las aplicaciones en la nube, es cada vez más importante incorporar las aplicaciones a programas de gobernanza, riesgo y cumplimiento (GRC). Y eso significa examinar más de cerca el uso de los datos y las estrategias de protección, según los expertos. “Una estrategia de IA es tan buena como el plan de datos”, afirma Brad Arkin, director de confianza de Salesforce. “Las organizaciones que adoptan esta tecnología deben equilibrar la confianza con la innovación. Tácticamente, eso significa que las empresas deben, por ejemplo, tomarse tiempo para clasificar datos e implementar políticas específicas”.

 

Cómo identificar y comprender los puntos ciegos relacionados con la IA

Es más fácil decirlo que hacerlo, dada la profundidad a la que se extienden estas capas de IA debajo de la superficie. Por ejemplo, Salesforce, que atribuye un aumento del 11% en los ingresos en el año fiscal 2024 a su plataforma unificada de IA Einstein 1, integra la IA en módulos prediseñados que respaldan el servicio al cliente, el comercio, marketing y ventas. Estos módulos se integran con aplicaciones de IA de terceros, como chatbots, que se conectan a lagos de datos seguros para su recuperación y, opcionalmente, a bases de datos locales, según la configuración.

"Existen herramientas de IA generativa de código abierto, gratuitas y de pago (miles de ellas) y las empresas están innovando para hacerlas útiles de nuevas maneras", dice Matthew Rosenquist, CISO y estratega de ciberseguridad de Mercury Risk and Compliance. “¿Quiere redactar contratos, revisar montones de currículums, redactar informes de estado, crear contenido de marketing rico en medios? Hay una generación de IA para eso y mucho más. Todos los departamentos querrán empezar a utilizar esta nueva tecnología disruptiva. La pregunta es: ¿qué datos y sistemas sensibles se están procesando o exponiendo? ¿Y a qué otros sistemas de terceros se conecta la aplicación de IA? Estos son tremendos puntos ciegos”.

Rosenquist señala un cliente anterior que quería reemplazar su mesa de ayuda humana con un chatbot de IA para restablecer contraseñas. Ese robot, afirma, validaría al usuario y restablecería las contraseñas corporativas para el departamento de TI, lo que supondría un gran ahorro de tiempo, pero el sistema requeriría acceso administrativo a sistemas de credenciales confidenciales que quedarían expuestos a Internet sin realizar pruebas, investigaciones y controles exhaustivos. proteccion. “La tecnología disruptiva es poderosa, pero también conlleva riesgos equitativos que deben gestionarse”.

 

La IA insegura conectada a sistemas vulnerables puede causar grandes problemas

Los vectores de amenazas como el DNS o las API que se conectan a repositorios o lagos de datos backend o basados ??en la nube, particularmente a través de IoT (Internet de las cosas), constituyen dos vulnerabilidades importantes para los datos confidenciales, añade Julie Saslow Schroeder, directora jurídica y pionera en IA y leyes de privacidad de datos y plataformas SaaS. "Al instalar chatbots inseguros que se conectan a sistemas vulnerables y permitirles acceder a sus datos confidenciales, podría violar todas las regulaciones de privacidad globales que existen sin comprender y abordar todos los vectores de amenazas". 

Resolver estos problemas no será fácil, indica, y ??requerirá la experiencia multidisciplinaria adecuada, incluidos desarrolladores, científicos de datos, ciberseguridad, cumplimiento legal, de riesgos y regulatorio, y otros grupos.

Cuando se trata de evaluar el uso de la IA, las unidades de negocios desempeñan un papel clave en la configuración de la política de IA y la gestión del riesgo de la IA, dice Renee Guttmann, ex CISO de Coca Cola y otras organizaciones Fortune 500. Esto incluye ayudar a identificar dónde se ha adoptado la IA. "El descubrimiento inicial comienza con las relaciones con las unidades de negocio para ayudar a identificar si la IA está entrando por la puerta trasera", explica.

Para ilustrar su punto, se refiere a una encuesta de Gartner de octubre de 2023 a 2.400 CIO globales. En ella, el 45% dice que está comenzando a trabajar con sus pares de la alta dirección para reunir al personal de TI y de negocios para codirigir la entrega digital, mientras que el 70% dice que la IA generativa es una tecnología revolucionaria que está avanzando rápidamente en esta democratización. de entrega digital más allá de la función de TI.

 

SSPM y otras herramientas pueden ayudar a identificar y proteger los componentes de la IA

Guttmann también aconseja a los CISO que hablen con sus proveedores de soluciones de seguridad sobre la funcionalidad que tienen en sus productos para abordar el riesgo de IA. Capacidades como la gestión de la postura de seguridad (SSPM) de SaaS pueden escanear aplicaciones y marcar herramientas de inteligencia artificial que se han integrado con aplicaciones SaaS principales para proporcionar visibilidad del nivel de riesgo de cada herramienta, así como de los usuarios que la autorizaron y la utilizan activamente. "Esto permitirá a las organizaciones comprender cómo se utiliza la IA dentro de su organización y si se están siguiendo las políticas de gobernanza de la IA de la organización".

Evaluar de manera integral cada instancia de SaaS, nube y de terceros para detectar riesgos de datos confidenciales nunca ha sido fácil dadas sus diferentes configuraciones y protocolos, según Philip Bues, gerente de investigación de seguridad en la nube de IDC. La incorporación de la IA, afirma, hace que esto sea aún más desafiante. “Si bien no existe una forma automatizada de encontrar todas las instancias de IA que se ejecutan en la nube, SaaS y aplicaciones de terceros, existen algunas herramientas de descubrimiento que son más adecuadas para esta misión. El análisis de registros, por ejemplo, puede ayudar a las organizaciones a comprender y controlar qué IA se utiliza, dónde y con qué propósito”.

Ayuda a dividir el descubrimiento en tres partes: IA alojada internamente, como servicio, o SaaS impulsado por IA, según Michael Rinehart, vicepresidente de inteligencia artificial de Securiti.ai. “No sólo hay que descubrir dónde se encuentran estos activos, sino que también es necesario evaluar su riesgo. Sí, es posible que estés descubriendo aplicaciones SaaS, pero no necesariamente sabes si funcionan con IA y no conoces los términos de uso de cómo gestionan los datos y el entrenamiento de IA”, señala.  

 

Hacer que la IA y el uso de datos cumplan con las normas

Guttmann también recomienda revisar las aplicaciones SaaS y las integraciones de API SaaS de terceros para el gobierno de datos. "Por ejemplo, los proveedores de seguridad SaaS ayudan a las empresas a comprender y gestionar mejor el comportamiento y el riesgo de su ecosistema SaaS", afirma.

AWS, Azure, Google y otros proveedores de nube confiables tienen sus propios controles de seguridad integrados en sus modelos de IA, junto con controles opcionales que los equipos de seguridad pueden y deben aprovechar para proteger su uso de IA.

Dinis Cruz, fundador de The Cyber ??Boardroom, es un firme defensor de la capacidad de configuración integrada de las aplicaciones SaaS y en la nube para garantizar un entorno más seguro que respalde su negocio basado en IA.

En entornos de nube grandes, como AWS Bedrock, tiene acceso a modelos de solo lectura que no aprenden de datos confidenciales, no retienen ningún dato y pueden aprovechar los controles de seguridad existentes para administrar los datos expuestos a los modelos ( como autenticación, autorización, DLP, observabilidad y más).

"Todo el modelo de seguridad se centra en las indicaciones de la IA enviadas al mejor modelo para la tarea en cuestión, lo que reduce drásticamente la superficie de ataque", afirma Cruz. "Aportamos nuestro propio contenido y espacio en el que los modelos deberían operar, y eso es controlable".

 

La seguridad de la IA como responsabilidad compartida entre proveedores y clientes

Arkin dice que la seguridad es una responsabilidad compartida entre el proveedor de nube/SaaS y los clientes empresariales, enfatizando controles de detección opcionales como monitoreo de eventos y pistas de auditoría que ayudan a los clientes a obtener información sobre quién accede a sus datos, con qué propósito y el tipo de procesamiento que se realiza. 

También señala los servicios de confianza de Salesforce, como Shield Platform Encryption, Event Monitoring y Einstein Data Detect, para clasificar datos en lagos de datos seguros de Salesforce y configurar políticas de protección de datos. En un nivel más detallado, la “capa de confianza” Einstein AI de Salesforce brinda a los clientes opciones sobre recuperación segura de datos y conexión a tierra dinámica para la provisión segura de indicaciones de AI con contexto, junto con enmascaramiento de datos y retención cero de datos para proteger la privacidad y seguridad de los datos confidenciales cuando el mensaje se envía a un modelo de lenguaje grande de terceros.

No todo el mundo está de acuerdo en que esta “responsabilidad compartida” esté protegiendo eficazmente los datos confidenciales procesados ??y almacenados en las nubes y SaaS, dado el historial de violaciones que involucran configuraciones incorrectas por parte de los usuarios. Agregue la IA, con todas sus formas y capas, y ciertamente complica las cosas.

“Este no es un problema que pueda solucionarse utilizando herramientas tradicionales, por así decirlo. Si hay múltiples vías para ayudar a solucionar un problema empresarial, deberíamos analizarlas todas”, afirma Steve Dufour CISO de Embold Health, un servicio de recomendación médica que está innovando con la IA. "Y realmente hay que tener un buen estilo de comunicación interna y un buen programa de capacitación para ayudar a educar a los empleados sobre lo que realmente están haciendo".



TE PUEDE INTERESAR...

Accede a la cobertura de nuestros encuentros
 
Lee aquí nuestra revista digital de canal

DealerWorld Digital

 

Forma parte de nuestra comunidad
 
¿Interesado en nuestros foros? 

 

Whitepaper

Documento Pure Storage y Kyndryl INFRAESTRUCTURAS