La inteligencia artificial (IA) está irrumpiendo en las empresas a un ritmo acelerado, impulsada por la adopción espontánea de chatbots y asistentes basados en IA por parte de los empleados.

Si bien esta tendencia promete aumentar la productividad, también plantea serios riesgos para la seguridad de los datos.

Un estudio realizado por Check Point Software y Vanson Bourne revela que el 92% de las empresas a nivel global permiten el uso de herramientas de IA generativa por parte de sus empleados, a pesar de las preocupaciones sobre la seguridad y la filtración de información.

De hecho, un informe de Menlo Security indica que el 55% de las pérdidas de datos se deben al uso incipiente de IA generativa.

La razón principal de estos riesgos reside en la incapacidad de las soluciones tradicionales de protección de datos para detectar y prevenir la filtración de información en aplicaciones basadas en IA. Las soluciones tradicionales se basan en palabras clave y patrones estáticos predefinidos, que no comprenden el contexto de los datos no estructurados típicos de estas solicitudes, explica Check Point.

Frank Dickson, vicepresidente del grupo de seguridad y confianza de IDC, afirma: Los CISOs están buscando formas de gestionar de forma segura el uso de aplicaciones con esta tecnología en toda la empresa.

Ante este panorama, surge una nueva generación de soluciones de seguridad diseñadas específicamente para proteger los datos en entornos de IA generativa.

Check Point, por ejemplo, ha lanzado un sistema que identifica los servicios de IA generativa utilizados por una empresa, evalúa su riesgo y aplica protección de datos basada en IA para prevenir riesgos adicionales.

Esta clase de soluciones permite aplicar políticas personalizadas para evitar la fuga de datos y restricciones de copiar y pegar para proteger información confidencial alojada en diferentes aplicaciones.

A pesar del riesgo, las organizaciones están abrazando la IA como herramienta de ciberseguridad.Un 75% de los encuestados por Check Point y Vanson Bourne utilizan GenAI desde hace más de un año para mejorar la seguridad cibernética, destacando la mejora en la respuesta a incidentes y la detección de amenazas sofisticadas.

Las herramientas impulsadas por IA ofrecen una mejor comprensión del comportamiento del usuario y las anomalías, aunque hay diferencias regionales en cuanto a su eficacia.

Mientras que el 50% de los profesionales de Asia-Pacífico consideran que GenAI optimiza las operaciones de seguridad y la asignación de recursos, los europeos muestran mayor escepticismo en cuanto a su capacidad para mejorar la prevención y detección de amenazas.