Sin ciberseguridad no hay IA
Un estudio de Forrester de abril de 2024(1) reveló que 75% de los colaboradores ya está utilizando alguna herramietna de IA Generativa en modalidad BYOIA (Bring your own IA), lo que en otros términos significa: cada quien utiliza lo que quiere, como quiere.
La falta de políticas respecto al uso de estas nuevas tecnologías puede poner a la organización en un nivel de riesgo que no todos los colaboradores alcanzan a visualziar.
“La inteligencia artifical es el más grande evento en la historia de la humanidad… y posiblemente el último si no aprendemos a manejar los riesgos…” Stephen Hawking.
En Clouzzy creemos que ninguna empresa debería estar abordando la IA sin incorporar las inquietudes sobre seguridad y privacidad de la información.
Escenarios reales (casos de uso)
- Tus colaboradores alimentaron alguna solución pública (gratuita o pagada) con información de la empresa: documentos, artículos, propuestas o contratos y están reduciendo 30% el tiempo que tardan en encontrar información y armar propuestas.
- Otro equipo cargó una muestra de alguna base de datos existente en Excel o extraída de algún sistema corporativo para pedir que la IA haga un análisis de consumo y les ayude a tomar decisiones para optimizar compras y maximizar inventarios.
Inquietudes y riesgos
Déjame listar una serie de preguntas / riesgos que, como directivo, seguramente alcanzas a ver, a diferencia de los colaboradores que están haciendo su mejor esfuerzo por ser más productivos.
Relacionadas con Privacidad:
- ¿Qué datos sensibles llevaba esa información? ¿Estamos violando alguna regulación o poniendo en riesgo algún cliente?
- ¿Algún ente externo tiene acceso a esa información cargada?
- ¿El modelo general de IA está generando aprendizaje público a partir de nuestra información de negocio?
- ¿Los competidores o el público en general pueden beneficiarse de ese aprendizaje?
Otras relacionadas con Sesgos:
- ¿Lo datos que subieron, son genuinamente representativos?
- ¿Consideran temporalidad, factores económicos, sociales, políticos, climáticos?
- ¿Tendrán alguna falla de calidad (garbage in – garbaje out)?
- ¿Cómo saber el grado de confiabilidad de los resultados?
O de responsabilidad
- ¿Qué tipo de decisiones se está tomando con base en esa data cargada?
- ¿Las decisiones están siendo tomadas por una máquina o un humano?
- ¿Cuál es/será el impacto económico y/o reputacional de esas decisiones?
- ¿A quién hago responsable?
De ética:
- ¿Es posible determinar (y controlar) la intención con la que los colaboradores realizaron esas acciones?
- ¿Pueden los modelos ser manipulados a partir de la data cargada o de alguna otra forma?
- ¿Cómo frenar un acción maliciosa?
Si haz logrado que la mayoría de tus colaboradores logre plantearse esas preguntas, o mejor aún, si en tu organización está claramente elaborada una política de uso de IA que considere estos rubros, te felicito. De lo contrario, échale un ojo al approach de Clouzzy y Microsoft aquí: Leer más respecto a la seguridad y privacidad en Copilot for Microsoft 365.
También puedes agendar con nosotros una sesión para conversar tus inquietudes. Seguro encontraremos juntos el camino.