26/02/2026
Ya se volvió popular. La inteligencia artificial está en todo. Está en el sistema operativo que funciona en la fábrica. Está en el sistema que diseña presentaciones. Está en la creación de una imagen de algo que no existe, con una calidad inimaginable. Está en la estafa digital sin fallas. Está en la aplicación de ciberseguridad que defiende a la empresa de los fraudes digitales. Está en el audio o en el video creado de personas que ni siquiera están vivas. Está en el trabajo universitario hecho sin leer un libro. Está en la organización de un correo electrónico o de un viaje sin pensar. Está en la selección de personas para entrevistas. Todos la utilizan sin parar y en todo momento del día.
Esta es la realidad de gran parte de la población, especialmente de las empresas que están atentas a las diversas oportunidades que la IA ha traído a sus operaciones. Pero, ¿estamos preparados para usar la IA? ¿Y para sustituirla cuando no esté operando? ¿Y si falla o crea algo que no existe o copia una obra protegida por la propiedad intelectual, estamos preparados para criticarla? ¿Y si el país donde se almacenan sus nubes corta las conexiones? ¿Y si el proyecto más importante del año de la empresa se pone a disposición para entrenar a la IA?
Sí, la dependencia de esta maravillosa invención humana es cada vez más evidente. Tanto en la vida privada como en la empresarial, la IA cumple un papel fundamental en la búsqueda de la eficiencia. Pero con el tiempo, ¿qué vendrá con su uso, especialmente si no es planificado, monitoreado y si sus decisiones no son revisadas?
Las empresas aún no han prestado suficiente atención al riesgo de utilizar la IA sin una gobernanza clara para esta herramienta. El riesgo de alucinaciones en las evaluaciones de la IA, la creación de sesgos y discriminación por el uso de datos no calificados, la falta de respeto a los derechos de autor sin que la empresa lo identifique, la exposición de secretos comerciales y la ampliación de los riesgos cibernéticos son algunos ejemplos de riesgos que las empresas están sufriendo sin darse cuenta.
Además, existe un riesgo estratégico silencioso: la soberanía tecnológica. ¿Quién controla el modelo? ¿Dónde se almacenan los datos? ¿Quién puede acceder a ellos? Una empresa puede, sin percibirlo, estar entregando información sensible a terceros y a otros países, sujetos a legislaciones e intereses que escapan completamente a su control.
Por supuesto, la solución no es prohibir su uso, sino implantar una Gobernanza de Inteligencia Artificial, con reglas claras, auditoría, control de accesos, definición de herramientas permitidas, clasificación de información sensible, capacitación de colaboradores y revisión humana obligatoria para decisiones críticas. Y esto no solo porque una ley lo exija, sino porque reduce riesgos y aumenta el retorno financiero después de tantas inversiones.
La IA es inevitable y potencia los riesgos existentes. El empresario que no gobierne su uso hoy puede descubrir demasiado tarde que tercerizó el futuro de su propia empresa a un sistema que no explica, no garantiza y no asume responsabilidad. Y eso puede costar muy caro.
Bárbara Ravanello,