¿Sabe tu empresa que hay dentro de su IA?

¿Sabe tu empresa que hay dentro de su IA?

Solemos asumir que la madurez tecnológica trae consigo estandarización y claridad. Sin embargo, el Foundation Model Transparency Index 2025 (FMTI) de Stanford revela una tendencia inversa inquietante: la inteligencia artificial se está consolidando como una “caja negra comercial”.

El estudio, que analiza a los trece creadores de modelos más importantes del mundo (desde OpenAI hasta la europea Mistral), muestra un desplome de la transparencia media —de 58 puntos en 2024 a 40 en 2025—. A medida que la IA se vuelve crítica para el negocio, sus proveedores han levantado muros de opacidad, creando una asimetría donde los clientes corporativos adquieren una tecnología cada vez más potente, pero cuyos ingredientes y riesgos latentes son imposibles de verificar.

¿Por qué debería importarnos esto en España?

Para un directivo español que está integrando la IA en su banco, aseguradora o despacho de abogados, esta opacidad no es un debate técnico, sino un bloqueo directo a la diligencia debida.

Muchos directivos asumen erróneamente que, ante un fallo de la IA, la responsabilidad legal recae exclusivamente sobre el gigante tecnológico que la creó. Sin embargo, el Reglamento de IA europeo (AI Act) rompe esta asunción. En su artículo 26, la norma impone obligaciones directas y sancionables a las empresas usuarias (los “responsables del despliegue”), especialmente en sectores críticos como banca o RRHH.

La ley exige que la empresa usuaria garantice la supervisión humana y la pertinencia de los datos. Si un algoritmo concede hipotecas de forma discriminatoria, el regulador pedirá cuentas al banco por falta de supervisión, no a Microsoft. Por tanto, al contratar un modelo opaco, el directivo se queda sin herramientas para cumplir la ley, asumiendo un riesgo de sanción que no puede derivar al proveedor.

Aquí radica la trampa: al ocultar los datos de entrenamiento, los proveedores impiden que sus clientes puedan auditar el cumplimiento normativo. Al contratar un modelo opaco, la empresa española no solo compra software; está firmando un cheque en blanco en materia de responsabilidad legal, asumiendo riesgos de infracción de propiedad intelectual y sesgos que no tiene capacidad de medir ni mitigar.

El riesgo se agrava porque nos pilla desprevenidos. Según el último Informe de Transparencia de las empresas del IBEX 35 sobre información responsable (2025), la falta de preparación es alarmante: tan solo tres empresas del selectivo contaban el pasado año con una política pública y explícita sobre el uso responsable de la IA. Estamos importando masivamente una tecnología de alto riesgo sin tener, en la inmensa mayoría de los casos, los protocolos internos para gobernarla.

Al contratar un modelo opaco, la empresa está firmando un cheque en blanco en materia de responsabilidad legal, asumiendo riesgos de infracción de propiedad intelectual y sesgos que no tiene capacidad de medir ni mitigar.

La huella oculta: el contagio de los pasivos tóxicos

La opacidad en el upstream (los ingredientes del modelo) supone un riesgo de contagio reputacional inmediato. Las grandes corporaciones invierten millones en depurar sus cadenas de suministro, pero la IA opaca actúa como un caballo de Troya que introduce pasivos tóxicos en organizaciones limpias.

El silencio es alarmante en tres frentes materiales:

  1. Propiedad Intelectual: Sin saber con qué datos se ha entrenado el modelo, el cliente hereda potenciales demandas por derechos de autor.
  2. Laboral: Como advertía Karen Hao en El imperio de la IA, detrás de la “magia” algorítmica existe a menudo una cadena de precariedad en el etiquetado de datos que choca con las políticas de RSC de cualquier empresa europea.
  3. Medio Ambiente: Quizás lo más grave es el coste climático oculto. Entrenar y mantener estos modelos consume cantidades industriales de recursos que no aparecen en la factura, convirtiendo al cliente en un importador neto de huella de carbono no declarada.

En un entorno de estricta vigilancia ESG, alegar ignorancia sobre cómo se entrenó la IA de tu empresa ya no es una defensa válida; es una negligencia en la gestión de proveedores.

Las grandes corporaciones invierten millones en depurar sus cadenas de suministro, pero la IA opaca actúa como un caballo de Troya que introduce pasivos tóxicos en organizaciones limpias.

IBM frente a los unicornios: la transparencia como ventaja

Los resultados del índice rompen muchos mitos y señalan el camino. Mientras que las empresas más mediáticas como xAI o Midjourney ocupan los últimos puestos (14/100), el líder indiscutible es un veterano: IBM, con 95 puntos.

El color verde se refiere a la transparencia sobre los insumos y el proceso de creación del modelo; azul, la transparencia del modelo en sí, y el rojo, al uso y despliegue del modelo hacia los usuarios finales.

Esto lanza un mensaje claro al mercado: la transparencia es la mayor garantía de fiabilidad industrial. Las empresas que se enfocan en clientes corporativos entienden que la capacidad de auditar el sistema no es opcional. Por el contrario, los modelos que se venden como “abiertos” han demostrado ser extraordinariamente opacos en cuanto al origen de sus datos.

Europa y la Ley de IA: El momento de la verdad

Aquí es donde entra en juego el actual contexto regulatorio. Con la AI Act europea entrando en vigor, la transparencia ha dejado de ser un acto de buena voluntad para convertirse en ley. El informe de Stanford anticipa que la regulación europea será el gran motor que fuerce a estas compañías a abrir sus “puertas”.

Los resultados de 2025 envían un mensaje inequívoco: la era de la adopción ciega ha terminado. Para las empresas españolas, la lección es crítica: en la selección de proveedores de IA, la visibilidad sobre los datos debe pesar tanto como la potencia de cálculo. Aceptar la opacidad hoy significa aceptar ser cómplice —y responsable final— de los riesgos ocultos que mañana aflorarán en el balance.

Comentarios

Powered by Sindyk Content
Arriba