IA y consejos de administración, de la ética en el papel a la gobernanza real

IA y consejos de administración, de la ética en el papel a la gobernanza real

La inteligencia artificial (IA) ya está dentro de las empresas, pero no siempre dentro del consejo de administración. Mientras los discursos sobre ética y responsabilidad se multiplican, los datos muestran una brecha incómoda: los órganos de gobierno hablan más de valores que de capacidades concretas para supervisar algoritmos, riesgos y decisiones automatizadas.

Varios informes publicados en los últimos meses dibujan el mismo mensaje: la gobernanza de la IA se ha convertido en uno de los grandes exámenes de la “G” de ASG (gobierno corporativo).

En muy poco tiempo, la inteligencia artificial ha pasado de ser una promesa lejana a un recurso cotidiano en muchas compañías: ayuda a redactar informes, resume documentación, analiza datos masivos o asiste en tareas rutinarias. Cuando se habla de IA se incluye no solo a los algoritmos tradicionales, sino también a la llamada IA generativa: sistemas capaces de crear texto, código o imágenes a partir de instrucciones sencillas, como los asistentes conversacionales que empiezan a colarse en procesos internos.

Este salto tecnológico tiene una consecuencia directa en la gobernanza. Si los algoritmos participan en decisiones que afectan a clientes, personas trabajadoras, proveedores o inversores, dejar la IA en manos exclusivas del área de tecnología ya no es suficiente.

Un informe global de Deloitte realizado en 56 países muestra una imagen clara de esta transición. Un 31% de los encuestados reconoce que la IA ni siquiera está en la agenda del consejo, aunque esa cifra ha mejorado frente al año anterior. Solo un 17% afirma que se discute en todas las reuniones, y un 19% la aborda una vez al año.

La paradoja se refuerza cuando se les pregunta por el grado de preparación. En torno al 31% de los participantes admite que su organización “no está lista” para desplegar IA a gran escala, y solo un 5% se siente “muy preparado”.

La escena global se completa con el Annual AI Governance Report 2025 de la Unión Internacional de Telecomunicaciones (UIT), que describe 2025 como “el año de los agentes de IA” y sintetiza las grandes tendencias de gobernanza. Sobre esta base, el debate ya no es si la IA debe importarle al consejo, sino cómo convertir esa preocupación en una gobernanza real, con responsabilidades claras, capacidades técnicas mínimas y métricas que vayan más allá de la retórica.

La foto global obliga a mover la silla del consejo

El estudio de Deloitte permite entender con algo más de detalle cómo están reaccionando los consejos ante la IA. Casi tres cuartas partes de los encuestados afirman que sus consejos hablan de IA con los responsables de tecnología y algo más de la mitad lo hace también con la persona que ocupa la dirección general.

El mismo informe apunta a una brecha de conocimiento que condiciona cualquier debate. Cerca de dos tercios de los miembros de consejos encuestados reconocen tener una experiencia limitada o nula en IA. Para intentar compensarlo, un 59% declara que está invirtiendo tiempo por su cuenta en formarse y un 48 % afirma que su organización ofrece ya programas básicos de educación sobre IA al consejo, aunque la otra mitad sigue sin ese soporte sistemático.

Un 31% reconoce que la IA no está en la agenda del consejo, un 17% afirma que se discute en todas las reuniones y el 19% la aborda una vez al año, según un estudio de Deloitte.

Asimismo, solo una minoría ha incorporado de forma estable especialistas en IA como consejeros, y la opción más habitual sigue siendo invitar a expertos externos puntualmente.

Sobre el papel, el ecosistema internacional se está dotando de brújulas. El informe de la UIT estructura la gobernanza de la IA en varios pilares, que van desde la traducción de principios éticos en prácticas concretas hasta la transparencia, la inclusión y la coordinación de estándares entre regiones.

A eso se suman nuevos estándares internacionales, como la norma ISO/IEC 42001 sobre sistemas de gestión de IA, y el Reglamento europeo de IA (AI Act), que clasifica los sistemas según su nivel de riesgo y exige obligaciones de gobernanza, explicabilidad y supervisión humana reforzada en los usos considerados de alto riesgo.

El resultado es un cuadro mixto con marcos y recomendaciones cada vez más sofisticados, pero un grado de adopción desigual en los consejos.

El espejo español: ética alta, capacidades cortas

En el caso de España, es destacable el estudio Gobernanza, ética e IA: retos para los Consejos de Administración, impulsado por el despacho RocaJunyent en colaboración con Ethosfera y ACC Europe, parte de una encuesta a más de cien altos directivos de empresas españolas y multinacionales.

Su conclusión principal es que solo el 46% de los consejos de administración en España cuenta con perfiles tecnológicos con formación o experiencia sólida en este ámbito.

El mismo informe refleja una paradoja: las empresas se puntúan a sí mismas con un 7,9 sobre 10 en ética y gobernanza, pero reconocen carencias importantes cuando se trata de convertir esos principios en capacidades operativas. La falta de personas con perfil tecnológico en los consejos limita la capacidad de supervisar proyectos de IA, de formular las preguntas adecuadas y de entender los riesgos que se derivan de decisiones delegadas en algoritmos.

El estudio pone nombre a otro fenómeno emergente: el techwashing. Con este término se refiere a la práctica de proyectar una imagen de modernidad tecnológica y compromiso ético más avanzada de lo que realmente existe. Un 44% de las organizaciones encuestadas admite que este fenómeno es una preocupación real dentro de su compañía y dice haber tomado medidas para atajarlo.

El ‘techwashing’ es un fenómeno emergente en las empresas que consiste en proyectar una imagen de modernidad tecnológica y compromiso ético más avanzada de lo que realmente existe

También en la gestión del riesgo algorítmico hay avances parciales. Según el mismo análisis, un 61% de las empresas ha realizado auditorías internas sobre los riesgos de sus sistemas de IA, pero únicamente un 21% recurre a validaciones externas independientes. En cuanto a su preparación para un entorno en el que la transparencia y la explicabilidad de los algoritmos sea obligatoria, las compañías españolas analizadas obtienen una nota media de 5,9 sobre 10 y reconocen no contar todavía con mecanismos robustos para garantizar la trazabilidad de los modelos.

El estudio también señala un movimiento incipiente: alrededor del 80% de las organizaciones utiliza indicadores de diversidad y el 71% mide su huella de carbono, pero solo un 32% declara tener herramientas de escucha activa o mecanismos de participación de los grupos de interés vinculados a decisiones sobre IA.

En conjunto, los datos dibujan un patrón claro: los marcos declarativos van por delante de las capacidades reales de supervisión y de las herramientas que llegan a la mesa del consejo.


NOTICIAS RELACIONADAS
¿Está tu empresa preparada para la revolución de la inteligencia artificial sostenible?
Es necesario un uso transparente y ético de la IA en las empresas


Hacia un “consejo aumentado” con agentes de IA

Mientras se consolidan estos diagnósticos, empiezan a aparecer ejemplos de cómo puede ser un consejo que integra la IA de manera más madura. Un reciente artículo de Forética describe la transición “del gobierno reactivo al gobierno aumentado” y recoge algunos hitos que ilustran hacia dónde se puede mover el gobierno corporativo.

En 2014, la firma de inversión Deep Knowledge Ventures incorporó al algoritmo Vital como miembro con voto consultivo de su consejo. Diez años después, el holding emiratí IHC nombró a Aiden Insight, un “observador virtual” capaz de analizar en tiempo real las conversaciones del consejo y aportar recomendaciones basadas en datos.

Forética plantea que estos no son casos anecdóticos, sino los primeros ejemplos de órganos de gobierno en los que las personas y los agentes de IA deliberan juntos, con la condición de que el criterio humano siga siendo quien toma la decisión final.

Ese mismo texto conecta con el Work Trend Index 2025 de Microsoft, según el cual el 82% de los líderes encuestados planea integrar agentes de IA como parte de su estrategia en los próximos 12 a 18 meses y las empresas más avanzadas duplican la probabilidad de estar prosperando frente a sus competidores. El debate, por tanto, va más allá de si los consejos usarán o no IA, sino qué papel se le dará y con qué salvaguardas.

Forética resume parte de este marco en su Manifiesto por una Inteligencia Artificial Responsable y Sostenible, elaborado junto al Consejo Empresarial Español para el Desarrollo Sostenible. El documento propone principios como asegurar sistemas lícitos, éticos y transparentes; respetar los derechos humanos y la inclusión; promover la diversidad y la equidad en los algoritmos; y reforzar la rendición de cuentas y la supervisión humana.

En paralelo, organismos como la UIT insisten en que la gobernanza de la IA requiere acciones como participar en iniciativas sectoriales, seguir la evolución de los estándares técnicos y de las buenas prácticas internacionales, y reconocer que la concentración de poder tecnológico en pocas manos puede generar riesgos que desbordan a cualquier compañía individual.

Los datos globales muestran que la mayoría de los consejos reconoce la urgencia, pero aún está construyendo capacidades. Hablar de IA en el consejo comienza a no ser una cuestión de moda, sino de supervivencia de la propia gobernanza corporativa.

Comentarios

Powered by Sindyk Content
Arriba