Más de la mitad de la sociedad desconfía de la inteligencia artificial

Más de la mitad de la sociedad desconfía de la inteligencia artificial

La inteligencia artificial (IA) está revolucionando la forma en que vivimos y trabajamos, ofreciendo promesas de innovación y eficiencia sin precedentes, pero también suscita preocupaciones sobre la confianza en su uso. Informes recientes han tratado la percepción pública de esta tecnología y revelado cómo la confianza en ella se ha convertido en un tema crucial en la era de la automatización y la digitalización.

A medida que se reconocen los numerosos beneficios potenciales y reales para las personas, las organizaciones y la sociedad en general, la inversión en IA continúa en constante crecimiento en todos los sectores, y organizaciones de distinto tipo están aprovechando las capacidades que brinda para mejorar la predicción, optimizar productos y servicios, fomentar la innovación, incrementar la productividad y eficiencia, y reducir costos, entre otras aplicaciones beneficiosas.

Sin embargo, ha surgido a la vez una creciente preocupación debido a casos notorios de uso sesgado, discriminatorio, manipulador, ilegal o violatorio de los derechos humanos de la IA.

Para asegurar que se aprovechen plenamente sus ventajas y se obtengan rendimientos de las inversiones en estas tecnologías es esencial mantener la confianza de los ciudadanos, que deben tener la seguridad de que la IA se desarrolla y utiliza de manera responsable y confiable, siempre con el fin de asegurar un beneficio real y sostenible para la sociedad.

Al respecto de todo esto, se han publicado dos documentos que tratan de arrojar luz a la actual situación de esta tecnología y cuyos resultados vamos a desgranar.

El primero de ellos es el estudio de KPMG Trust in Artificial Intelligence: A global study, que examina en profundidad la confianza y las actitudes del público hacia el uso de la IA, y las expectativas de la gestión y su gobierno en todo el mundo.

Por su parte, The AI Index Report, del Human-Centered Artificial Intelligence de la Universidad de Stanford, es un extensísimo informe que se encuentra ya en su sexta edición y pretende proporcionar datos imparciales, rigurosamente verificados y de amplia procedencia para que los responsables políticos, investigadores, ejecutivos, periodistas y el público en general adquieran un conocimiento más profundo y matizado del complejo campo de la IA.


NOTICIAS RELACIONADAS
En busca de una inteligencia artificial en la que confiar
La inteligencia artificial ya ha cambiado nuestro futuro
Los retos éticos de la inteligencia artificial
Cómo los algoritmos deciden sobre la vida de los ciudadanos


Confiar en la IA es algo contextual y depende del caso de uso

Según los datos, la mayoría de las personas desconfían de los sistemas de IA y tienen una aceptación baja o moderada de ella, aunque la confianza y la aceptación dependen de la aplicación de esta tecnología.

En todos los países, tres de cada cinco personas (61%) desconfían de los sistemas de IA, ya sea por ambivalencia o por falta de voluntad para confiar, y solo la mitad cree que los beneficios superan a los riesgos.

La confianza es especialmente baja en Finlandia y Japón, donde menos de una cuarta parte de la población dice confiar en la IA. Por el contrario, los ciudadanos chinos son los que tienen una opinión más positiva de los productos y servicios de la inteligencia artificial, y en las economías emergentes de Brasil, India, China y Sudáfrica (BICS2) se registran los niveles de confianza más elevados, con una mayoría de personas que confía en los sistemas de IA.

La gente confía más en que los sistemas de inteligencia artificial produzcan resultados precisos y fiables y proporcionen servicios útiles, y se muestra más escéptica sobre la seguridad y equidad de los sistemas de IA y sobre el grado en que respetan los derechos de privacidad, percibiendo la ciberseguridad como el principal riesgo a nivel mundial de esa tecnología.

De las aplicaciones examinadas, los ciudadanos suelen confiar y aceptar menos la IA en el ámbito de los recursos humanos (por ejemplo, para ayudar a tomar decisiones sobre contratación y ascensos), y confían más en ella en el ámbito sanitario (por ejemplo, para ayudar al diagnóstico y tratamiento médicos).

En cuanto a edades y dedicación, son las generaciones más jóvenes, los universitarios y los directivos quienes confían más en la IA, la aceptan mejor y, en general, tienen actitudes más positivas hacia ella.

Por último, su mal uso ético es una de las principales preocupaciones de personas de cualquier edad al respecto de esta tecnología. Según la base de datos de la AIAAIC (por las siglas en inglés de Incidentes y polémicas sobre algoritmos y automatización) que hace un seguimiento de los incidentes relacionados con el mal uso ético, el número de episodios y controversias relacionados con la IA se ha multiplicado por 26 desde 2012.

¿Quién y cómo debería desarrollar la IA?

La confianza de los ciudadanos en el desarrollo, uso y gobierno de la IA se inclina hacia las universidades, instituciones de investigación y organizaciones de defensa nacionales (76-82% de confianza), mientras que los Gobiernos y las organizaciones comerciales generan menos confianza.

Tres de cada cinco personas (61%) desconfían de los sistemas de IA y solo la mitad cree que los beneficios superan a los riesgos. Su mal uso ético es una de las principales preocupaciones.

En la actualidad, la industria privada ha relevado al mundo académico en la creación de los modelos de aprendizaje automático. En 2022 existían 32 modelos de aprendizaje automático importantes producidos por la industria, frente a solo tres producidos por el mundo académico.

Lo anterior se debe a que la creación de sistemas de IA de última generación requiere cada vez más grandes cantidades de datos, potencia informática y dinero, recursos que los actores de la industria poseen inherentemente en mayor cantidad en comparación con las empresas sin ánimo de lucro y el mundo académico.

Según los estudios, un tercio de la población expresa falta de confianza en que los Gobiernos y las empresas regulen y utilicen la IA de manera adecuada, lo cual es preocupante dado el creciente papel que desempeñan en este ámbito. También, la mayoría de las personas (61%) percibe que el impacto a largo plazo de la IA en la sociedad es incierto e impredecible.

Por tanto, y a excepción de en la India, hay un consenso general en la necesidad de alguna forma de supervisión externa e independiente en la regulación de la IA,  ya que se consideran inadecuadas las regulaciones y salvaguardias actuales.

Existe también un amplio apoyo a diversas formas de regulación, que incluyen la gubernamental y otras ya existentes, la creación de un regulador independiente especializado en IA, así como la corregulación y regulación de la industria.

Para la sociedad, cada uno de los Principios éticos para una IA confiable propuestos originalmente por la Comisión Europea son considerados como muy necesarios para la confianza en el desarrollo de esta tecnología, siendo la privacidad de los datos, la seguridad y la gobernanza los más importantes en todos ellos.

Se necesita más conocimiento para aumentar la confianza

En cuanto a conocimiento de la IA, el 82% de los ciudadanos dice que la conoce, pero una de cada dos personas afirma no entenderla, ni cuándo ni cómo se utiliza. Las personas que conocen mejor la IA tienen más probabilidades de confiar en ella y aceptarla, y perciben mayores beneficios de su uso, lo que sugiere que comprenderla sienta las bases de la confianza.

La mayoría de los ciudadanos a nivel global (82%) quiere saber más sobre la IA, unos resultados que sugieren una gran necesidad y apetito por la educación pública sobre la esta tecnología. Al respecto de su utilización, y con datos exclusivamente de EE. UU., la demanda de competencias profesionales relacionadas con la IA está aumentando en prácticamente todos los sectores industriales del país, lo cual puede ser extrapolable a la mayoría de los países desarrollados.

Los ciudadanos confían más en universidades, instituciones de investigación y organizaciones de defensa nacionales para el uso y gobierno de la IA que en Gobiernos y organizaciones comerciales.

El debate sobre los puestos de trabajo que la IA puede eliminar o crear ha sido también contemplado en los informes de KPMG y la Universidad de Stanford. Se estima que cerca de la mitad de la sociedad cree que la IA mejorará su competencia y autonomía en el trabajo, pero solo menos de una de cada tres personas cree que la IA creará más puestos de trabajo de los que eliminará.

Por su parte, la mayoría de los directivos cree que la IA creará empleos ya que estos se sienten más cómodos, confían más y apoyan más su uso en el trabajo que otros empleados, al contrario que los trabajadores manuales.

Dado que los directivos suelen ser los impulsores de la adopción de la IA en las empresas, es muy posible que estas opiniones divergentes puedan provocar tensiones en la implantación de la IA en el trabajo.

Por último, en cuanto a la opción preferida de trabajo, la mayoría de la gente estima que debería ser un 25-75% o un 50-50% de colaboración entre la IA y el ser humano, conservando este el control en mayor o menor medida, lo cual indica una clara preferencia por el uso de la IA como ayuda en la toma de decisiones, y una falta de apoyo a la toma de decisiones totalmente automatizada con esta tecnología en el trabajo.

Comentarios

Powered by Sindyk Content
Arriba