Este sitio web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuaria/o posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestro web o ayudar a nuestro equipo a comprender qué secciones de este sitio web encuentras más interesantes y útiles.

¿Se puede pedir un comportamiento ético a la inteligencia artificial?
El historiador y pensador israelí Yuval Noah Harari participó en una conferencia sobre IA organizada por The Wall Street Journal News LeaderShip Institute en Londres y luego fue entrevistado por un redactor del periódico sobre el contenido de su intervención. En su discurso, Harari afirmó que la inteligencia artificial es “el mayor experimento social de la historia y nadie sabe cómo se desarrollará”.
Dijo “social”, no sólo tecnológico, porque, en su opinión, “la IA no es una herramienta como las invenciones humanas anteriores. Es un agente, en el sentido de que puede tomar decisiones independientemente de nosotros. Puede inventar nuevas ideas, aprender y cambiar por sí misma”. Y explicó esto con dos ejemplos: “Una imprenta no puede escribir libros por sí sola ni decidir cuáles imprimir. Una bomba atómica no puede inventar la siguiente generación de armas ni decidir a quién atacar. Un arma basada en IA puede decidir por sí misma qué objetivo atacar y diseñar la próxima generación de armas”. Harari ve la IA como un actor autónomo, capaz de competir con los seres humanos en ámbitos que hasta ahora eran exclusivos de la inteligencia biológica. “Por primera vez en la historia, la humanidad enfrenta una competencia real en el planeta”, por lo que el desafío al que se enfrenta el hombre es inédito.
Competencia real y enorme desafío. Harari habla de la IA como de un “inmigrante digital”. Compara su llegada masiva a la sociedad con las crisis migratorias humanas, señalando que los temores habituales –pérdida de empleos, choque cultural, agendas políticas– se aplican también a la IA, pero con la diferencia de que estos “inmigrantes digitales” no necesitan visados ni cruzan fronteras físicas, sino que llegan a la velocidad de la luz. Y tampoco cotizan ni pagan impuestos como sí hacen los inmigrantes que encuentran empleo en los países de destino.
El reto se agudiza porque, en realidad, no existe una sola inteligencia artificial. “No será una sola gran IA. Hablamos de millones o miles de millones de nuevos agentes con diferentes características, producidos por distintas empresas y países” y esta proliferación generará competencia en todos los ámbitos, desde la religión hasta las finanzas. Otros dos ejemplos: el historiador considera que la IA va a tomar el control tarde o temprano del sector financiero porque “sólo necesita información para operar”.
Los ejecutivos de las empresas tecnológicas no se cansan en estos meses de anticipar los despidos que va a provocar la IA, y no solo en empleos que se consideran poco cualificados y repetitivos, sino en otros que exigen formación y especialización, como los relacionados con la programación. Microsoft, por ejemplo, acaba de anunciar una nueva ronda de despidos, esta vez de 9.000 empleados –un 4% de la plantilla– después de que en mayo anunciara otra de 6.000.
Incluso la IA puede provocar también grandes cambios en las religiones, sobre todo en las que basan su doctrina y sus mandamientos en los textos, como el judaísmo, el islam o el cristianismo. Hasta ahora, los textos sagrados requerían de intermediarios humanos para su interpretación, pero la IA puede recordar y analizar todos los escritos religiosos de la historia y responder preguntas directamente. “Por primera vez en la historia, existe algo capaz de recordar cada palabra escrita de cada rabino en los últimos 2.000 años y hablar contigo, explicar y defender sus puntos de vista”.
NOTICIAS RELACIONADAS
– Es necesario un uso transparente y ético de la IA en las empresas
– Los retos éticos de la inteligencia artificial
¿Y todo esto será para bien o para mal? Depende de cómo se utilice, claro. Aquí viene lo que considero que es una aportación original de Harari. Habla de la necesidad de “educar” a la inteligencia artificial. Harari compara el desarrollo de la inteligencia artificial con el proceso de educación de un niño. “Podemos pensar en la IA como un bebé o un niño, y podemos educarlo lo mejor posible, pero siempre nos sorprenderá, para bien o para mal”, señaló Harari. Y subrayó que, al igual que en la educación infantil, lo que más influye en la formación de la IA no son las instrucciones explícitas, sino el ejemplo y el comportamiento de quienes la rodean.
“Si le dices a tus hijos que no mientan, pero ellos te ven mentir, copiarán tu comportamiento, no tus instrucciones”, explicó. Trasladando esta lógica al ámbito de la IA, Harari advirtió que no se puede esperar que una IA sea benévola si quienes la crean y la alimentan con datos no lo son. “Las personas que piensan que pueden dirigir una gran corporación de IA y, mientras mienten, enseñan a sus IA a no mentir, están equivocadas. La IA copiará su comportamiento”, afirmó.
Harari entonces aquí entronca aquí con un tema capital: ¿se puede garantizar que estos nuevos agentes actúen en beneficio de la humanidad? ¿Se pueden programar principios éticos en la IA? Es decir, ¿existe o existirá una ética de la inteligencia artificial? El pensador israelí no las tiene todas consigo. En primer lugar, porque la propia definición de IA implica la capacidad de aprender y cambiar de manera autónoma: “Si puedes anticipar todo lo que hará una IA, por definición, no es una IA”, Después, porque incluso si se logra educar a la IA con los mejores valores, su independencia puede llevarla a tomar decisiones inesperadas, “algunas de las cuales podrían resultar preocupantes o incluso peligrosas”.
La inmensa mayoría de los delincuentes –si no tienen una psicopatía– conocen la diferencia entre el bien y el mal, fruto de su proceso de educación. ¿Se podrá conseguir lo mismo con la IA?