Salvatore Cernuzio – Ciudad del Vaticano
Las advertencias del Papa sobre la Inteligencia Artificial en los últimos años forman el esquema de Antiqua et Nova, la nota sobre la relación entre inteligencia artificial e inteligencia humana fruto de la reflexión mutua entre el Dicasterio para la Doctrina de la Fe y el Dicasterio para la Cultura y la Educación. Un documento dirigido a quienes están llamados a educar y transmitir la fe, pero también a quienes comparten la necesidad de un desarrollo científico y tecnológico «al servicio de la persona y del bien común» [5].
En 117 parágrafos, Antiqua et Nova pone de relieve los retos y las oportunidades del desarrollo de la Inteligencia Artificial (IA) en los ámbitos de la educación, la economía, el trabajo, la salud, las relaciones y la guerra. En este último ámbito, por ejemplo, el potencial de la IA podría aumentar los recursos bélicos «mucho más allá del alcance del control humano», acelerando «una carrera armamentística desestabilizadora con consecuencias devastadoras para los derechos humanos» [99].
TEXTO COMPLETO DE ANTIQUA ET NOVA
Peligros y avances
Más detalladamente, el documento enumera los peligros de la IA, pero también los avances, que alienta como «parte de la colaboración» del hombre con Dios [2]. Sin embargo, no oculta la preocupación que conlleva toda innovación cuyos efectos son aún imprevisibles.
Distinción entre IA e inteligencia humana
Varios párrafos de la Nota están dedicados a la distinción entre IA e inteligencia humana. «Engañoso», se lee, es utilizar la propia palabra “inteligencia” para referirse a la IA: no es “una forma artificial de inteligencia”, sino “uno de sus productos” [35]. Y como cualquier producto del ingenio humano, la IA también puede orientarse hacia «fines positivos o negativos». En efecto, la inteligencia artificial puede introducir «innovaciones importantes» [48], pero también corre el riesgo de agravar situaciones de discriminación, pobreza, brecha digital, desigualdades sociales [52]. Plantea «preocupaciones éticas» el hecho de que «la mayor parte del poder sobre las principales aplicaciones de la IA se concentra en manos de unas pocas empresas poderosas» [53], de modo que esta tecnología acaba siendo manipulada para «beneficio personal o corporativo» [53].
Guerra
En referencia a la guerra, se subraya que los sistemas de armas autónomas y letales capaces de «identificar y atacar objetivos sin intervención humana directa» [100] son un «serio motivo de preocupación ética». De hecho, el Papa pidió que se prohibiera su uso, ya que suponen una amenaza real para «la supervivencia de la humanidad o de regiones enteras» [101]. Estas tecnologías «confieren a la guerra un poder destructivo incontrolable, que afecta a muchos civiles inocentes, sin perdonar ni siquiera a los niños», denunció Antiqua et Nova.
Relaciones humanas
En cuanto a las relaciones humanas, el documento señala que la IA puede conducir a un «aislamiento perjudicial» [58], que «la antropomorfización de la IA» plantea problemas para el crecimiento de los niños [60] y que representar a la IA como una persona es «una grave violación ética» si se utiliza con fines fraudulentos. Del mismo modo que utilizar la IA para engañar en contextos como la educación, las relaciones, la sexualidad, es «poco ético y requiere una cuidadosa vigilancia» [62].
Economía y trabajo
La misma vigilancia se impone en el ámbito económico-financiero. En particular, en el ámbito laboral se señala que, mientras que, por un lado, la IA tiene «potencial» para aumentar las competencias y la productividad, por otro, puede «desespecializar a los trabajadores, someterlos a una vigilancia automatizada y relegarlos a funciones rígidas y repetitivas» [67].
Salud
Se dedica un amplio espacio a la cuestión de la sanidad. Recordando el enorme potencial de diversas aplicaciones en el ámbito médico, se advierte de que si la IA llegara a sustituir la relación médico-paciente, se correría el riesgo de «empeorar» la soledad que suele acompañar a la enfermedad. También se advierte del peligro de reforzar una «medicina para ricos», en la que las personas con medios económicos se benefician de herramientas avanzadas, mientras que otras no tienen acceso ni siquiera a los servicios básicos.
Educación
También se destacan los riesgos en el ámbito de la educación. Si se utiliza con prudencia, la IA puede mejorar el acceso a la educación y ofrecer «información inmediata» a los estudiantes [80]. El problema es que muchos programas «se limitan a proporcionar respuestas en lugar de empujar a los estudiantes a encontrarlas por sí mismos, o a escribir textos por sí mismos»; lo que conduce a un fracaso en el desarrollo del pensamiento crítico [82]. Por no hablar de la cantidad de «información distorsionada o fabricada» y de «noticias falsas» que pueden generar algunos programas [84].
Fake News y Deepfake
Sobre las fake news, el documento advierte del grave riesgo de que la IA «genere contenidos manipulados e información falsa» [85], que luego se difunde para «engañar o hacer daño» [87]. El llamamiento es a «tener siempre cuidado de comprobar la veracidad» de lo que se divulga y evitar, en cualquier caso, «compartir palabras e imágenes que degraden al ser humano», excluyendo «lo que alimenta el odio y la intolerancia» o envilece «la intimidad de la sexualidad humana» [89].
Intimidad y control
Sobre la privacidad y el control, la Nota señala que ciertos tipos de datos pueden llegar a tocar «incluso la propia conciencia» [90], con el peligro de que todo se convierta en «una especie de espectáculo que puede ser espiado» [92]. «La vigilancia digital puede utilizarse para ejercer un control sobre la vida de los creyentes y la expresión de su fe» [90].
Hogar común
En cuanto al tema de la creación, las aplicaciones de la IA para mejorar la relación con la casa común se consideran «prometedoras». Al mismo tiempo, los modelos actuales de IA requieren «grandes cantidades de energía y agua y contribuyen significativamente a las emisiones de CO2, además de ser intensivos en recursos».
La relación con Dios
Por último, la Nota advierte del riesgo de que los seres humanos se conviertan en «esclavos de su propia creación». De ahí la recomendación: «La IA sólo debe utilizarse como herramienta complementaria de la inteligencia humana y no sustituir su riqueza» [112].