La Santa Sede presenta doctrina sobre la inteligencia artificial
3:00 p.m. | 17 feb 25 (VTN/AM).- Más de una década de reflexión, estudio y encuentros con expertos ha permitido la elaboración de la Nota Antiqua et nova de la Santa Sede sobre el desarrollo de la inteligencia artificial (IA), su aporte más trascendente sobre el tema. Presenta una visión equilibrada, que reconoce tanto las oportunidades que ofrece —en campos como la educación, la economía, la salud y las relaciones humanas— como los riesgos de terminar esclavos de su propia obra, concentrar los avances en pocas empresas o anteponer los intereses al respeto por la dignidad humana.
——————————————————————————————–
Para una presentación completa de Antiqua et nova, incluimos la editorial publicada en el medio oficial de la Santa Sede, Vatican News, que ofrece una breve reflexión sobre los puntos principales tratados en la Nota elaborada por dicasterios vaticanos. Posteriormente, presentamos una síntesis basada en lo publicado por un par de medios católicos. Finalmente, de America Magazine, compartimos un completo recuento de los pasos dados por la Santa Sede y la Iglesia en su camino de estudio, acompañamiento y orientación del avance tecnológico relacionado con la inteligencia artificial.
Editorial en Vatican News: IA no sustituye la riqueza del ser humano
Lo que induce a error es, en primer lugar, el nombre. El de la llamada Inteligencia Artificial (IA) es uno de esos casos en los que el nombre ha contado y sigue contando mucho en la percepción común del fenómeno. La Nota Antiqua et nova de los Dicasterios para la Doctrina de la Fe y para la Cultura recuerda ante todo que la IA es un instrumento: realiza tareas, pero no piensa. No es capaz de pensar. Por tanto, es engañoso atribuirle características humanas, porque es una “máquina” que permanece confinada a la esfera lógico-matemática. Es decir, no posee una comprensión semántica de la realidad, ni una capacidad genuinamente intuitiva y creativa.
La IA es incapaz de reproducir el discernimiento moral o la apertura desinteresada a lo que es verdadero, bueno y bello, más allá de cualquier utilidad particular. En resumen, carece de todo lo que es verdadera y profundamente humano. La inteligencia humana es, en efecto, individual y al mismo tiempo social, racional y afectiva. Vive a través de relaciones continuas mediadas por la corporeidad insustituible de la persona. Por tanto, la IA sólo debe utilizarse como herramienta complementaria de la inteligencia humana, y no pretender sustituir en modo alguno su riqueza peculiar.
A pesar de los avances de la investigación y de sus posibles aplicaciones, la IA sigue siendo una “máquina” que no tiene responsabilidad moral, responsabilidad que recae en cambio en quienes la diseñan y utilizan. Por eso, subraya el nuevo documento, es importante que quienes toman decisiones basadas en la IA rindan cuentas de las elecciones que hacen, y que sea posible dar cuenta del uso de esta herramienta en cada etapa del proceso de toma de decisiones. Tanto los fines como los medios utilizados en las aplicaciones de la IA deben evaluarse para garantizar que respetan y promueven la dignidad humana y el bien común: esta evaluación constituye un criterio ético fundamental para discernir la legitimidad o no del uso de la inteligencia artificial.
Otro criterio para la evaluación moral de la IA, sugiere Antiqua et nova, se refiere a su capacidad para implementar la positividad de las relaciones del hombre con su entorno y con el medio natural, para fomentar una interconexión constructiva de individuos y comunidades, y para potenciar una responsabilidad compartida hacia el bien común. Para lograr estos objetivos, es necesario ir más allá de la mera acumulación de datos y conocimientos, esforzándose por alcanzar una verdadera “sabiduría del corazón”, como sugiere el papa Francisco, de modo que el uso de la IA ayude al ser humano a ser realmente mejor.
En este sentido, Antiqua et nova advierte contra cualquier subalternidad ante la tecnología, invitando a utilizarla no para sustituir progresivamente el trabajo humano -lo que crearía nuevas formas de marginación y desigualdad social-, sino como herramienta para mejorar la atención y enriquecer los servicios y la calidad de las relaciones humanas. Y también como ayuda para comprender hechos complejos y guía en la búsqueda de la verdad. Por tanto, contrarrestar las falsificaciones alimentadas por la IA no es sólo tarea de expertos en la materia, sino que requiere el esfuerzo de todos.
También debemos impedir que la IA se utilice como forma de explotación o para restringir la libertad de las personas, para beneficiar a unos pocos a costa de la mayoría, o como forma de control social, reduciendo a las personas a un conjunto de datos. Y es inaceptable que, en el ámbito bélico, se confíe a una máquina la decisión de acabar con vidas humanas: por desgracia, hemos visto cuántas y qué devastación causan las armas impulsadas por la inteligencia artificial, como se ha demostrado trágicamente en tantos conflictos actuales.
LEER. Benanti: Antiqua et nova nos ayuda a formular las preguntas adecuadas
VIDEO. El Vaticano advierte: IA y sus desafíos éticos
Síntesis de Antiqua et nova
Las advertencias del Papa sobre la Inteligencia Artificial (IA) en los últimos años forman el esquema de Antiqua et nova, la Nota sobre la relación entre inteligencia artificial e inteligencia humana fruto de la reflexión mutua entre el Dicasterio para la Doctrina de la Fe y el Dicasterio para la Cultura y la Educación. Un documento dirigido a quienes están llamados a educar y transmitir la fe, pero también a quienes comparten la necesidad de un desarrollo científico y tecnológico “al servicio de la persona y del bien común” [5].
El documento, publicado el día después del Día Internacional de la Memoria del Holocausto, dice que “las atrocidades ya cometidas a lo largo de la historia humana bastan para suscitar una profunda preocupación por los posibles abusos de la IA” [102]. Los Papas y las instituciones vaticanas, en particular la Pontificia Academia de las Ciencias, llevan más de 40 años vigilando y expresando su preocupación por el desarrollo y el uso de la IA.
En 117 parágrafos, Antiqua et nova pone de relieve los retos y las oportunidades del desarrollo de la IA en los ámbitos de la educación, la economía, el trabajo, la salud, las relaciones y la guerra. En este último ámbito, por ejemplo, el potencial de la IA podría aumentar los recursos bélicos “mucho más allá del alcance del control humano”, acelerando “una carrera armamentística desestabilizadora con consecuencias devastadoras para los derechos humanos” [99].
Distinción entre IA e inteligencia humana
Varios párrafos de la Nota están dedicados a la distinción entre IA e inteligencia humana. “Engañoso”, se lee, es utilizar la propia palabra “inteligencia” para referirse a la IA: no es “una forma artificial de inteligencia”, sino “uno de sus productos” [35]. Y como cualquier producto del ingenio humano, la IA también puede orientarse hacia “fines positivos o negativos”.
En efecto, la IA puede introducir “innovaciones importantes” [48], pero también corre el riesgo de agravar situaciones de discriminación, pobreza, brecha digital, desigualdades sociales [52]. Plantea “preocupaciones éticas” el hecho de que “la mayor parte del poder sobre las principales aplicaciones de la IA se concentra en manos de unas pocas empresas poderosas” [53], de modo que esta tecnología acaba siendo manipulada para “beneficio personal o corporativo” [53].
Lo específicamente humano
El documento vaticano insistía en que, aunque la IA puede realizar rápidamente algunas tareas muy complejas o acceder a grandes cantidades de información, no es verdaderamente inteligente, al menos no de la misma manera que lo son los seres humanos. “Una correcta concepción de la inteligencia humana, por tanto, no puede reducirse a la mera adquisición de hechos o a la capacidad de realizar determinadas tareas específicas; sino que implica la apertura de la persona a las cuestiones ultimas de la vida y refleja una orientación hacia lo verdadero y lo bueno” [29].
La inteligencia humana también implica escuchar a los demás, empatizar con ellos, entablar relaciones y emitir juicios morales, acciones que ni siquiera los programas de IA más sofisticados pueden realizar, afirma. “Entre una máquina y un ser humano (…) sólo el ser humano puede ser lo suficientemente consciente de sí mismo como para escuchar y seguir la voz de la conciencia, discerniendo con prudencia y buscando el bien posible en cada situación” [39], dice el documento.
VIDEO. Nuevo documento del Vaticano analiza el potencial y los riesgos de la IA
La IA para la guerra
En referencia a la guerra, se subraya que los sistemas de armas autónomas y letales capaces de “identificar y atacar objetivos sin intervención humana directa” [100] son un “serio motivo de preocupación ética”. De hecho, el Papa pidió que se prohibiera su uso, ya que suponen una amenaza real para “la supervivencia de la humanidad o de regiones enteras” [101]. Estas tecnologías “confieren a la guerra un poder destructivo incontrolable, que afecta a muchos civiles inocentes, sin perdonar ni siquiera a los niños”, denunció Antiqua et Nova.
Relaciones humanas
En cuanto a las relaciones humanas, el documento señala que la IA puede conducir a un “aislamiento perjudicial” [58], que “la antropomorfización de la IA” plantea problemas para el crecimiento de los niños [60] y que representar a la IA como una persona es “una grave violación ética” si se utiliza con fines fraudulentos. Del mismo modo que utilizar la IA para engañar en contextos como la educación, las relaciones, la sexualidad, es “poco ético y requiere una cuidadosa vigilancia” [62].
Economía y trabajo
La misma vigilancia se impone en el ámbito económico-financiero. En particular, en el ámbito laboral se señala que, mientras que, por un lado, la IA tiene “potencial” para aumentar las competencias y la productividad, por otro, puede “desespecializar a los trabajadores, someterlos a una vigilancia automatizada y relegarlos a funciones rígidas y repetitivas” [67].
En el ámbito de la sanidad y la educación
Se dedica un amplio espacio a la cuestión de la sanidad. Recordando el enorme potencial de diversas aplicaciones en el ámbito médico, se advierte de que si la IA llegara a sustituir la relación médico-paciente, se correría el riesgo de “empeorar” la soledad que suele acompañar a la enfermedad. Además, se advierte del peligro de reforzar una “medicina para ricos”, en la que las personas con medios económicos se benefician de herramientas avanzadas, mientras que otras no tienen acceso ni siquiera a los servicios básicos.
También se destacan los riesgos en el ámbito de la educación. Si se utiliza con prudencia, la IA puede mejorar el acceso a la educación y ofrecer “información inmediata” a los estudiantes [80]. El problema es que muchos programas “se limitan a proporcionar respuestas en lugar de empujar a los estudiantes a encontrarlas por sí mismos, o a escribir textos por sí mismos”; lo que conduce a un fracaso en el desarrollo del pensamiento crítico [82]. Por no hablar de la cantidad de “información distorsionada o fabricada” y de “noticias falsas” que pueden generar algunos programas [84].
Desinformación, Deepfake e Intimidad y control
Los usuarios también deben ser conscientes del “grave riesgo de que la IA genere contenidos manipulados (…) muy difícil de distinguir de los datos reales” [86]. Esta desinformación puede producirse de forma no intencionada, como en el caso de la “alucinación” de la IA, en la que un sistema de IA generativa arroja resultados que parecen reales pero no lo son, ya que está programada para responder a todas las solicitudes de información, independientemente de si tiene acceso a ella o no.
Por supuesto, según el documento, la falsedad de la IA también “puede ser intencionada: cuando un operador humano o una organización genera intencionadamente y difunde informaciones, como deepfakes de imágenes, de vídeos y de audio, para engañar o perjudicar (…) un deepfake es una representación falsa de una persona que ha sido modificada o generada por un algoritmo de IA” [87]. El llamamiento es a “tener siempre cuidado de comprobar la veracidad” de lo que se divulga y evitar, en cualquier caso, “compartir palabras e imágenes que degraden al ser humano”, excluyendo “lo que alimenta el odio y la intolerancia” o envilece “la intimidad de la sexualidad humana” [89].
Sobre la privacidad y el control, Antiqua et nova señala que ciertos tipos de datos pueden llegar a tocar “incluso la propia conciencia” [90], con el peligro de que todo se convierta en “una especie de espectáculo que puede ser espiado” [92]. “La vigilancia digital puede utilizarse para ejercer un control sobre la vida de los creyentes y la expresión de su fe” [90].
Hogar común y la relación con Dios
En cuanto al tema de la creación, las aplicaciones de la IA para mejorar la relación con la casa común se consideran “prometedoras”. Al mismo tiempo, los modelos actuales de IA requieren “grandes cantidades de energía y agua y contribuyen significativamente a las emisiones de CO2, además de ser intensivos en recursos”. Por último, la Nota advierte del riesgo de que los seres humanos se conviertan en “esclavos de su propia creación”. De ahí la recomendación: “La IA sólo debe utilizarse como herramienta complementaria de la inteligencia humana y no sustituir su riqueza” [112].
LEER. Paul Tighe: Antiqua et nova, orientaciones sobre el desarrollo ético de la IA
VIDEO. Experto tecnológico analiza el aporte de Antiqua et nova
¿Qué sabe la Santa Sede de inteligencia artificial?
Cuando hace unas semanas desde el Vaticano se anunció el nuevo documento sobre inteligencia artificial (IA), algunos pueden haber preguntado como el padre de la Iglesia primitiva Tertuliano: “¿Qué tiene que ver Atenas con Jerusalén?”. Esta vez la pregunta podría ser: “¿Qué sabe el Vaticano sobre IA?”. La respuesta: Bastante. La publicación de Antiqua et nova, es sólo el último paso en la historia de una década de liderazgo del Vaticano en el campo de la ética de la IA, una historia que le ha valido una influencia significativa entre los líderes tecnológicos, en particular en Microsoft e IBM.
Ya en 2007, el papa Benedicto XVI advirtió a los científicos en la Pontificia Universidad Lateranense de que “la vida contemporánea privilegia una inteligencia artificial cada vez más esclava de las técnicas experimentales, olvidando así que toda ciencia debe salvaguardar al hombre y promover su tendencia al auténtico bien”. Su énfasis en la importancia de que la tecnología proteja a la humanidad y el bien común tendría eco en el Vaticano durante las dos décadas siguientes.
A medida que el “aprendizaje automático” se desarrollaba rápidamente durante ese tiempo, con el “aprendizaje profundo” emergiendo como una tecnología de vanguardia, la Pontificia Academia de las Ciencias comenzó a organizar talleres sobre procesamiento de datos. Un encuentro en 2015 sobre “Big Data y Ciencia” tenía como objetivo reunir a expertos en ciencias de la vida, ciencias de la tierra y astrofísica para discutir “ejemplos de recopilación, almacenamiento y gestión de datos adecuados”. Al año siguiente, la Pontificia Academia de las Ciencias se centró específicamente en la IA y organizó un taller sobre “Poder y limitaciones de la Inteligencia Artificial”, al que asistió Demis Hassabis, cofundador de Google Deepmind, el laboratorio de investigación de inteligencia artificial de Google.
Sin embargo, no fue solo la academia científica del Vaticano la que se interesó por la IA mucho antes de su explosión en la década de 2020. En 2016, el obispo Paul Tighe, del entonces Pontificio Consejo para la Cultura del Vaticano, asistió en representación de la Santa Sede a la Web Summit de Lisboa, donde el tema principal de debate fue el desarrollo de la inteligencia artificial.
Un gran avance en la IA llegó en 2017 con el debut de la arquitectura de transformadores, que permitiría la construcción de transformadores generativos preentrenados (GPT) que se han extendido al uso popular en la actualidad. Para entonces, el Vaticano ya era un espacio de colaboración fiable para los líderes en el campo de la Inteligencia Artificial, en particular en medicina, y, como lo demuestra su invitación a acoger un panel en SXSW 2017, se le convocaba cada vez más a participar en conversaciones sobre tecnología.
En 2018, el fraile franciscano Paolo Benanti, TOR, que ha adquirido notoriedad como asesor del papa Francisco en materia de IA, ofreció una conferencia sobre la ética de la Inteligencia Artificial. (El padre Benanti es conocido por acuñar el término “algor-ética”). A esa presentación asistió un alto ejecutivo de Microsoft, informó The Washington Post, y ambos empezaron a reunirse con regularidad, llegando a invitar también al arzobispo Vincenzo Paglia, de la Pontificia Academia para la Vida (PAV).
Microsoft acabaría convirtiéndose en uno de los principales socios del Vaticano en materia de Inteligencia Artificial. Fue uno de los primeros signatarios del Rome Call for AI Ethics (Llamado de Roma para una Ética de la IA), un documento promovido por el padre Benanti que acabaría influyendo en el código de conducta internacional del G7 para la IA. El Vaticano y Microsoft también se unieron en un proyecto de varios años de duración, que debutó en 2024, para crear un modelo de la Basílica de San Pedro utilizando IA.
Al mismo tiempo, Marco Maiorino, el documentalista del Archivo Apostólico Vaticano (que en el 2018 todavía llevaba el nombre de Archivo Secreto Vaticano), colaboró con un equipo de expertos en tecnología para mejorar una herramienta existente de lectura manuscrita asistida por inteligencia artificial, permitiéndole leer textos en latín en los archivos y contribuyendo a la digitalización de algunas de las 53 millas de libros del Vaticano.
También en 2018, el Vaticano organizó su primer “hackathon”, ofreciendo premios a los equipos que crearon los mejores proyectos de software en las áreas de inclusión social, diálogo interreligioso y apoyo a migrantes y refugiados.
El Vaticano acogió otra conferencia sobre IA en 2019, “Robótica, inteligencia artificial y humanidad: ciencia, ética y política”. Unos meses después, el papa Francisco abordó el tema de la IA al disertar en otra reunión, esta vez sobre el “Bien común en la era digital”, organizada por el Pontificio Consejo para la Cultura y el Dicasterio para la Promoción del Desarrollo Humano Integral. En esa alocución, el Papa advirtió del peligro de los “datos falsos” generados por la IA, que pueden “manipular las opiniones de millones de personas, hasta el punto de poner en peligro las mismas instituciones que garantizan una convivencia civil pacífica”. Francisco también se reunió con el presidente de Microsoft, Brad Smith, ese año, tras haberse reunido previamente con el CEO de Facebook (ahora Meta), Mark Zuckerberg, y con el entonces presidente ejecutivo de la empresa matriz de Google, Alphabet, Eric Schmidt, de forma individual en 2016.
En febrero de 2020, la Pontificia Academia para la Vida (PAV) acogió otra conferencia sobre la IA, esta vez centrada en la ética, el derecho y la salud. La pandemia de COVID-19 puso en pausa la celebración de conferencias en el Vaticano, pero el Rome Call for AI Ethics (Llamado de Roma para una Ética de la IA), publicado en septiembre de 2020, consolidó al Vaticano como líder mundial en ética para la IA. Impulsado en gran medida por el padre Benanti (ahora miembro del Órgano Consultivo de las Naciones Unidas para la IA), el documento fue firmado por Microsoft, IBM y la FAO de la ONU, junto con la PAV. Ese documento ha sido firmado ya por casi 70 organizaciones, entre ellas autoridades gubernamentales, universidades, organizaciones de la sociedad civil y empresas privadas.
El Vaticano también ha venido utilizando herramientas de inteligencia artificial: En noviembre de 2020, la Santa Sede reveló que estaba utilizando herramientas de IA para proteger su biblioteca de ciberataques. (El Vaticano suele ser blanco de este tipo de ataques. Recientemente, en noviembre de 2024, el sitio web del Vaticano estuvo fuera de servicio durante varios días; los expertos en seguridad advirtieron de que la caída tenía las características de un ciberataque, aunque el Vaticano nunca lo confirmó).
La inteligencia artificial invadió el debate global en noviembre de 2022 con el lanzamiento de ChatGPT por OpenAI, justo un mes después de que la Universidad de Notre Dame organizara una cumbre mundial como seguimiento del “Llamado de Roma por la Ética de la Inteligencia Artificial” (La cumbre se organizó a petición del Vaticano).
Luego, el Papa centró su mensaje para la Jornada Mundial de la Paz de 2024, publicada en 2023, en el tema “Inteligencia Artificial y Paz”. En el documento, pretendía llevar un paso más allá la influencia del Vaticano en el desarrollo de la IA, desde las empresas privadas hasta los gobiernos nacionales. En el mensaje, pedía un tratado internacional que regule el desarrollo ético de la IA. De hecho, la influencia del Vaticano ya se dejaba sentir en los foros gubernamentales multilaterales sobre este tema, ya que la Comisión Europea recurrió al “Llamado de Roma por la Ética de la IA” en 2023 para elaborar su código de conducta para el desarrollo de esta tecnología.
Por último, en 2024 –año en el que el Vaticano acogió otras dos conferencias sobre la IA- Francisco fue invitado a intervenir en la cumbre del G7, en la que se reunieron para hablar de IA. Allí recalcó a los líderes de los gobiernos de las principales economías del mundo que la IA nunca debe dominar la toma de decisiones humanas:
“Condenaríamos a la humanidad a un futuro sin esperanza si quitáramos a las personas la capacidad de decidir por sí mismas y por sus vidas, condenándolas a depender de las elecciones de las máquinas. Necesitamos garantizar y proteger un espacio de control significativo del ser humano sobre el proceso de elección utilizado por los programas de inteligencia artificial. Está en juego la misma dignidad humana”.
Se trata de un mensaje del que los dicasterios (oficinas) vaticanos para la Doctrina de la Fe y para la Cultura y la Educación se hacen eco en el esperado documento recién publicado, y que resume el mensaje del Vaticano a los gobiernos mundiales y a las empresas tecnológicas con las que probablemente seguirá trabajando a medida que la Inteligencia Artificial se convierta en omnipresente.
VIDEO. Respuesta del Vaticano a la IA. Entrevista a Mons. Paul Tighe
Información adicional
- Entrevista a Mons. Paul Tighe: La respuesta del Vaticano a la IA
- Portal web de la initiciativa “Llamado de Roma para una Ética de la IA”
- ¿Qué piensa la IA sobre Antiqua et Nova?
- Paolo Benanti: “Me preocupa más la estupidez humana”
- La inteligencia artificial (IA) y la inteligencia humana
- Educarse ante una revolución real
- El Podcast de Vida Nueva: cerebro mecánico e inteligencia humana
- El Papa: Que el desarrollo beneficie a toda la humanidad
- El algoritmo al servicio del hombre, una conferencia sobre IA en el Vaticano
- El Vaticano presenta Antiqua et nova: un ensayo revolucionario sobre la ética de la IA
- Vaticano: Directrices para la innovación ética en la IA
Publicaciones relacionadas en Buena Voz Católica
- El Vaticano, IBM y Microsoft dialogan: Ética e Inteligencia Artificial
- Inteligencia artificial: las religiones piden una algorética
- IA y Educación Superior: Iglesia impulsa debate ético
- Universidades católicas: Usar inteligencia artificial con responsabilidad
- Influencia de la Iglesia en el futuro de la IA
- Francisco a comunicadores: Oportunidad y peligro con la IA
- Fraile experto en Inteligencia Artificial que asesora al Papa
- Universidades católicas: Usar inteligencia artificial con responsabilidad
- ¿Cómo usar inteligencia artificial? Un manual católico
- Inteligencia artificial y la fe, ¿condenados a entenderse?
- Inteligencia artificial y justicia social
Fuentes
Vatican News (2) / America Magazine / Omnes Magazine / Videos: Perfil (AFP) – Ecclesia COPE – Radio María Argentina – America Magazine / Imagen: Vatican Media