Inteligencia artificial: las religiones piden una algorética
8:00 a.m. | 9 feb 23 (LCC/CNS).- En febrero de 2020, representantes de Microsoft, IBM y la FAO firmaron el Rome Call for AI Ethics, un documento de la Pontificia Academia para la Vida (PAV) para promover una “algorética”: un desarrollo ético de la inteligencia artificial. Tres años después, la PAV ha reunido representantes de las tres religiones abrahámicas, para compartir una conferencia y unirse a la firma del documento. El debate en este ámbito ha ganado aún más fuerza en estas semanas, tras el anuncio de la primera gran aplicación de IA al alcance de todos en Internet (ChatGpt), un nuevo modelo de chatbot capaz de sostener conversaciones complejas.
——————————————————————————————–
Junto al arzobispo Vincenzo Paglia, presidente de la PAV, participaron en la ceremonia de firma el rabino Eliezer Simcha Weiss, miembro del Consejo del Gran Rabinato de Israel, y el jeque al Mahfoudh bin Bayyah, secretario general del Foro de Abu Dhabi para la Paz. “Somos conscientes de la fuerza moral que atestigua este acontecimiento” al reunirse tres religiones abrahámicas con “otras instituciones para promover y salvaguardar nuestra humanidad común”, dijo el arzobispo Paglia.
Los católicos, musulmanes y judíos del mundo no sólo comparten los mismos valores éticos fundamentales, sino que cerca del 80% de la población mundial se identifica con una fe religiosa, lo que demuestra la “contribución vital de los líderes religiosos al buen funcionamiento de la política y la buena gobernanza”, según una declaración conjunta emitida al término del acto. De hecho, Paglia dijo que invitará a representantes de “las grandes religiones de Oriente” a firmar el Rome Call for AI Ethics en una reunión que se celebrará en julio en Japón.
LEER. Paglia: Que prevalezca la primacía del hombre sobre la inteligencia artificial
Entre los muchos problemas potenciales que requieren atención están: La sustitución del trabajo humano por la IA; la determinación de quién es responsable de los errores y la desinformación generados por la IA; la protección de la intimidad y los límites de la vigilancia; la necesidad de seguridad, transparencia e imparcialidad; y los sesgos utilizados en los algoritmos. No existe una “gran solución”, pero hay “un cóctel de respuestas sobre lo que es correcto hacer”, dijo Darío Gil, vicepresidente senior y director de investigación de IBM, en la conferencia organizada por el Vaticano.
“Necesitamos toda la ayuda posible” para asegurarnos de que la IA “se alinea con los valores humanos fundamentales sin dejar a nadie atrás”, afirmó Gil. Esa es una de las razones por las que hace casi tres años IBM y Microsoft se convirtieron en los primeros firmantes del Rome Call for AI Ethics. La iniciativa fue liderada por la Academia Pontificia para la Vida, que invitó a dos de los principales desarrolladores mundiales de software de inteligencia artificial a firmar el documento en favor de un marco ético y unas directrices para el campo de la IA.
Desde entonces, la convocatoria ha sido respaldada y apoyada por otras dos docenas de instituciones, empresas privadas y organizaciones en un esfuerzo por construir un movimiento global para crear y comprometerse con una nueva “algor-ética”.
El jeque Abdallah bin Bayyah, presidente del Foro de Abu Dhabi, afirmó que “las leyes y los reguladores deben establecer normas que garanticen la prevención del daño a las personas y las sociedades”. Evitar el daño, dijo, incluye suprimir “el deseo humano de riqueza bajo el pretexto del desarrollo y el descubrimiento si esto implica daño o reciprocidad de daño con otros”. También protege a los investigadores y estudiosos de la interferencia en su trabajo siempre que su trabajo no lleve a dañar a otros o a reciprocar el daño de otros”.
En su discurso, el rabino Weiss dijo que “la inteligencia no hace al ser humano”, sino que la fuente de la dignidad humana es “la chispa divina” que hay en él y el hecho de estar hecho a imagen de Dios. “El ser humano siempre será mucho más grande que cualquier cosa creada artificialmente”, dijo, razón por la cual siempre deben estar presentes las precauciones y los controles adecuados, para que la vida y la autonomía humanas nunca corran peligro.
Brad Smith, presidente de Microsoft, dijo que la IA va a “irrumpir en el uso público y capturar la imaginación del público” en 2023 de la misma manera que lo hizo el navegador de Internet en 1995 y el iPhone en 2007. La IA ya está haciendo mucho para ayudar a mejorar la vida de las personas, dijo, “pero la historia de la tecnología nos enseña que, por desgracia, el futuro no es simplemente seguir un camino de baldosas amarillas hacia una promesa de que sucederán cosas buenas”.
LEER. Poner la IA al servicio del bien común (reflexión de Brad Smith)
“La firma conjunta del Rome Call for AI Ethics por católicos, judíos y musulmanes es un signo esperanzador”, tuiteó el Papa. “Las religiones están acompañando a la humanidad en el desarrollo de una tecnología centrada en la persona humana, gracias a la reflexión ética compartida sobre el uso de algoritmos”. Francisco también recibió y se dirigió a los participantes en la conferencia.
LEER. Francisco “bendice” el pacto por la IA de las religiones abrahámicas
La firma de la #RomeCall for #AIEthics por parte de católicos, hebreos y musulmanes es un signo de esperanza. Las religiones acompañan a la humanidad en el desarrollo de una tecnología centrada en el hombre gracias a la reflexión ética compartida sobre el uso de los algoritmos.
— Papa Francisco (@Pontifex_es) January 10, 2023
¿Qué es la “Rome Call for AI Ethics”?
La Rome Call for AI Ethics es un documento firmado por primera vez en Roma el 28 de febrero de 2020 por la Pontificia Academia para la Vida, Microsoft, IBM, y la FAO. El texto no es ni una declaración conjunta, ni un acuerdo, ni un tratado. La idea subyacente es promover un sentido de responsabilidad compartida entre organizaciones internacionales, gobiernos, instituciones y el sector privado en un intento de crear un futuro en el que la innovación digital y el progreso tecnológico garanticen a la humanidad su centralidad.
Como explicó el P. Carlo Casalone en aquella ocasión, el documento se desarrolla siguiendo tres líneas principales. La primera es la ética, que recuerda el marco de valores fundamentales subyacente a la Declaración Universal de los Derechos Humanos. La segunda directriz destaca la importancia de la educación de las nuevas generaciones, que estará profundamente marcada por la disponibilidad de nuevos recursos tecnológicos, a los que debe garantizarse un acceso sin desigualdades. La última directriz es la del derecho, en la que emerge la necesidad de traducir los principios enunciados en normativas eficaces y precisas, mediante un enfoque ético que acompañe cada etapa del ciclo de producción de las tecnologías, desde el principio.
LEER. ¿Qué dice la declaración sobre ética en la IA firmada por las religiones monoteístas?
Contexto: las inversiones de las “big tech” y las cuestiones de responsabilidad y desigualdad
Desde hace algún tiempo, los términos “metaverso”, “algoritmo” y “blockchain” aparecen en las ocasiones y los contextos más diversos. El metaverso, en particular, ha sido objeto en los últimos años de enormes inversiones por las mayores empresas del sector digital -por ejemplo, 70.000 millones de dólares (Microsoft); 10.000 millones (Facebook-Meta); 1.600 millones (Unity Software); 39,5 millones (Google Alphabet)– para desarrollar la tecnología que lo haría posible. Lo que está en juego es enorme.
En lo que respecta a la inteligencia artificial, dos temas de gran preocupación, y que por tanto constituyen también dos retos prioritarios para los firmantes del Rome Call, son el de la responsabilidad y el de la desigualdad. La afirmación de Virginia Eubanks, citada en un artículo del P. Antonio Spadaro y Paul Twomey, lo sintetiza con claridad: “La inteligencia artificial tiene la capacidad de modelar las decisiones de los individuos sin que estos ni siquiera lo sepan, dando a quienes tienen el control de los algoritmos una posición abusiva de poder”.
El quid de la cuestión es el papel del ser humano dentro del algoritmo: este debe ser necesariamente responsable del producto al que conduce la toma de decisiones algorítmica. En efecto, aparte de las cuestiones pertinentes de accesibilidad, no basta con centrarse únicamente en la responsabilidad y la educación del usuario final para el uso correcto de los sistemas digitales. Del mismo modo que no basta con confiar en la sensibilidad moral de quienes investigan y diseñan algoritmos.
Porque, concretamente, lo que está ocurriendo es que algunas aplicaciones de aprendizaje profundo están empezando a socavar los límites de la responsabilidad humana. Desde los autos autoconducidos a las aplicaciones de social scoring, pasando por las que predicen la reincidencia de delitos o los programas capaces de gestionar sistemas de armamento y aparatos militares enteros, la gran pregunta es: ¿podemos realmente dejar en manos de una inteligencia artificial decisiones de las que puede depender la vida de una persona o de pueblos enteros? Y entonces, en cualquier caso, ¿de quién será la responsabilidad de esa decisión “inteligente”?
El caso ChatGPT
Mucho se ha hablado en las últimas semanas de la primera gran aplicación de inteligencia artificial al alcance de todos en internet, ChatGpt, un nuevo modelo de chatbot –una máquina que sabe responder a preguntas planteadas por humanos– creado por OpenAi, una fundación nacida en 2015 por inversores de Silicon Valley, entre ellos Elon Musk. ChatGpt es capaz de entender el lenguaje humano y mantener conversaciones incluso muy complejas. Se basa en muestras de texto tomadas de Internet.
Nosotros también quisimos probar ChatGPT sobre el tema del discernimiento y los Ejercicios Espirituales de San Ignacio. En nuestra “conversación”, en un momento dado le preguntamos si discernía lo que era mejor escribir antes de responder a una pregunta. Explicó que “como modelo de inteligencia artificial, no tengo la capacidad de “decidir” o “discernir” lo que es mejor escribir. Funciono siguiendo un algoritmo de aprendizaje automático que me permite generar respuestas a preguntas basadas en los datos con los que he sido entrenado (…) Pero no tengo “conciencia” y no tengo la capacidad de evaluar el bien y el mal, no tengo intencionalidad real en mis outputs, sólo una salida procesada a través de un algoritmo”. Todo el desafío ético está aquí.
Información adicional
- Declaración final conjunta (completa en inglés)
- Conferencia completa en video (en Inglés)
- Discurso completo del jeque Abdallah bin Bayyah
- Discurso completo del rabino Eliezer Simcha Weiss
- Web de la RenAIssance Foundation plataforma de la Rome Call for AI Ethics
- Las religiones abrahámicas a favor de la tecnología centrada en el ser humano
- Cristianos, judíos y musulmanes piden con una sola voz una IA regida por la ética
Publicaciones recomendadas en Buena Voz Noticias
- El Vaticano, IBM y Microsoft dialogan: Ética e Inteligencia Artificial
- Inteligencia artificial y justicia social
- IA y Educación Superior: Iglesia impulsa debate ético
Fuentes
La Civiltà Cattolica / Catholic News Service / Catholic Culture / RenAIssance Foundation / Videos: Microsoft Technology – Rome Reports / Foto: CNS – Vatican Media
vaya tienen miedo a los que adquieran conocimientos a través de la ai dejen atrás a los que no quieran esforzarse en tener conocimiento