El Vaticano, los "desafíos éticos" que trae el uso de la Inteligencia Artificial y una advertencia

En “Antiqua et Nova", un extenso documento publicado por la Santa Sede, se considera a la Inteligencia Artificial como una oportunidad siempre y cuando su uso esté sujeto a una “valoración moral”.

Compartir esta noticia
Antiqua et Nova: "La Inteligencia Artificial puede ser más seductora que los ídolos tradicionales"
Antiqua et Nova: "La Inteligencia Artificial puede ser más seductora que los ídolos tradicionales"
Foto: AFP

AFP, EFE
El Vaticano publicó ayer martes su doctrina sobre la inteligencia artificial (IA), un instrumento que según la Santa Sede ofrece oportunidades pero que también conlleva grandes “desafíos éticos” para la humanidad.

“Como cualquier producto del ingenio humano, la IA también puede orientarse hacia fines positivos o negativos”, advierte el documento, aprobado por el papa Francisco, y destinado en particular a los padres, profesores, pastores y obispos.

El extenso documento titulado “Antiqua et Nova” (en referencia a la “sabiduría”, antigua y nueva) es una reflexión de los “ministerios” vaticanos para Doctrina de la Fe la Cultura y la Educación junto con las palabras del papa Francisco sobre el tema y nace ante la necesidad de “exhortar a cuantos tienen el encargo de transmitir la fe (padres, profesores, pastores y obispos) a dedicarse con cuidado y atención a esta cuestión urgente”.

La IA es una oportunidad siempre y cuando su uso esté sujeto a una “valoración moral” pues, “la sombra del mal también se extiende aquí”, afirma el Vaticano.

Inteligencia Artificial.jpg
Inteligencia Artificial.

La inteligencia artificial puede utilizarse “para ayudar a las naciones a buscar la paz y garantizar la seguridad”, tiene el potencial de “aumentar las competencias y la productividad” y presenta “un enorme potencial en diversas aplicaciones del ámbito médico”, enumera el Vaticano.

En el ámbito de la educación, si se utiliza “con prudencia”, puede convertirse en un “valioso recurso”, ya que mejora el acceso a la educación y puede ofrecer un apoyo personalizado y “respuestas inmediatas”, señala.

Sin embargo, el Vaticano no oculta su preocupación por “las implicaciones éticas del desarrollo tecnológico”.

Cita por ejemplo, el “uso bélico de la inteligencia artificial”, sobre todo de “sistemas de armas autónomas y letales”, que el papa exigió se prohíban en la cumbre del G7 de junio de 2024 en Italia.

En materia de empleo, los enfoques actuales de la tecnología pueden “desespecializar a los trabajadores, someterlos a una vigilancia automatizada y relegarlos a tareas rígidas y repetitivas”, advierte.

Si se utiliza para sustituir a los trabajadores humanos en lugar de acompañarlos, existe “el riesgo sustancial de un beneficio desproporcionado para unos pocos a costa del empobrecimiento de muchos”, señala el documento.

En el ámbito educativo, según la Santa Sede, muchos programas “se limitan a proporcionar respuestas en lugar de incitar a los estudiantes a encontrarlas por sí mismos”, lo que es visto como un obstáculo para promover el “pensamiento crítico”.

El documento advierte también sobre el “grave riesgo” de que la IA genere contenidos manipulados, difíciles de distinguir de los datos reales. “Las consecuencias de tales aberraciones e informaciones falsas pueden ser muy graves”, advierte el Vaticano.

Audiencia general del papa Francisco
El papa Francisco observa durante la audiencia general semanal en la plaza de San Pedro del Vaticano.
Foto: AFP

Y menciona como ejemplos cuando se difunden intencionalmente imágenes, vídeos y audio deepfake (representaciones modificadas o generadas algorítmicamente) para engañar o dañar”.

La Santa Sede afirma también que el hecho de que “la mayor parte del poder sobre las principales aplicaciones de la IA esté concentrado en manos de unas pocas y poderosas empresas plantea importantes problemas éticos”.

Estas empresas, añade, sin nombrarlas, “poseen la capacidad de ejercer formas de control tan sutiles como invasivas, creando mecanismos de manipulación de las conciencias y del proceso democrático”.

El documento insta a que “no debemos intentar sustituir cada vez más el trabajo humano por el progreso tecnológico” pues al hacerlo “la humanidad se perjudicaría a sí misma”.

El Vaticano también afirma que “la IA puede ser más seductora que los ídolos tradicionales”.

Por lo tanto, los autores del documento afirman en una reflexión final, que es “decisivo” valorar críticamente las distintas aplicaciones de la IA, en sus diferentes ámbitos, para determinar si estas promueven o no “la dignidad, la vocación humana y el bien común”.

“aislamiento perjudicial”

Problemas para el crecimiento de los niños

En cuanto a las relaciones humanas, el documento del Vaticano observa que la IA puede, sí, “fomentar las conexiones” pero, al mismo tiempo, conducir a un “aislamiento perjudicial” y alerta de que “también plantea problemas particulares para el crecimiento de los niños”.

Cita como ejemplo cuando se representa a la IA como una persona, “lo que es una grave violación ética”, o “utilizar la IA para engañar en otros contextos -como la educación o las relaciones humanas, incluida la esfera de la sexualidad- es profundamente inmoral y requiere una cuidadosa vigilancia”.

Y una de las conclusiones es que “la IA sólo debe utilizarse como una herramienta complementaria a la inteligencia humana y no para reemplazar su riqueza”.

inteligencia artificial-RRHH.jpg
El uso de la Inteligencia Artificial representa y "desafío ético" para el Vaticano.

La guerra más allá del control humano

El documento del Vaticano explica que “la facilidad con la que las armas, convertidas en autónomas, hacen más viable la guerra va en contra del principio mismo de la guerra como último recurso en casos de legítima defensa, (...) más allá del alcance del control humano”. Y añade, “los sistemas de armas autónomas letales, capaces de identificar y atacar objetivos sin intervención humana directa, son gran motivo de preocupación ética porque carecen de la exclusiva capacidad humana de juicio moral y de decisión ética” y concluye: “ninguna máquina debería elegir jamás poner fin a la vida de un ser humano”.

¿Encontraste un error?

Reportar

Te puede interesar

El lapsus de Alejandro Sánchez en la Cámara de Senadores
0 seconds of 31 secondsVolume 90%
Press shift question mark to access a list of keyboard shortcuts
Próximo
Enojo de Gustavo Salle en su llegada al Parlamento
00:51
00:00
00:31
00:31