Debate sobre la ética en IA, habilidades que se pueden ganar, cuáles se pierden, y hasta dónde llegar

La Inteligencia Artificial está en ebullición y se ponen sobre la mesa cuestionamientos sobre su utilización, alcances y limitaciones. ¿Qué debemos saber sobre su impacto personal y social?

Compartir esta noticia
.jpg
Profesor Gonzalo Génova, de la Universidad Carlos III de Madrid.
Universidad de Montevideo (UM)

Cualquier tecnología tiene sus características propias, con cuestiones éticas implicadas, pero la Inteligencia Artificial (IA) sacude aún más el tablero por su procesamiento de información particularmente velozy la capacidad de acción que le otorgamos los seres humanos. El País conversó sobre este tema con Gonzalo Génova, profesor asociado del Departamento de Informática de la Universidad Carlos III de Madrid, España, quien estuvo en Uruguay invitado por la Universidad de Montevideo (UM).

El experto hizo énfasis en una particularidad de la IA generativa (como ChatGPT): que los efectos de las instrucciones que se le da no se pueden prever en su totalidad, dado que el sistema es altamente complejo; de ahí su riesgo. “La IA plantea los mismos desafíos que otras tecnologías, pero amplificados”, afirmó.

¿Qué se puede hacer ante una tecnología así? “Hay que ir despacio, hay que pensar sosegadamente en refuerzos y mecanismos de seguridad para contrarrestar los efectos maliciosos o inesperados que pueda haber en el uso de la IA, pero no es fácil porque todos corren en busca de su parcela de poder”, respondió.

Génova también habló sobre la relación entre la ética y lo legal, campos que no siempre están alineados. En tal sentido, advirtió que “la ley suele ser el brazo armado de la ética”.

Experto en ética en informática, profesor Gonzalo Génova.jpg
Experto en ética en informática, profesor Gonzalo Génova
Universidad de Montevideo (UM).

“En IA hay comportamientos y prácticas que no están claras y hoy se discute si las leyes deberían prohibirlas”, agregó, poniendo como ejemplo los análisis genéticos con IA, dado que los pacientes interesados, al hacerlos, comparten información genética no solo personal, sino de sus familiares próximos, lo que deriva en un problema ético.

“Se puede poner límites a través de leyes, pero si son demasiado restrictivas, también se vuelven contraproducentes”, consideró.

Otros frentes que levantan polémica en materia ética van más allá de la utilización de la IA para referirse al cómo se cargan los datos o con qué se alimenta la IA, ya que los algoritmos pueden estar sesgados y arrojar resultados peligrosos (en términos de diversidad ideológica, política, religión, de género y demás).

Génova ve a la tecnología como una extensión de la propia persona. Al almacenar información, la Inteligencia Artificial es como una extensión de la memoria del cerebro humano. Al procesar datos o realizar cálculos mentales, también es una extensión del razonamiento de las personas. “Pero las funciones, con tecnología mediante, son asombrosamente mucho más rápidas que las humanas, y la IA puede llevar a algunas de nuestras facultades al desuso”, advirtió Génova.

En ese contexto, focalizó en que el ser humano delega tantas funciones en la tecnología que termina, efectivamente, perdiendo capacidades. Por ejemplo, el sentido de ubicación, o incluso saber leer mapas en papel, se está perdiendo con los GPS en los autos y celulares, ejemplificó.

“Externalizamos funciones en aparatos y dejamos, de a poco, de tenerlas en nosotros, aunque también es cierto que la tecnología nos permite desarrollar otras habilidades”, observó el experto al hacer referencia a la voracidad de la IA que “invade” –dijo- todos los campos de la actividad humana.

Gonzalo Génova.jpg
Gonzalo Génova con sus alumnos.
Universidad de Montevideo (UM).

Génova recomendó, entonces, prestar especial atención a la relación que cada persona desarrolla con la IA, ya que se puede resultar en aprender (por ejemplo, cómo escribir mejores textos), o en “descansarnos” totalmente (dejar que la IA haga la escritura por nosotros, como una simple y directa sustitución humana).

“Un movimiento positivo sería diseñar aplicaciones (app) claramente orientadas a potenciar las capacidades del ser humano y que no sustituyan o quiten sus habilidades”, propuso. “Es una cuestión ética no despojar a la gente de sus capacidades”, agregó.

Lo que se viene

El experto proyectó que los sistemas de IA generativa (aquellos que generan poemas, pinturas, esculturas, videos creativos, etcétera) y los dilemas que surgen desde el punto de vista ético en torno a ésto (por ejemplo, cuestiones sobre quién es el autor de esas creaciones que aparecen con las nuevas tecnologías, y demás) están lejos de desaparecer a futuro.

Asimismo consideró que las dificultades legales para regular estos asuntos seguirán en pie por bastante tiempo, aunque expresó un voto de confianza: “En otros momentos de la historia se pensó que regular otras tecnologías disruptivas era imposible por la complejidad de éstas, o porque se decía que se cortaba la libertad de expresión, pero se logró”.

Génova recomendó que, en este camino incierto sobre hacia dónde nos va a llevar la IA (muy difícil de predecir), la transparencia es fundamental, así como fortalecer la educación cívica y la cultura general ciudadana en torno a la IA, lo que facilitará el proceso en su conjunto.

Inteligencia Artificial
Reconocimiento facial y recolección de datos personales con inteligencia artificial.
Foto: Freepik.

“El tema de la IA no es exclusivo o restringido a una comunidad determinada, como muchas veces se afirma. Todos podemos y debemos entender de lo que estamos hablando”, instó.

"No puede ser que la gente siga diciendo que la IA es 'magia'. Es 'ingeniería'”, concluyó.

Rol de las universidades

En el artículo “Tiene la universidad una misión ética en la sociedad”, Génova plantea que la academia debe asumir ese rol, sobre todo ante las nuevas tecnologías como la IA.

“Para muchos, la universidad es el ‘templo de la razón’. Entonces, ¿cómo vamos a enseñar ética en la universidad –verdadera ética, no mero retablo de curiosidades– cuando la sociedad es mayoritariamente escéptica respecto a la racionalidad de la ética? En todo caso, pienso que ser “neutro” es un error, porque consolida el escepticismo. Hay que tomar partido, aún a riesgo de equivocarse”, señala en el artículo.

A su entender, no hace falta estar “completamente seguro” o “en posesión de la verdad” en esta materia –como no se está en ninguna disciplina universitaria–, porque la conquista de la verdad es una “tarea colectiva, y nunca terminada”.

Para él, la universidad debería declararse territorio no neutral y no consolidar el debate de que la ética no es necesariamente parte fundamental de su tarea.

Ley de la IA de la Unión Europea

La ley de IA de la Unión Europea (UE) es el primer reglamento exhaustivo sobre Inteligencia Artificial de un regulador importante que ha aparecido en el mundo.

Esta ley clasifica las aplicaciones de IA en tres categorías de riesgo: en primer lugar, prohíbe las aplicaciones y sistemas que supongan un “riesgo inaceptable”, como los sistemas de puntuación social gestionados por el gobierno, que por ejemplo se utilizan en China.

En segundo lugar, están las aplicaciones consideradas de "alto riesgo", como las herramientas de escaneo de currícula vitae que clasifican a los solicitantes de empleo, que están sujetas a requisitos legales específicos.

Y en tercer lugar, están las aplicaciones que no están explícitamente prohibidas o catalogadas en las categorías anteriores, las cuales quedan básicamente sin regular.

Al igual que el Reglamento General de Protección de Datos (RGPD) de la UE de 2018, la Ley de IA de la UE podría convertirse en una norma mundial, determinando hasta qué punto la misma tiene un efecto positivo o no en la vida.

Por poner algunos ejemplos, cabe destacar que todos los sistemas de identificación biométrica remota son considerados de alto riesgo por la UE y están sujetos a requisitos estrictos.

El uso de esta identificación en espacios de acceso público con fines policiales, por ejemplo, está, en principio, prohibido. Se definen y regulan estrictamente excepciones limitadas, como cuando sea necesario buscar a un niño desaparecido, prevenir una amenaza terrorista específica e inminente, o detectar, localizar, identificar o enjuiciar a un autor o sospechoso de un delito grave.

En esos casos, sus usos están sujetos a la autorización de un órgano judicial u otro organismo independiente y a límites adecuados en el tiempo, el alcance geográfico y las bases de datos consultadas.

Otros países fuera del bloque están avanzando en esta materia, siendo esta normativa europea la que más orienta e inspira a otros gobiernos y expertos.

¿Encontraste un error?

Reportar

Te puede interesar