En los últimos meses se han producido avances rápidos e inesperados en inteligencia artificial (IA). Podemos crear imágenes a voluntad con herramientas como Midjourney o DALL-E o hacer preguntas y conversar con ChatGPT. Y esto plantea también desafíos éticos, sociales y legales inéditos.
Los adelantos técnicos que cambian radicalmente nuestro modo de vida siempre traen incógnitas y confusión. Cuando el tren empezó a sustituir a los caballos, se mezclaban preocupaciones fundadas (como los problemas de respirar humo) con otras que acabaron no siéndolo (como el miedo a que los viajeros se asfixiaran en los túneles ). Con tiempo y perspectiva, se fue aclarando el panorama.
Con la IA, aún estamos en la fase de confusión: debemos sopesar sus riesgos y sus beneficios para crear una regulación que, sin frenar el progreso, garantiza un uso responsable. Veamos algunos de los puntos más relevantes en este debate.
Una delicada materia prima
Detrás de herramientas como Midjourney o ChatGPT hay algoritmos que aprenden a realizar tareas a partir de grandes cantidades de datos. Por ejemplo, para que Midjourney pudiera crear imágenes a partir de texto, hizo falta recopilar miles de millones de imágenes con sus descripciones, descargándolas de Internet. De ahí surge un conflicto de propiedad intelectual: ¿es legal usar contenidos protegidos por derechos de autor para enseñar a estos sistemas?
Muchos artistas opinan que no: se están usando sus obras para crear otras obras, lo que pone en peligro su mercado. Por eso han denunciado a los responsables de sistemas de este tipo. Pero hay un argumento técnico en sentido opuesto: al aprender, estos sistemas no copian ni guardan en memoria las obras. Solo las usan para mejorar su conocimiento de cómo hacer la tarea. Algo no tan distinto de lo que hace un artista humano, que se deja influir e inspirar por el arte que ha visto.
Serán los tribunales de Estados Unidos los que decidirán si esto es un “uso legítimo” de los datos o no. Entretanto, la empresa Adobe trabaja en una alternativa que no usa imágenes con derechos de autor sin consentimiento de los creadores.
Europa, más estricta
Otro conflicto, esta vez centrado en Europa, es el de la protección de datos. La legislación de la Unión Europea (UE) no permite, en general, procesar la información personal de nadie sin su consentimiento. Esto se aplica incluso a datos que son públicos en Internet.
Para aprender a conversar, ChatGPT ha necesitado centenares de miles de millones de palabras obtenidas de la Red. Estos textos pueden incluir menciones a personas, y nadie las ha eliminado ni pedido su consentimiento. El problema es que, en este caso, eso parece imposible dado la enorme cantidad de datos: una “solución Adobe” no es viable.
Por tanto, una interpretación estricta de la normativa europea parece frontalmente incompatible con los sistemas como ChatGPT. De ahí que Italia lo haya prohibido .
Lo malo es que una medida así perjudica gravemente la competitividad de un país. Por ejemplo, este tipo de herramientas multiplican la productividad de los programadores. Si una empresa tecnológica quiere contratar personal, ¿lo hará en un país donde se permitan o donde se prohiban? La pregunta se responde sola. Así, los legisladores europeos se enfrentan a una situación incómoda: conciliar la protección de datos personales con no perder el tren de la IA frente a países con normas más laxas, como los anglosajones.
¿Cómo la usamos?
Otro aspecto clave de la regulación de la IA es para qué se usa. Hay que recordar que un algoritmo no es de por sí ético o no: es una herramienta que alguien usa para un fin. Por ejemplo, imaginemos un sistema que analice los datos de un paciente y sugiera un diagnóstico . Puede ser muy valioso para ayudar a un médico, adoptando esta última decisión según su propio criterio. En cambio, la misma tecnología sería un peligro si toma la decisión final, sustituyendo al facultativo.
La UE es consciente de esto, y está preparando una regulación bajo el principio de “poner a la persona en el centro”: IA, sí, pero siempre bajo supervisión humana.
El problema es cómo llegó a cabo. Europa partía con unos años de ventaja preparando certificaciones para un uso responsable de la IA, pero ha retrasado el proceso al irrumpir ChatGPT: ahora hay que contemplar el uso de una herramienta tan versátil que la puede usar cualquiera para multitud de multas, éticos o no.
Mientras tanto, Estados Unidos ha lanzado una consulta pública sobre cómo crear una regulación así. Y China también quiere hacerlo , añadiendo el objetivo de que los sistemas de IA reflejen “los valores del socialismo”.
¿Podría volverse contra nosotros?
Hemos tratado algunos de los retos legales y éticos que plantea la IA en el presente. Pero ¿qué pasará a más largo plazo? Desde un punto de vista técnico, aún no está claro si se podrá seguir avanzando a un paso tan frenético como el de los últimos años. Pero si fuera así, los aspectos regulatorios que hemos visto serían solo el principio. De ahí la petición de pausar por seis meses el desarrollo de nuevos sistemas , firmada a finales de marzo por cientos de expertos y figuras mediáticas.
En este sentido, un desafío muy comentado es el de la automatización de muchos puestos de trabajo. Pero revisando la historia, la humanidad siempre ha creado tecnologías para aligerar la carga laboral, y hoy no renunciaríamos a ninguna. La clave está en cómo repartir el trabajo y la riqueza: lo ideal sería evitar empleos necesarios (como denunciaba el antropólogo David Graeber) y desigualdad que impida a parte de la población el acceso a una fuente de ingresos.
Otra preocupación a futuro es qué pasará si llegamos a desarrollar sistemas de IA conscientes. Hace poco, Google despidió a un ingeniero por decir que uno de sus sistemas conversacionales ya lo era. Según el filósofo de la mente David Chalmers, no parece que esto sea así ; entre otras cosas, porque sistemas como ChatGPT no tienen memoria ni una personalidad estable.
Pero podría lograrse algún día. Si así fuera, habría que sopesar las sugerencias éticas de causar daño a un ser consciente, enfrentaría dilemas parecidos a los que plantea la clonación. También tendremos que evitar que la IA pueda volverse contra nosotros, una de las motivaciones de la petición de pausa.
En suma, los últimos avances en IA obligan a un debate amplio sobre cómo regular su uso. Debemos prestar atención a los riesgos, pero sin olvidar que las revoluciones tecnológicas siempre han mejorado nuestra calidad de vida.
The Conversation
-
¿Por qué algunos especialistas dicen que no es una buena idea contarle al ChatGPT lo que estamos pensando?
Políticos, empresarios e intelectuales solicitaron una “pausa” a la Inteligencia Artificial en tono apocalíptico
El "padrino" de la inteligencia artificial advirtió sobre sus riesgos tras renunciar a Google