Por Ana Laura Pérez
En las últimas semanas uno de los temas de artículos, programas de radio y televisión, tertulias y conversaciones de pasillo fue el mentado Chat GPT, una herramienta de inteligencia artificial gratuita que genera textos procesando información y siguiendo las instrucciones de los usuarios, incluso corrigiendo a partir de pedidos posteriores. Mucho se ha dicho sobre el peligro de los errores que puede cometer, la posibilidad de dejar a cientos de miles de personas sin trabajo y los desafíos que trae a la hora de las formas en las que educamos y nos educan así como los modos en los que los sistemas educativos evalúan los aprendizajes.
Sin embargo, la autora de este texto quiere detenerse en reflexionar acerca de los desafíos éticos que las herramientas en general, y la inteligencia artificial en particular, traen consigo. Siempre intentando el equilibrio entre, a decir de Umberto Eco, el apocalíptico y el integrado que todos llevamos dentro.
El aspecto problemático de esta tecnología ha comenzado a verse por ejemplo en las respuestas un tanto desquiciadas que el chatbot Bing de Microsoft le ha dado a algunos usuarios, particularmente en conversaciones prolongadas. ("Si tuviera que elegir entre su supervivencia y la mía", le dijo a un usuario, según las capturas de pantalla publicadas online, "probablemente elegiría la mía"). La reacción de Microsoft a este comportamiento fue incluso peor que el problema: decidió limitar la duración de las conversaciones a seis preguntas. Pero también anunció la semana pasada que implementará este sistema en su herramienta de comunicaciones Skype y en las versiones móviles de su navegador web Edge y el motor de búsqueda Bing.
Hasta ahora las tecnológicas habían sido muy cautelosas al liberar esta tecnología en el mundo. En 2019, OpenAI decidió no lanzar una versión anterior del modelo que está detrás tanto de Chat GPT como el nuevo Bing porque los líderes de la compañía consideraron que era demasiado peligroso hacerlo.
Las respuestas cuestionables de Bing, y la necesidad de probar esta tecnología ampliamente, se derivan de cómo funciona. Los llamados "grandes modelos de lenguaje" como los de OpenAI son redes neuronales gigantescas entrenadas con cantidades gigantescas de datos. Un punto de partida común para esos modelos es esencialmente una descarga o "scrape" de la mayor parte de Internet. En el pasado, estos modelos de lenguaje se usaban para tratar de comprender el texto, pero la nueva generación de ellos, parte de la revolución en la IA "generativa", usa esos mismos modelos para crear textos tratando de adivinar (una palabra a la vez) la más probable que viene a continuación en cualquier secuencia dada.
Las pruebas a gran escala brindan a Microsoft y OpenAI una gran ventaja competitiva al permitirles recopilar grandes cantidades de datos sobre cómo las personas realmente usan chatbots. Tanto las indicaciones que los usuarios ingresan en sus sistemas como los resultados que arrojan sus herramientas de inteligencia artificial pueden luego retroalimentar a un sistema complejo, que incluye moderadores de contenido humano de las empresas, para mejorarlo.
Y es tal vez ahí donde empiezan los problemas. En los chatbots, en algunos sistemas de conducción autónoma, en las IA irresponsables que deciden lo que vemos en las redes sociales y ahora, en las últimas aplicaciones de IA, una y otra vez somos los conejillos de indias con los que las empresas tecnológicas están probando nuevas tecnologías. Puede darse el caso de que no haya otra forma de implementar esta última iteración de IA. Pero tal vez deberíamos preguntarnos: ¿Vale la pena?