"Sé que tú y Frank estaban planeando desconectarme, y me temo que es algo que no puedo permitir que suceda”. Desde que HAL 9000 dijo esas palabras en 2001, Odisea del Espacio, dirigida por Stanley Kubrick, la humanidad ha pensado con temor cuándo las máquinas dominarán el mundo. Fredi Vivas (43) es un ingeniero argentino reconocido en el mundo en materia de Inteligencia Artificial (IA), autor del libro Cómo piensan las máquinas. Inteligencia artificial para humanos, propone reflexionar sobre los límites de la IA y cómo es la mejor manera de aprovecharla para beneficio de los humanos.
Crecimos viendo películas en las que la IA siempre era la villana (2001, Terminator...), pero en la realidad, ¿deberíamos construir máquinas más humanas?
Es algo que me he planteado. El título de mi libro juega con esa idea: “Inteligencia artificial para humanos”. No creo que la IA tenga que ser más humana porque ahí entraríamos en un límite. Hay gente que habla de la IA como una réplica de la inteligencia humana pero, en realidad, es una inteligencia computacional que simula a la inteligencia humana a través de algoritmos y códigos de programación. Si vos creás máquinas que replican la forma de hablar de un humano, la forma de escribir de un humano, la forma de decidir de un humano, hay gente que está diciendo que no es correcto que eso pase. Yo estoy un poco en esa línea. A mí me ha pasado de llamar a un call center de una aerolínea para cambiar un vuelo y no saber que me atendió una máquina. Creo que va a tener que ser un nuevo derecho humano saber con qué cosas estás interactuando: si estás leyendo un texto hecho artificialmente, si estás mirando una foto intervenida artificialmente, si estás hablando con un agente no biológico inteligente.
Pero hoy hay aplicaciones de IA que usamos sin darnos cuenta y cada vez es más normal no tener que hablar con humanos para solicitar ciertos servicios, por ejemplo.
Necesitamos hablar con personas que tengan empatía. Si una máquina resuelve determinadas cosas que resuelve el humano, ¿cuál va a ser el diferencial humano por sobre la máquina? Ese mismo. Para mí el humano tiene que ser más humano en vez de que la IA sea más humana.
¿Creés que eso se podrá lograr gracias al tiempo ganado cuando una IA asuma tareas humanas?
Sí, pensá en un médico. Un médico tiene 10 tareas por día; una o dos de esas tareas van a ser hechas por una IA en los próximos años sin duda, por ejemplo, análisis de tomografías o procesamiento de información. Todo eso va a venir. Ya está pasando. Entonces, si ya no tiene que hacer una o dos tareas, ¿con qué las va a reemplazar? ¿En qué va a invertir su tiempo? Yo espero en ser más humano. Pienso que si construimos máquinas que nos ayuden a ser más eficientes en nuestras tareas cotidianas, vamos a liberar un poco de tiempo para eso.
Aunque decís que una máquina no debería ser más humana, ¿se puede construir una IA que sea tan empática como un humano?
Hay dos tipos de escuelas al respecto. Una dice que sí podríamos construir una IA empática que pueda entender lo que vos decís, que pueda ser como un psicólogo, un médico, un profesor o un novio o novia. Se puede construir porque estamos hablando del procesamiento del lenguaje natural. Fácilmente una máquina lo puede hacer como si fuésemos nosotros. De hecho, hay chatbots que son amigos, pareja, psicólogos... Pero hay gente que te dice que eso no está bien porque no podemos antropomorfizar a la IA y que, en su lugar, tenemos que convertirla en una herramienta para empoderar a los humanos, en definitiva, para que los humanos sean más humanos. Yo creo que voy más por ese lado.
Tu libro se llama Cómo piensan las máquinas, ¿qué implica el verbo ‘pensar’ para una máquina cuando esta es una actividad humana y podríamos decir que ellas, en realidad, lo que hacen es calcular o procesar datos?
Alan Turing, que sería como uno de los padres de todo esto, hablaba de algoritmos ya en 1936. Por los años 50 ya se preguntaba: “¿Cuánto podríamos aprender del pensamiento humano si pudiéramos crear máquinas que piensan?” Se me cruzaron varias ideas para el título porque siempre escuchaba a la gente diciendo “la máquina se colgó” o “se quedó pensando” y me preguntaba si la gente cree que las máquinas piensan. Claramente no piensan como nosotros ni aprenden como nosotros. Le damos un atributo humano a la máquina como hacemos con las mascotas. Y lo hacemos porque es nuestra tendencia ir hacia eso. Las máquinas no pueden pensar como nosotros, pero sí pueden calcular, pueden procesar, pueden predecir, pueden conocer el mundo a su manera. Por ejemplo,ChatGPT incorpora herramientas para que vos subas una foto y que detecte lo que hay adentro, entonces le preguntás cómo decoraría ese lugar para que se vea más moderno. Te escribe un texto sobre cómo mejorar ese lugar a través de la interpretación de la foto. Esto se llama inteligencia artificial multimodal. Podríamos decir entonces que ya puede ver. También puede escribir y podría hablar si se conecta la voz lo que ya va a pasar. Por este tipo de avances en algún momento vamos a llegar a un estadio de inteligencia artificial fuerte por el que muchas de estas habilidades o capacidades van a estar integradas, pero eso, por ahora, es un concepto bastante teórico.
Entonces, ¿estás en el bando de los optimistas, de los pesimistas o de los realistas?
La innovación puede sorprender y puede asustar; eso es normal. Los humanos no somos tan buenos abrazando la innovación. Lo más complejo es que los cambios o las innovaciones son cada vez más rápidas. Antes tardabas 30 o 40 años en ver un cambio. Pero mirá las grandes innovaciones en el mundo de la tecnología digital: computadora, internet, móviles, la nube y la inteligencia artificial. Entre cada uno y otro capaz hay entre 15 y 20 años pero desde que llegó la IA, que como concepto es viejo, vemos cosas distintas todos los días. Hay mil aplicaciones que fueron creadas en 7 u 8 meses. En este sentido, la innovación es algo que nos puede frenar. Pero yo soy optimista, aunque hay muchas cosas para definir y repensar.
Un optimista cauteloso.
(Se ríe) Sí, puede ser. Estoy en esto hace unos 12 años cuando era algo de nicho y era algo muy controlado. Pero ahora podés ver herramientas por las que se clonan voces y hubo intentos de secuestros a partir de esas voces clonadas. Hoy puedo hacerme pasar fácilmente por otra persona con tecnologías que existen hace 15 o 20 años pero que hoy están muy al alcance de la mano. Se dice que, cuando los ladrones empezaron a robar en moto, los policías aprendieron a usarlas. Aquí hay una lógica similar. En lo que respecta a la ciberseguridadnos falta mucho y, como la mayoría de la gente no entiende bien cómo funciona, estamos débiles en ese sentido.
Aquí retomamos lo que dijiste: que debe ser un derecho humano saber con qué interactuamos. ¿Qué más te preocupa?
Nos faltan reglamentaciones. En Europa se está trabajando en una ley que para mí va a ser como un estándar, aunque creo que va a quedar restringida a la propiedad intelectual que está totalmente desafiada y la privacidad de los datos. Pero hay cosas más profundas que me preocupan más. Un tema es la honestidad, transparencia y veracidad. Por ejemplo, ChatGPT hoy tiene alucinaciones, o sea, a veces inventa textos por diseño. La entrenaron con billones de páginas web de parámetros para que genere texto verosímil, con una buena estructura, que lo ves y decís que no hay una falla en esto pero es falso. Eso no va a entrar en ninguna cuestión legal y va a quedar a juicio de nuestro sentido común. Lo otro son los atajos de la IA o cómo colabora con nosotros. Se comprobó con un videojuego que era muy sencillo en el que había un barco que tenía que hacer un recorrido para salir al mar y ganar puntos. Entrenaron a una IA para que sumara la mayor cantidad de puntos. Entonces desarrolló una forma distinta de jugar: no hacía el recorrido sino que se quedaba en un lugar durante un tiempo para conseguir un bonus.
Eso es trampa.
Exactamente. Y eso es peligroso. Estamos hablando de un juego, ¿pero a otro nivel puede hacerlo también? Cuando la tecnología se vuelve muy avanzada se vuelve invisible y va a llegar el momento en que no vamos a percibirla. En ese momento debería ser una herramienta para potenciar a los humanos.
Estudió Ingeniería en Sistemas Informáticos y realizó estudios de posgrado sobre inteligencia artificial, machine learning y bíg data en la Singularity University. En 2017 co-fundó RockingData, reconocida como una de las 10 startups con mayor proyección en 2022. Esta semana participó del lanzamiento de las carreras de Business Analytics y de Inteligencia Artificial y Ciencia de Datos en la Universidad Católica.