Manuel Ansede / El País de Madrid
Terence Tao resopla y niega agitando las manos en el aire cuando escucha que él es el ser humano más inteligente del planeta, según multitud de clasificaciones en internet, como una reciente de la BBC. Sí es uno de los mejores matemáticos de la historia. Cuando tenía dos años, sus padres le vieron enseñando a otro niño de cinco años a contar. “Yo no me acuerdo, pero mis padres dicen que me preguntaron cómo había aprendido a contar y les respondí que viendo Barrio Sésamo”, relata Tao, nacido en la ciudad australiana de Adelaida hace 49 años. Cuando tenía 11, ganó una medalla de bronce en la Olimpiada Internacional de Matemáticas. Con 12, se llevó la plata. Con 13, el oro. Con 21, se doctoró en la Universidad de Princeton (EE UU). Con 24, ya era catedrático en la Universidad de California en Los Ángeles. Y a los 31 años ganó la medalla Fields, considerada el Nobel de su disciplina.
“Es el Leonardo da Vinci de las matemáticas”, le presentó su colega española Eva Miranda, durante una charla organizada el 18 de septiembre por el Centro de Investigación Matemática en Barcelona. “No es una exageración decir que es el mejor matemático vivo. Lo que le hace especial es que es el más polifacético”, explica Miranda. Terence Tao se atreve con los problemas más endiablados, como las ecuaciones de Navier-Stokes, que describen desde 1845 el movimiento de los líquidos y los gases. A partir de la temperatura, la viscosidad y la velocidad inicial de un fluido, las ecuaciones calculan su velocidad en un momento posterior. Casi dos siglos después de su enunciación, se desconoce si las soluciones mantienen siempre una cierta regularidad o si puede surgir una explosión, un cambio brusco de comportamiento. Quien lo averigüe ganará un millón de dólares, porque es uno de los siete Problemas del Milenio por los que el Instituto Clay de Estados Unidos ofrece una recompensa.
En sus ratos libres, Tao aplica el análisis matemático a enigmas de actualidad, como las recientes elecciones presidenciales de Venezuela. En su blog, el matemático llamó la atención sobre los resultados oficiales, con porcentajes extrañamente redondos. El autócrata Nicolás Maduro habría recibido 5.150.092 votos, exactamente el 51,2%. Su rival, el opositor Edmundo González, 4.445.978 votos, justo el 44,2%. El resto de votos alcanzaría de forma precisa el 4,6%. Estos resultados son prácticamente imposibles, argumenta Tao.
Pregunta. Usted ha aplicado el análisis matemático a las elecciones en Venezuela.
Respuesta. La probabilidad bayesiana es el camino matemático para actualizar tus creencias sobre algo. Puedes pensar que las elecciones en Venezuela fueron justas o que se manipularon, o tal vez que hay una probabilidad del 50% en cada caso. Cada vez que recibes nueva información, puedes actualizar tus creencias. Si ocurre algo que sería improbable si las elecciones fueran justas, aumentaría la probabilidad de que hubieran sido manipuladas. Y viceversa. Hay una fórmula para medir esto, pero cada vez que llega una nueva información tienes que calcular la probabilidad de que ese evento ocurriera bajo una hipótesis u otra. Un buen ejemplo son los números ganadores de la lotería. De vez en cuando siguen un patrón, como 10, 20, 30, 40, 50. Esos patrones son muy improbables si la lotería es al azar, pero también son muy improbables si el sorteo estuviera amañado. Simplemente, cada millón de veces aparece un patrón curioso como ese, pero no significa nada.
P. ¿Y en Venezuela?
R. Lo que ocurrió en las elecciones en Venezuela es que no se comunicó el número de votos en cada circunscripción, sino unos resultados totales, y cada cifra era un porcentaje redondo. El 51,2% exacto, por ejemplo. Eso es muy muy inusual. La probabilidad de que ocurriese por casualidad es una entre 100 millones, pero podría explicarse si las elecciones se manipularon. El presidente le pudo decir al consejo electoral: “Quiero que estos porcentajes sean el resultado”. La manipulación es una explicación verosímil, mientras que la casualidad no lo es. Esto aumenta la probabilidad de que las elecciones fueran amañadas.
P. ¿Cuál es la probabilidad de que los resultados estén amañados?
R. Hay tres hipótesis. Una es que las elecciones fueron justas y los resultados se comunicaron con precisión. La segunda es que hubo una manipulación de los votos. Y la tercera es que la comisión electoral cometió un gran error, por incompetencia, no por malicia. La primera hipótesis es casi descartable, porque es extremadamente improbable que esos porcentajes fueran los reales. Así que quedan dos posibilidades: o el Gobierno venezolano es corrupto o es incompetente. Ambas podrían explicar estos datos. Han pasado dos meses desde las elecciones y creo que, con el tiempo, ha aumentado la probabilidad de manipulación, porque todavía no han publicado los resultados de cada circunscripción. Si simplemente fueron incompetentes y cometieron un error con los porcentajes, ya los habrían corregido a estas alturas. Lo más probable es que hubiera una manipulación de los votos.
P. Usted es uno de los asesores científicos del presidente de Estados Unidos, codirector del grupo de trabajo de la Casa Blanca sobre los riesgos y oportunidades de la inteligencia artificial generativa. El historiador Yuval Noah Harari sostiene en un nuevo libro —Nexus— que la inteligencia artificial supone una amenaza que incluso podría destruir la humanidad. ¿Usted qué opina?
R. Es posible, teóricamente. Es una tecnología muy poderosa. En el pasado ha habido muchas tecnologías transformadoras —el automóvil, el avión, internet—, pero lo que hace especial a la inteligencia artificial es que afecta a casi todo lo que hacemos: el periodismo, las matemáticas, la medicina, lo que sea. También podría utilizarse para ayudar a construir armas, quizá no tanto militares, pero sí, por ejemplo, videos manipulados extremadamente realistas para alterar unas elecciones. La gente teme que la inteligencia artificial se convierta en una superinteligencia que tome el control del planeta, como en la ciencia ficción, como Skynet (la inteligencia artificial de la película Terminator). Sin embargo, los actuales sistemas son extremadamente limitados: básicamente son máquinas muy buenas resolviendo adivinanzas. Haces una pregunta y suponen la respuesta. Si la situación es inusual, sin muchos datos previos, las respuestas todavía son horribles. No me preocupa mucho. En 10 o 20 años estas tecnologías serán mucho más poderosas y puede que sean capaces de hacer cosas muy peligrosas, pero para entonces también tendremos mucha experiencia lidiando con ellas. Sabremos cómo defendernos.
P. Yuval Noah Harari afirma en su libro que un grupo terrorista podría crear un nuevo patógeno letal y diseminarlo.
R. Es mucho más probable que se maten a sí mismos intentando hacer eso. Ya hay instrucciones en internet para hacer estas cosas, si buscas bien, así que es preocupante, pero estas inteligencias artificiales cometen muchos errores. Una ventaja es que los sistemas más avanzados no caben en un teléfono ni en un ordenador portátil. Necesitas una red enorme de computadoras. Solo hay unos pocos lugares en el mundo en los que se pueden construir estas máquinas, no es algo que puedas ocultar. Y los terroristas, en concreto, casi no pueden utilizar aparatos electrónicos, como se acaba de ver.
P. Se refiere a la explosión de los buscas de los milicianos de Hezbolá en Líbano.
R. Exacto, creo que los terroristas desconfiarán mucho de las herramientas de inteligencia artificial, porque los servicios secretos las pueden usar contra ellos. Probablemente son más peligrosas para los terroristas que para nosotros.
P. Hablando de explosiones, según las ecuaciones de Navier-Stokes, teóricamente, ¿el agua puede explotar espontáneamente y destruir el mundo?
R. En matemáticas el agua podría explotar, pero es menos emocionante de lo que parece. Las ecuaciones de Navier-Stokes son las que rigen los fluidos, o eso es lo que creemos. Son una simplificación de las leyes de la naturaleza. Las auténticas leyes de la física son más complejas, porque el agua tiene billones de átomos. Es imposible modelar cada uno por separado, así que simplificamos: asumimos que las velocidades de todas las partículas no fluctúan demasiado. Y entonces obtenemos estas ecuaciones de Navier-Stokes. Las usamos para predecir, por ejemplo, el tiempo meteorológico y el movimiento de los océanos, pero hay un escenario en el que las ecuaciones de Navier-Stokes dejan de ser un buen modelo para los fluidos.
P. ¿Cuál?
R. El agua tiene una cierta cantidad de energía cinética, porque cada partícula se mueve a una velocidad determinada. Hay viscosidad, así que, debido a la fricción, la energía cinética disminuirá lentamente con el tiempo. El agua no puede volverse cada vez más rápida en todas partes. Sin embargo, lo que sí podría ocurrir es que la energía cinética distribuida por todo el fluido se transfiriera a una pequeña cantidad de agua que se mueve muy rápido, y luego a una cantidad incluso menor de agua que se mueve todavía más rápido. Esto colapsaría en lo que se denomina una singularidad y, entonces, veríamos que el agua presenta lo que en matemáticas se denomina una explosión, pero no es realmente una explosión. Es como cuando haces restallar un látigo. El comienzo del látigo es grueso y tiene una punta muy fina. Cuando lo haces restallar, hay una onda que empieza lentamente, pero, a medida que el látigo se vuelve más delgado, se mueve más rápido. Y, al final, es más rápida que la velocidad del sonido y eso crea el chasquido del látigo. Eso es a lo que llamamos explosión. ¿Es posible restallar el agua como un látigo? Lo llamamos explosión, pero es más como un restallido. Una explosión sónica.
P. Google DeepMind anunció hace un par de meses que sus sistemas de inteligencia artificial AlphaProof y AlphaGeometry habían ganado una medalla de plata en la Olimpiada Matemática Internacional.
R. Sí, pero con un asterisco: no fue en la competición oficial.
P. Usted ganó la medalla de plata con 12 años. ¿La inteligencia artificial ha alcanzado el nivel del Terence Tao de 12 años?
R. Es un logro impresionante, algo que no esperábamos que ocurriera ya. Pensábamos que tal vez sucedería dentro de dos o tres años, pero hay ciertos matices. En primer lugar, eran dos herramientas diferentes de inteligencia artificial. Una de ellas resolvió tres problemas y la otra resolvió un cuarto, suficiente para una medalla de plata. Otro aspecto es que no recibieron directamente los enunciados de los problemas, sino que un humano se los tradujo a un lenguaje especial. Además, tuvieron mucho más tiempo. En la Olimpiada real, los estudiantes disponen de ocho horas para resolver seis problemas. La inteligencia artificial necesitó tres días para resolver uno de los problemas, pese a emplear un enorme grupo de superordenadores de Google. No es como ChatGPT, que haces una consulta y en 10 segundos te da una respuesta. Así que no es exactamente equivalente a una competición humana, pero sigue siendo extremadamente impresionante. Hay otras áreas en las que los ordenadores son mejores que los humanos desde hace mucho tiempo. Un niño con una calculadora será siempre mucho mejor en aritmética que yo calculando con papel y lápiz. Los ordenadores también son mejores en ajedrez, en póker y en muchos videojuegos, como StarCraft. Creo que, en dos o tres años, estos programas de inteligencia artificial serán mejores que los humanos en estas competiciones matemáticas.
P. ¿Mejores que usted? ¿En solo tres años?
R. Sí, pero hace muchos años que no participo en estas competiciones. Es una actividad muy diferente a la investigación matemática. Los torneos son como esprintar 100 metros, mientras que la investigación es como correr un maratón. Necesitas meses para resolver un problema y tienes que consultar la literatura previa.
P. ¿Y cree que la inteligencia artificial puede llegar a ser mejor que usted en una actividad tan creativa como la investigación matemática?
R. Creo que será un asistente muy útil. Cada vez son mejores para resolver problemas sobre los que hay mucha información de cuestiones similares. El asunto es que los matemáticos, habitualmente, solo publicamos nuestros éxitos, no compartimos lo que probamos y no funciona. Y una de las razones por las que los matemáticos aprenden a hacer bien su trabajo es porque cometen muchos errores y aprenden de ellos. La inteligencia artificial no tiene estos datos.
P. ¿Entonces?
R. Todos los sistemas actuales se basan en enormes cantidades de datos. Si quieres enseñarle a una inteligencia artificial cómo es un vaso de agua, necesitarás millones de imágenes de vasos de agua. A ti te enseño uno y dices: “De acuerdo, lo entiendo”. Es necesario un gran avance para enseñar a las herramientas de inteligencia artificial a aprender con muy escasos datos. No tenemos ni idea de cómo hacer esto. Si lo logramos, tal vez la inteligencia artificial pueda ser tan buena como los humanos en tareas creativas.
P. ¿Qué opina de que los sistemas de inteligencia artificial estén en manos de ultrarricos, como Elon Musk?
R. Existen algunos modelos de inteligencia artificial de código abierto que ya están disponibles, aunque van dos o tres años por detrás de los grandes modelos comerciales. No es bueno que algo tan importante como la inteligencia artificial sea un monopolio controlado por una o dos empresas, pero la tecnología básica para desarrollar estas herramientas es relativamente pública. En principio, cualquiera puede construir una inteligencia artificial. El problema es que requiere mucho hardware, muchos datos y mucho entrenamiento, así que se necesitan cientos de millones de dólares para crear uno de estos modelos realmente potentes, pero el coste se reducirá con el tiempo. En el futuro habrá muchas alternativas de acceso abierto. Creo que también será necesario regular algunos aspectos, como la capacidad de generar vídeos manipulados extremadamente realistas, que podrían influir en las elecciones o usarse para chantajear a personas. Es preocupante que algo tan poderoso esté controlado por unas pocas empresas.
P. Algunos de estos empresarios, además, son un poco extravagantes.
R. Cuando salieron estos modelos de inteligencia artificial, hubo cierta preocupación por si se usarían para generar propaganda, por si habría una especie de ChatGPT conservador, otro liberal, otro del Partido Comunista de China que solo daría respuestas autorizadas sobre Taiwán. Esto no ha ocurrido. Necesitaremos regulación, pero hasta ahora no ha sido tan dañino como temíamos. Lo que sí va a ocurrir pronto es que vamos a perder la confianza. Antes veías un vídeo de un acontecimiento y pensabas que efectivamente había ocurrido. No había manera de falsificar un vídeo de un avión chocando contra el World Trade Center. Ahora, con la inteligencia artificial, es posible. La consecuencia es que la gente no se va a creer las imágenes auténticas. Ya no habrá confianza ni en las fotos ni en los vídeos. ¿Cómo convenceremos a alguien de que algo ocurrió si todo puede ser falsificado? Es un problema. Tenemos que encontrar nuevas formas de verificar los hechos.