EFE
El cofundador y consejero delegado de Google DeepMind, Demis Hassabis, considerado uno de los padres de la inteligencia artificial (IA), aseguró este lunes 26 de febrero que los actuales modelos de lenguaje son solo un pequeño avance de unos sistemas que en poco tiempo serán capaces de "planificar" y "actuar" en el mundo real.
"Solo estamos rozando la superficie de lo que va a venir en los próximos años", afirmó el académico y empresario durante una de sus poco habituales intervenciones públicas en el Mobile World Congress (MWC), el mayor congreso tecnológico del mundo.
Hassabis avanzó que en apenas dos años comenzaremos a ver ensayos clínicos de medicamentos diseñados por la IA, que serán especialmente eficaces gracias a su capacidad para crear compuestos químicos que puedan ligarse a una proteína en particular, sin impacto en otras moléculas, lo que puede minimizar los efectos secundarios.
Anticipó también un salto adelante en el descubrimiento de materiales —"sueño con descubrir algún día un superconductor a temperatura ambiente", apuntó—, así como en la predicción del tiempo —los actuales sistemas inteligentes ya calculan en segundos pronósticos que costarían horas en un superordenador convencional—.
En el campo de las matemáticas, cree que la IA va a resolver algunas de las grandes conjeturas todavía abiertas, lo que llevará a descubrimientos insospechados en multitud de ámbitos.
En el plazo de una década, especuló, los sistemas inteligentes pueden dejar de necesitar a científicos humanos que les planteen hipótesis y problemas que solucionar, y serán las propias máquinas las que formulen sus propias conjeturas.
Hassabis admitió que los humanos dejarán previsiblemente de comprender cómo han obtenido sus soluciones los modelos artificiales, pero cree que gracias a su capacidad de lenguaje se les podrá preguntar cómo lo han hecho. "Igual a como lo harías con una persona", describió.
La IA, campo de avances graduales
El científico británico, que comenzó su carrera en la industria de los videojuegos y regresó luego a la universidad para doctorarse en Neurociencia, cree que el avance hacia la inteligencia artificial general, el término utilizado en el sector para referirse a una máquina capaz de pensar como un humano, será un proceso gradual y no se producirá en un salto cualitativo inesperado.
Hassabis abrió con DeepMind la puerta al actual "boom" de la IA a partir de 2016. Primero, con AlphaGo, que logró dominar el juego chino del go, que se resistía hasta entonces a los algoritmos convencionales.
Cuatro años después, lanzó AlphaFold, una herramienta con la que ha solventado la cuestión del plegado de las proteínas, uno de los principales retos que tenía la biología. Identificar la forma que tomaría una proteína a partir de su secuencia genética podía llevarle cinco años de doctorado a un biólogo en ciernes: AlphaFold lo hace en pocos segundos.
"Existen unas 200 millones de proteínas conocidas. Las hemos plegado ya todas", expresó Hassabis, cuyo software solventó en apenas un año un problema que en el que la biología llevaba décadas trabajando y no tenía visos de terminar a corto plazo sin la IA.
El investigador señaló que en los laboratorios de Google pensaban que los modelos de lenguaje no estarían listos para ser utilizados por el gran público hasta que solucionaran sus problemas con las "alucinaciones" y falta de rigor en algunos casos.
Se sorprendió cuando, "dos años antes de lo que esperábamos", el lanzamiento de ChatGPT ha llevado a millones de personas a utilizarlos para tareas como escribir código y resumir documentos, aunque no sean "precisos al 100%".
Al abordar la estrategia de OpenAI, Hassibis piensa que aplicaron "la mentalidad de crecimiento de Silicon Valley" y escalaron "a la máxima velocidad" unos modelos que ya existían.
"Nadie predecía estas nuevas capacidades que emergieron simplemente al escalar (el sistema), sin otras innovaciones", dijo.
Futuros peligros de la IA
El fundador de Google DeepMind coincide con otros expertos del campo en advertir de los futuros peligros de la inteligencia artificial. "Hoy no es un problema, porque los actuales sistemas están relativamente en sus primeras etapas", aseguró.
En el futuro, sin embargo, los sistemas inteligentes podrían caer en manos de actores maliciosos y suponer un peligro mayor. "Si nos adelantamos tres, cuatro o cinco años, empezamos a hablar de sistemas con capacidades de planificación, capaces de actuar en el mundo y resolver problemas, tener objetivos", comentó.
"La sociedad ha de pensar realmente en estos problemas, en qué ocurre si proliferan los actores con malas intenciones, desde individuos hasta estados, que se puedan aprovechar de eso", agregó.
-
Google suspende la generación de imágenes con inteligencia artificial de Gemini tras imprecisiones históricas
Paciente con implante cerebral Neuralink puede mover cursor de una computadora con su mente, asegura Elon Musk
Los avances y los desafíos de la Inteligencia Artificial en 2024: más capacidad y amenazas regulatorias