Un grupo de expertos, políticos y empresarios del sector tecnológico, entre ellos Elon Musk, solicitaron en una carta de tono apocalíptico que se suspendan durante seis meses los experimentos con inteligencia artificial (IA) porque consideran que “pueden plantear profundos riesgos para la sociedad y la humanidad”.
“La sociedad ha hecho una pausa en otras tecnologías con efectos potencialmente catastróficos en la sociedad. Podemos hacerlo aquí. Disfrutemos de una larga pausa veraniega de la IA y no nos apresuremos a caer sin estar preparados”, dice la carta abierta publicada en el sitio futureoflife.org del organismo sin ánimo de lucro Future of Life Institute.
Antes, ahora y mañana
Los avances tecnológicos han impactado en el mercado laboral a lo largo de la historia. Hoy las máquinas hacen cosas que antes realizaban los humanos. Y hoy hacemos trabajos que antes no existían. Así fue, es y será. La cuestión está en cuán preparados estamos para acompañar esos avances.
El director ejecutivo de Tesla y SpaceX, y reciente dueño de Twitter, Elon Musk, el cofundador de Apple Steve Wozniak, los investigadores estadounidenses Yoshua Bengio, Stuart Russel o los españoles Carles Sierra y Ramón López De Mantaras, y el historiador israelí Yuval Noah Harari, son algunos de los firmantes de esta carta abierta en la que advierten de los supuestos peligros de la IA si no es acompañada de una gestión y una planificación adecuadas. También la firman miembros del laboratorio de IA de Google, el director de Stability IA, Emad Mostaque, y expertos y académicos estadounidenses de IA e ingenieros ejecutivos de Microsoft, empresa aliada de OpenAI.
“La IA avanzada podría representar un cambio profundo en la historia de la vida en la tierra, y debería planificarse y gestionarse con el cuidado y los recursos correspondientes”, asegura la misiva que sostiene, además, “que los laboratorios de IA se han enzarzado en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas”.
Incluso aseguran que “nadie -ni siquiera sus creadores- puede entender, predecir o controlar de forma fiable” a estas mentes digitales.
Los firmantes enarbolan todos los miedos y peligros que en los últimos meses han resonado en foros, artículos y conversaciones cotidianas y lo hacen con un tono apocalíptico.
“¿Debemos desarrollar mentes no humanas que podrían acabar superándonos en número, ser más inteligentes que nosotros, que nos dejen obsoletos y que nos reemplacen? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización?, se preguntan, antes de concluir: “Tales decisiones no deben delegarse en líderes tecnológicos no electos”.
En este sentido, piden que los desarrolladores trabajen con los legisladores para acelerar un sistema legal sólido en torno a la IA.
Asimismo, vuelven a subrayar que los sistemas potentes de Inteligencia Artificial únicamente deben desarrollarse cuando haya seguridad de que sus efectos son positivos y sus riesgos son manejables.
“Hacemos un llamamiento a todos los laboratorios de IA para que pausen de inmediato durante al menos seis meses el entrenamiento de los sistemas de IA más potentes que GPT-4”, dice la carta sobre la última versión del ChatGPT, y pide la intervención de los gobiernos para imponer esta moratoria en caso de que las partes implicadas se nieguen a la suspensión temporal.
La carta abierta propone que durante estos seis meses de pausa, los laboratorios de IA y los expertos independientes “desarrollen e implementen un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo avanzados de IA que sean rigurosamente auditados y supervisados por expertos externos independientes”.
Finalmente, piden que la investigación y el desarrollo de la IA se reenfoque en hacer que “los sistemas potentes y de última generación sean más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales”. Esas pautas, sostienen, ayudarán a distinguir entre lo real y lo artificial, y crear instituciones capaces de hacer frente a la “dramática perturbación económica y política (especialmente para la democracia) que causará la IA”.
Macri recurrió al Chat GPT en un discurso
El expresidente Mauricio Macri asistió el martes a la cena anual del think tank argentino Fundación Libertad, donde comenzó su discurso leyéndolo desde su celular.
“Buenas noches a todos y todas, es para mí un honor estar hoy en el cierre de la comida anual de la Fundación Libertad”, expresó. Y continuó: “esta es una organización que hace años trabaja por la defensa de la libertad y los valores democráticos de nuestro país”.
A continuación, expresó: “Esto se lo pedí al chat GPT hace cinco minutos en mi mesa. No les voy a leer todo el discurso, pero realmente está muy bueno”.
El expresidente cosechó algunos aplausos tras la inusual apertura de la exposición. Aclaró que el discurso escrito por el chat “no se compara” al de los oradores previos -entre ellos, los expresidentes de Chile, México y Bolivia; Sebastián Piñera, Felipe Calderón y Jorge Quiroga, respectivamente-.
Tras leer el chat, Macri señaló: “Lo hago porque esto muestra la revolución tecnológica en la que está la humanidad, que ahora entra en una nueva fase y que va a tener un gran impacto en nuestras vidas”. Sostuvo, en cambio, que Argentina tiene hoy en día “una agenda del siglo XX”. (La Nación - GDA)
Miedo del creador
GPT, siglas en inglés del término transformadores preentrenados generativos, es un tipo de modelo de aprendizaje artificial que se utiliza para generar lenguaje similar al humano. El GPT-4 es mucho más avanzado que los modelos similares anteriores.
El laboratorio OpenAI define el ChatGPT como su “último hito en el esfuerzo para ampliar el aprendizaje profundo”. Este nuevo sis-tema acepta la recepción tanto de textos e imágenes, y produce texto.
Sin embargo, OpenAI asegura que ChatGPT sigue siendo menos capaz que las personas en muchas situaciones reales aunque “muestra un desempeño a nivel humano en varios puntos de referencia académicos y profesionales”.
El director de OpenAI, que diseñó ChatGPT, Sam Altman, ha reconocido tener “un poco de miedo” de que su creación se utilice para “desinformación a gran escala o ciberataques”. “La em-presa necesita tiempo para adaptarse”, declaró recientemente a ABCNews.
¿Nos superarán las máquinas?
“¿Debemos desarrollar mentes no humanas que podrían acabar superándonos en número, ser más inteligentes que nosotros, que nos dejen obsoletos y que nos reemplacen? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización?, se preguntan los expertos, políticos y empresarios del sector tecnológico que divulgaron la carta pidiendo una pausa en el avance de la Inteligencia Artificial (IA). En la carta, concluyen: “Tales decisiones no deben delegarse en líderes tecnológicos no electos”.
La carta abierta propone que durante seis meses de pausa, los laboratorios de IA y los expertos independientes “desarrollen e implementen un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo avanzados de IA”.
Desafíos educativos
El fundador del gigante de comercio electrónico Alibaba, Jack Ma, no firmó la carta, pero se sumó a las advertencias sobre la IA. El multimillonario afirmó en China que la tecnología de IA como ChatGPT trae “desafíos a la educación”.
Ma visitó este lunes una escuela en la ciudad de Hangzhou, en la provincia oriental china de Zhejiang y sede de la compañía, donde discutió el futuro de la educación con los directores del colegio y compartió su perspectiva sobre ChatGPT.
El gurú tecnológico declaró que las “tecnologías como ChatGPT han traído desafíos a la educación, pero son solo el comienzo de la era de la inteligencia artificial”, informó la escuela en su cuenta oficial de la red social Wechat.
Ma enfatizó que “debemos usar la IA para resolver problemas en lugar de ser controlados por ella”.
“Aunque la fuerza física y mental de los seres humanos no es comparable a la de las máquinas, las personas tienen un ‘corazón’ mientras que los robots solo tienen ‘chips’”, agregó Ma, en declaraciones recogidas también por el diario oficialista Global Times.
El fundador de Alibaba regresó a China recientemente tras permanecer en el extranjero durante más de un año después de criticar en 2020 el sistema de control financiero del gigante asiático.
Estas declaraciones provocaron que los reguladores chinos suspendieran la salida a bolsa de Ant Group, la tecnofinanciera (fintech) de Alibaba, al amparo de una normativa más restrictiva para el sector.
El magnate chino, con cuya detención se llegó a especular, dejó la presidencia de Alibaba en 2019.
El idioma español, un problema para la IA
La Inteligencia Artificial (IA) va a tener muchos problemas con el español, teniendo en cuenta sus variedades, acentos, subacentos y jergas. Uno de los temas del IX Congreso Internacional de la Lengua Española que se celebra en la ciudad andaluza de Cádiz hasta hoy jueves es la IA, y el acto inaugural dejó un momento que da una idea del trecho que tienen que recorrer las máquinas.
Fue cuando el alcalde de la ciudad anfitriona, José María González Santos, más conocido como Kichi, le deseó a los participantes que lo pasen bien, en gaditana. “Señoras y señores, estén al ‘liquindoi’, aprovechen ‘la collá’ y la ‘conviá’, disfruten del ‘tangai’, para que cuando les toque ‘guannajarse’ puedan decir con orgullo que este congreso ha sido un ‘bastinazo’”, lanzó Kichi.
Pues bien, esto es lo que transcribió uno de los programas más populares del mundo: “señoras y señores, China lindo y aproveche la ***** y la cumbia y disfruten del tangai para que cuando les toque guardarse puedan decir con orgullo que este congreso ha sido un partidazo”.
Esto, explicó a la AFP Virginia Bertolotti, lingüista uruguaya, “es una muestra de que si alimentamos las inteligencias artificiales con algo que es relativamente plano, como es internet, hay cosas que hacen muy bien, pero hay cosas que no pueden hacer”. “Si yo le digo ‘hazme un diálogo entre gauchos del siglo XIX’, hace cualquier cosa”, sostuvo Bertolotti, catedrática de la Universidad de la República, miembro de la Academia de Letras de Uruguay.
Con información de AFP y EFE