Redacción El País
Los engaños con inteligencia artificial (IA) ya son una realidad. Esta novedosa tecnología es capaz de aprender e imitar por lo que ya es utilizada para crear contenido digital y hacer creer que una persona dijo o hizo algo que nunca pasó.
Un ejemplo de esto fue advertido días atrás por el Banco Central del Uruguay, luego de que comenzara a circular un video falso que utiliza tanto la imagen como la voz del presidente del Directorio, Washington Ribeiro, "para dar recomendaciones sobre una supuesta plataforma de inversión".
O como le ocurrió a Sandra Costa, una mujer que recibió una llamada de su supuesto hermano diciéndole que estaba en peligro, que habían copado su casa y que su vida corría peligro. Sandra no dio tiempo a que su supuesto hermano le pidiera dinero, porque salió corriendo a su casa y corroboró que se trataba de una farsa. Más tarde, al hacer la denuncia, la Policía le dijo que sí, que este tipo de cosas están ocurriendo, según contó a Subrayado (Canal 10).
"Ese tipo de ataque que manipulan a las personas para que den alguna información o accedan a determinados sitios no es nuevo, es un ataque que se viene produciendo en las redes sociales o tal vez por otras vías, pero con la llegada de la inteligencia artificial ese escenario se complejiza", apuntó a El País, Vitalio Alfonso, el coordinador de la Licenciatura en Ingeniería de Datos e Inteligencia Artificial de la Universidad Tecnológica de Uruguay (UTEC), una carrera que forma profesionales capacitados para desarrollar este tipo de tecnología, pero también las herramientas para detectarla.
¿Cómo se puede identificar si un video fue creado con inteligencia artificial?
Con la IA es posible "recrear imágenes que parecen extraídas de la realidad e incluso pueden imitar la voz y los rasgos faciales" de las personas por lo que cada vez es más difícil detectar estos engaños. Por esto, el experto recomienda "prestar atención" a ciertos indicadores que reflejan que esa filmación no es real, estos son: los parpadeos anormales o excesivos, los movimientos faciales descoordinados y la falta de sincronismo entre el video y el audio.
No obstante, el experto aseguró que esto dependerá de qué tan elaborado sea el contenido por lo que él recomienda a los usuarios adoptar el hábito de "contrastar la información en medios oficiales, en los medios de prensa, ver si existen publicaciones de naturaleza semejantes".
Alfonso apuntó a que si bien existen herramientas online disponibles para el chequeo de la veracidad de los contenidos creados con inteligencia artificial, la tecnología ha avanzado tanto que sabe burlarse a sí misma. "Esto es una carrera, en la medida en que se van desarrollando se va complejizando y se van desarrollando ataques más sofisticados", sostuvo y defendió que "una forma es seguir el desarrollo de profesionales" en el área, pero cuya formación tenga una rama ética para evitar este tipo de prácticas.
Alfonso afirmó que para generar un video como el de Washington Ribeiro se necesitan grandes cantidades de información. "Si se trata de una figura pública es probable que a esa información sea más fácil de acceder" ya que de esa persona hay entrevistas, imágenes y grabaciones disponibles en la web, pero para acceder a este tipo de datos de personas con "perfiles más discretos", la principal fuente que puede tener un ciberdelincuente está en las redes sociales. Aunque el experto no descarta que estos accedan a esta información de forma no autorizada vulnerando dispositivos electrónicos personales.
"En el caso del audio hoy es posible, a partir de pequeños fragmentos de audio, generar grandes segmentos de audio con características muy similares al original", señaló Alfonso al ser consultado sobre cuál puede ser la maniobra detrás de las falsas llamadas de familiares con voces creadas con inteligencia artificial. Estos también pueden crearse con herramientas "con capacidad de procesamiento relativamente modesta" y "con inversiones de pocos miles de dolares" es suficiente para armar el engaño.
Pese a estos riesgos, Alfonso se mostró optimista y aseguró que estas técnicas no solo se desarrollan para "implementar ataques" y que un ejemplo de esto es su uso en la industria del entretenimiento.
Única en Uruguay
El experto, que es doctor Ciencias Técnicas con énfasis en Telecomunicaciones por la Universidad Central de Las Villas de Cuba, insistió en que las universidades desempeñan "un papel fundamental" para lidiar con estos riesgos ya que "no solo forman a profesionales con un profundo conocimiento del funcionamiento de estas tecnologías avanzadas, sino que también los capacitan para desarrollar herramientas innovadoras que ayuden a combatir los riesgos asociados a los deepfakes", que tradujo como "manipulaciones digitales", pero sostuvo que "este ámbito de formación debe estar acompañado de un énfasis sólido en valores éticos, asegurando que los conocimientos adquiridos se apliquen de manera responsable y en beneficio de la sociedad".
La Licenciatura en Ingeniería de Datos e Inteligencia Artificial de la UTEC comenzó a dictarse en marzo de este año en la sede de Rivera y ya tiene abiertas sus inscripciones para la nueva generación 2025. Es de modalidad presencial y cuenta con cupos para 80 alumnos. "Es en su tipo, y en el perfil de egresado que tenemos, la única con esas características en la educación superior pública en Uruguay", resaltó su coordinador.
Explicó que pueden entrar alumnos graduados de cualquier orientación de bachillerato, pero él mismo recomienda que los estudiantes tengan "vocación por sus áreas clave", como son la matemática y la programación.
-
MEF denunció a Fiscalía una entrevista falsa a la ministra Arbeleche sobre presunta plataforma de inversión
La inteligencia artificial indica en cuáles ciudades de Estados Unidos hay más casamientos por una green card
ChatGPT es de derecha y Gemini de izquierda: la investigación que confirma que cada IA tiene su ideología