verificación

Inteligencia artificial: ¿cómo se pueden identificar imágenes falsas de forma sencilla?

Hay detalles que, si se les presta atención, develan si las imágenes fueron generadas por estas nuevas tecnologías o no.

Compartir esta noticia
Inteligencia artificial

La popularidad de la inteligencia artificial aumentó significativamente desde la aparición de plataformas como Dall-E o ChatGPT de OpenAI, pero también ha dado lugar a controversias, especialmente en lo que se refiere a las imágenes generadas por estas.

Al respecto, la difusión masiva de una imagen falsa del papa Francisco generada con la herramienta de inteligencia artificial Midjourney, que también se utilizó para crear imágenes del falso arresto de Donald Trump, ha causado preocupación sobre el potencial de estas tecnologías para la desinformación.

Las imágenes producidas por inteligencia artificial pueden resultar difíciles de detectar ya que son generadas por algoritmos que imitan la creatividad y la imaginación humanas, pero existen indicadores que pueden ayudar a identificar su origen.

Eliot Higgins, uno de los cofundadores de Bellingcat, que realizó un hilo en Twitter en el que se muestra al expresidente Trump rodeado por policías, fue entrevistado por Wired, un medio especializado en tecnología.

Durante la entrevista, Higgins expresó su preocupación acerca de cómo los espectadores pueden diferenciar entre imágenes generadas por inteligencia artificial que son falsas, como las que se muestran en su publicación, y fotografías auténticas que podrían mostrar el posible arresto del expresidente.

“Después de haber creado muchas imágenes para el hilo, es evidente que a menudo se enfoca en el primer objeto descrito, en este caso, los diversos miembros de la familia Trump, y todo lo que lo rodea a menudo tiene más fallas”. Para detectar errores en una imagen debes mirar fuera del punto focal de la foto.

Para Higgins, aunque las versiones más recientes de las herramientas de imágenes de inteligencia artificial, como Midjourney y Stable Diffusion, están logrando un progreso considerable, los errores en los detalles más pequeños siguen siendo un signo común de imágenes falsas.

Mirando las imágenes de inteligencia artificial de Trump del hilo de Twitter, la cara y las manos parecen muy convincentes, pero las proporciones del cuerpo a menudo se ven distorsionadas o fusionadas con las de otros objetos en la imagen, como un oficial de policía cercano.

Higgins señala que otros elementos que pueden dar una pista de que se trata de una imagen generada por una inteligencia artificial, es la escritura extraña en las paredes o ropa. El texto desordenado es una forma de distinguir las imágenes falsas de las fotos reales, como en el caso de imágenes falsas de oficiales que arrestan a Trump donde las palabras no tienen sentido después de una inspección más cercana.

Otra forma de detectar si una imagen es generada por inteligencia artificial, es observando si las expresiones faciales están exageradas. Higgins señaló que ha notado que el algoritmo tiende a representar las expresiones de manera exagerada, con arrugas muy pronunciadas en la piel.

Asimismo, se debe tener en cuenta que las personas con una presencia más visible en internet, como líderes mundiales, celebridades y personas influyentes en las redes sociales, pueden parecer más convincentes en las fotos falsas que las personas con una presencia menos visible.

Higgins explica que esto se debe a que la inteligencia artificial ha aprendido más de las imágenes de personas famosas en comparación con personas menos conocidas.

¿Existen herramientas para diferenciar imágenes generadas por inteligencia artificial de imágenes reales?

Hay pocas herramientas gratuitas en línea para detectar si una imagen es generada por inteligencia artificial o no, aunque un detector de imágenes de este tipo gratuito alojado en Hugging Face pudo detectar con un 69 % de certeza que la imagen falsa del papa fue generada por inteligencia artificial.

Sin embargo, la misma herramienta no logró detectar correctamente una imagen generada por inteligencia artificial de Elon Musk, señalando que tenía un 54% de certeza de que la imagen era genuina, según señaló la revista Time.

Investigadores de Nvidia y la Universidad de Nápoles descubrieron que los generadores de imágenes de inteligencia artificial dejan signos invisibles y reveladores en las imágenes que crean, pero que son más difíciles de detectar cada vez que se cambia el tamaño o se reduce la calidad de la imagen, según Time.

Este hallazgo ofrece una posible solución para detectar de manera confiable si una imagen es generada por inteligencia artificial o no.

Annalisa Verdoliva, coautora del artículo publicado por los investigadores de inteligencia artificial de Nvidia y la Universidad de Nápoles, señaló que lograron desarrollar una herramienta para detectar que una imagen había sido generada por una inteligencia artificial, como fue el caso de la imagen del papa Francisco.

Sin embargo, otro método descubierto se ha demostrado más generalizable. Alimentando un modelo de difusión, un generador de imágenes de inteligencia artificial de vanguardia, con una imagen generada de esta manera, se pudo producir fácilmente una copia casi exacta de la imagen original.

Por el contrario, reproducir una copia aproximada de una fotografía real resultó difícil. Aunque aún no está disponible en línea, este hallazgo ofrece la posibilidad de que en el futuro se pueda desarrollar una aplicación que detecte de manera confiable si una imagen ha sido generada por inteligencia artificial o no.

ChatGPT explica cómo identificar imágenes generadas por una inteligencia artificial

Finalmente, para saber diferenciar una imagen real de una generada por una inteligencia artificial, la sección "Tech Bit" de El Universal le preguntó al chatbot ChatGPT cuáles son las formas más eficaces de detectar imágenes generadas por inteligencia artificial actualmente y prevenir ser engañados por generaciones más convincentes de esta tecnología en el futuro. Estas fueron sus respuestas:

  • Análisis de metadatos: las imágenes generadas por inteligencia artificial pueden tener metadatos que indiquen que han sido creadas por una máquina en lugar de por un ser humano. Por ejemplo, algunos algoritmos de generación de imágenes incluyen información sobre la red neuronal utilizada para crear la imagen.
  • Análisis de patrones: pueden tener patrones que son diferentes a los que se encuentran en las imágenes tomadas por cámaras. Por ejemplo, los algoritmos de generación de imágenes a menudo crean patrones de ruido que no se encuentran en las imágenes reales.
  • Detección de artefactos: pueden tener artefactos que no se encuentran en las imágenes reales. Por ejemplo, pueden tener bordes borrosos o zonas de pixelación.
  • Verificación de origen: si se sospecha de una imagen, se puede intentar verificar su origen. Si se sabe que la imagen proviene de una fuente confiable, es menos probable que haya sido generada por una inteligencia artificial.

En cuanto a evitar ser engañado por generaciones más convincentes de tecnología en el futuro, es importante mantenerse actualizado sobre los avances en inteligencia artificial y en la detección de imágenes generadas por estas.

El Universal (GDA).

¿Encontraste un error?

Reportar

Temas relacionados

Inteligencia artificialGDA

Te puede interesar