La Inteligencia Artificial avanza y a través de sus herramientas genera fotografías que se asemejan mucho a la realidad. Esto se evidencia, por ejemplo, con las fotos del Papa vistiendo un abrigo blanco similar al que usan los traperos; o con las del supuesto arresto de Donald Trump. Estas imágenes, publicadas de manera reciente, dieron lugar a discusiones en las redes sociales y abren un interrogante: ¿de qué manera la Inteligencia Artificial contribuye a la desinformación? La Agencia de Noticias Científicas de la Universidad Nacional de Quilmes dialogó con Emmanuel Iarussi, científico de Conicet especialista en Inteligencia Artificial, que afirma: “No hay antecedentes de una tecnología que nos permita crear imágenes tan reales y de manera tan masiva”.
El Papa trapero, Trump detenido y Biden de fiesta: ¿cómo desinforma la inteligencia artificial?
Las imágenes son creadas por inteligencia artificial y buscan imitar de manera exacta la realidad. Créditos: Midjourney.
“Imágenes photoshopeadas tenemos desde principios del 2000. Hay algunos expertos que controlaban esas tecnologías y que las personas requerían de varias habilidades para poder crear cosas, entonces no todo el mundo podía manipular una imagen”, explica Iarussi y continúa: “Ahora con solo saber escribir y tener la tecnología ya podes hacer cosas. Pones un texto de lo que querés y después de un par de pruebas generás la imagen”.
El Papa trapero, Trump detenido y Biden de fiesta: ¿cómo desinforma la inteligencia artificial?
La inteligencia artificial tiene usos lúdicos y usos que puede resultar más peligrosos, en especial relacionados con la política.
Si bien la viralización de la foto del Papa terminó siendo algo lúdico, la manipulación de imágenes pueden incluir personalidades de gran relevancia en el mundo que lleve a la confusión y a la desinformación. Tal es el caso de las fotos de la supuesta detención del expresidente estadounidense Donald Trump o el video que circuló en 2022 en el que se ve al presidente ucraniano Volodymyr Zelensky pidiendo a sus tropas que se rindan en la guerra con Rusia, donde tanto su voz como su imagen habían sido alteradas.
“Se llaman deepfakes porque son creadas con redes neuronales profundas que buscan imitar la apariencia humana. En Argentina, por ejemplo, está el usuario Tutanka que sube vídeos de Cristina Fernández cantando canciones de moda”, ejemplifica el científico. Además, explica que el uso de la Inteligencia Artificial puede ser peligroso al contribuir a manipular la realidad y desacreditar a ciertas instituciones o personas y “sobretodo si existe algún tipo de polarización preexistente. No sería raro que esto contribuya a profundizar esas diferencias porque hay una porción de la sociedad dispuesta a creer cierto contenido de la contraparte aunque sea falso”, detalla a la Agencia.
Hoy en día existen algunas técnicas para detectar si una imagen es real o fue hecha por inteligencia artificial, como prestar atención a las manos que suelen ser algo deformes o mirar los ojos ya que los iris no son tan redondos si fue manipulada la imagen. Sin embargo, el especialista considera que se trata de algo transitorio hasta que esta tecnología mejore.
“Nos pueden servir para detectar algunas cosas pero estamos obligados a pensar que estas imágenes pueden llegar a ser perfectas. Los algoritmos están siendo entrenados para ser indistinguibles, entonces es necesario que guardemos una dosis sana de escepticismo. Quizás de acá a 20 años estemos tan acostumbrados que digamos ‘Ah, sí, esto está generado’ pero ahora estamos viviendo un momento de transición y debemos acostumbrarnos a dudar de la verdad. La tecnología va avanzar y van a existir cada vez menos contenidos reales”, manifiesta.
El Papa trapero, Trump detenido y Biden de fiesta: ¿cómo desinforma la inteligencia artificial?
Imagen creada por inteligencia artificial. Créditos: Midjourney.
De la misma manera sucede con el texto, un ejemplo claro es el Chat GPT: “Uno lee los textos y parece que lo escribió cualquier persona porque justamente están entrenados con textos que escribió cualquiera en internet. Son buenos en hacerse pasar por alguien, en imitar”, dice.
Por su parte, las redes sociales que ocupan un lugar central en la viralización de estos contenidos pusieron en funcionamiento algunas herramientas (aunque suena a poco) para detectar contenidos falsos, como advertencias o repreguntas en casos de compartir contenido sin leerlo.
¿Cuál es el límite?
Casi como si fuera un capítulo de la serie Black Mirror, la tecnología avanza sin control y a disposición de todo el mundo. Según Iarussi, hay un cambio de paradigma que sucede de una manera muy veloz.
“Si hace cinco años nos preguntaban si veíamos esto posible, hubiésemos dicho que sí. El cambio está pasando aunque casi no lo podamos ver porque es muy fuerte. Mi consejo es no creer de manera impulsiva todo lo que vemos ni compartir aquello que nos genere dudas, pero la responsabilidad mayor la tienen los Estados y las empresas que hacen disponibles estas tecnologías y que impactan fuertemente en el trabajo, la economía, la educación y en el modo de informarse”, sostiene el especialista.
Deja tu comentario!