¡Recién Publicado!
cerrar [X]

Elecciones 2023 e inteligencia artificial: cómo cuidarse de estas desinformaciones

8
Circulan en redes sociales imágenes o videos creados con inteligencia artificial que generan desinformación al mostrar situaciones o declaraciones ficticias.
Circulan en redes sociales imágenes o videos creados con inteligencia artificial que generan desinformación al mostrar situaciones o declaraciones ficticias.

Las nuevas herramientas de inteligencia artificial -cada vez más populares- presentan oportunidades, pero también nuevos riesgos y desafíos. A esta altura sabemos que una de las desventajas es que pueden generar desinformación, ya sea a través de textos generados con ChatGPT o a través de plataformas que crean imágenes y videos falsos. En un contexto electoral, esto podría afectar a los candidatos o al proceso de votación.

 

¿Qué podemos hacer para cuidarnos de este tipo de desinformaciones? ¿Cómo podemos saber si una imagen fue creada con inteligencia artificial?  Te lo contamos en esta nota.

 

Las imágenes creadas con inteligencia artificial pueden ser usadas para desinformar

Existen diversos casos de imágenes creadas con inteligencia artificial que han generado desinformación en contextos políticos al mostrar situaciones ficticias. El problema de esta técnica -que está evolucionando- es que las imágenes resultantes suelen difundirse en redes sociales como si fueran auténticas y sin contexto, lo que hace que muchas personas las tomen como verdaderas.

Así se han viralizado imágenes de políticos en diversos países. En los últimos meses circularon supuestas fotos del ex presidente de los Estados Unidos, Donald Trump, siendo arrestado -cuando aún no había sido puesto bajo arresto por los cargos judiciales que enfrenta (acá y acá)– pero resultaron ser imágenes creadas con inteligencia artificial.

También se viralizaron en redes supuestas imágenes del presidente de Francia, Emmanuel Macron, por las calles de París en medio de las protestas por su polémica reforma jubilatoria. Y en el contexto del encuentro entre el presidente ruso Vladimir Putin y el presidente chino Xi Jinping, el 20 de marzo de 2023, circuló en Twitter una foto sin fuente que mostraba a Putin arrodillado ante el líder chino.

El Papa Francisco también fue víctima de la inteligencia artificial. En las últimas semanas circuló una imagen de Jorge Bergoglio con una campera puffer blanca. Varios usuarios se preguntaron en Twitter si se trataba de una imagen verdadera y muchos la compartieron como si lo fuese. Pero la foto había sido creada con la herramienta de inteligencia artificial Midjourney.

La desinformación impulsada con inteligencia artificial no solo afecta a figuras públicas; también genera eventos ficticios. Por ejemplo, se hizo viral una imagen falsa de una explosión en el edificio del Pentágono en los Estados Unidos, así como otra imagen inventada de policías abrazando mujeres durante una manifestación en Francia.

 

El potencial para desinformar de los los videos creados con inteligencia artificial y el ChatGPT

En el contexto de las elecciones presidenciales en Brasil de 2022, circularon varios deepfake -videos manipulados o generados con inteligencia artifical- sobre los candidatos Lula da Silva y Jair Bolsonaro. En ellos se puede ver al actual presidente brasilero quejarse del precio de la paçoca, una golosina típica de Brasil, y a Bolsonaro bailando en short y sin camisa. Ambos videos se viralizaron en Tik Tok como auténticos, pero no son reales.

Los deepfake consiguen modificar la apariencia física e incluso la voz de las personas a las que se imita y pueden ser utilizados para distorsionar discursos de políticos. Por ejemplo, en marzo de 2022 circuló un video donde el presidente de Ucrania, Volodímir Zelenski, supuestamente le pedía a sus tropas que se rindieran y dejaran las armas ante el ejército ruso. Se trató de un deepfake que el propio presidente de Ucrania desmintió a través de su perfil de Instagram.

Un análisis de Mekela Panditharatne, experta en desinformación del Brennan Center for Justice, y Noah Giansiracusa, profesor asociado de Matemáticas y Ciencia de Datos en la Universidad de Bentley, Estados Unidos, describe los peligros que plantea la desinformación relacionada con las elecciones generada mediante inteligencia artificial y analiza el caso de aplicaciones como el ChatGPT.

Los votantes que interactúan con modelos de lenguaje en sistemas de búsqueda y por medio de chatbots probablemente se topen con información errónea involuntariamente, ya que se sabe que estas herramientas ‘tienen alucinaciones’ de vez en cuando e incluso fabrican anotaciones que parecen fidedignas, con enlaces a artículos que no existen, para respaldar afirmaciones falsas”, advierte el trabajo.

Para los autores, el uso generalizado de inteligencia artificial generativa “podría crear una nube de confusión que dificulte distinguir entre lo verdadero y lo falso” y “eso, a su vez, podría erosionar la confianza en la información electoral de manera más amplia”.

 

Cómo identificar imágenes y videos creados con inteligencia artificial

La inteligencia artificial evoluciona día a día y es cada vez más complejo detectar si una imagen ha sido creada con esta tecnología, pero existen algunos detalles a los que se puede estar atento.

Como con cualquier foto que se encuentra en internet y que genera sospechas, es útil buscar la fuente original de la supuesta imagen y averiguar si fue publicada previamente por alguna agencia de noticias o si se comparte con el crédito de un fotógrafo. Para ello, se puede hacer una búsqueda inversa de la imagen con Google u otro buscador como TinEye. Incluso sin encontrar el registro original, se puede llegar a alguna otra versión de la imagen que indique si fuentes fiables confirmaron su legitimidad.

Para analizar si una imagen fue creada con inteligencia artificial el secreto es afinar el ojo. En la mayoría de los casos, estas imágenes que terminan viralizándose presentan varias imperfecciones. Por eso, es necesario estar atento a los detalles: mirar las manos, los ojos, la cara, la textura de la piel de las personas, las orejas, los dientes y el cabello, que pueden verse artificiales, así como buscar si hay objetos desproporcionados, y observar si los reflejos o sombras de los objetos son correctos.

Algunas herramientas de inteligencia artificial dejan una marca de agua en las imágenes, como DALL-E, que genera automáticamente una barra colorida en la esquina inferior derecha de todas sus imágenes; o Crayion, que coloca un pequeño lápiz rojo en el mismo lugar. De todos modos, es necesario ser cauto con este punto porque las imágenes pueden ser editadas y las marcas de agua podrían ser removidas a propósito, además de que no todas las plataformas de creación de imágenes con IA la aplican.

Por último, existen herramientas de detección automática que permiten identificar imágenes creadas por inteligencia artificial, como la página Hugging Face, aunque hasta el momento no se ha encontrado una que sea 100% infalible.

Consejos similares pueden aplicarse para detectar un deepfake. Para identificarlos, el MIT Media Lab, un laboratorio dentro de la Escuela de Arquitectura y Planificación en el Instituto de Tecnología de Massachusetts, aconseja prestar atención a la cara de quien aparece en el video, en especial su piel -si está o no muy arrugada-, el vello facial, el cabello y los ojos para detectar, por ejemplo, si aparecen sombras en los lugares esperados o si la persona parpadea demasiado o muy poco. También se recomienda observar los movimientos de los labios y si se sincronizan o no con la voz.

...

Esta nota es parte de Reverso, el proyecto periodístico colaborativo coordinado por Chequeado y AFP que une a medios y empresas de tecnología para intensificar la lucha contra la desinformación durante la campaña electoral.

Las vías de contacto para sumarse son: por mail a info@chequeado.com por WhatsApp y /ReversoAr en todas las redes.

 
 

8 comentarios Dejá tu comentario

  1. COMENZÓ EL FRAUDE ELECTORAL EN CÓRDOBA.Ayer, sin otras experiencias previas en votaciones, informan a los Ciudadanos de córdoba ; " Una innovación. Se utilizará POR PRIMERA VEZ EN LAHISTORIA ELECTORAL DE CÓRDOBA , EN LOS COMICIOS ELECTORALES del 25 de Junio". No habrá Centro de Cómputos y desaparecerá el telegrama. Habrá 1487 Minicentros de Cómputos, uno por cada Escuela habilitada. Se utilizará en el,proceso INTELIGENCIA ARTIFICIAL, sin traslado de las actas físicamente, que por medio de un Escáner, transformará los números en datos consolidados. Esos guarismos serán trasladados a un Centro de Control. AL PROCESO LO HARÁUN TÉCNICO DE LA EMPRESA OCASA Si un número, explican por ejemplo un 9 ( nueve ), en manuscrito, es INTERPRETADO POR EL ESCÁNER como un 0 ( cero ), el dueño de la letra podrá indicar que número corresponde. En cada escuela, el fiscal público electoral, recibirá un sobre cerrado con un CD, que contiene el sofware para poner en marcha la computadora. . A las 17 horas, una hora antesv del cierre, en un lugar preparado en las escuelas, el técnico digital, recibirá del Fiscal público electoral, el CD con las claves encriptadas para loguearlse. REITERO, PRIMERA VEZ QUE SE UTILIZA ESTE PROCESO. El día 11 de Jnio 2023, en CORRIENTES, se implemento el uso de una " mesa testigo " de INTELIGENCIA ARTIFICIAL.en el recuento de votos. Previo a las elecciones desencadenó debates éticos y EL PROCESO NO TUVO VALIDEZ, ya que se utilizó " Una muestra testigo " como prueba científica. El Subsecretario de Sistemas y Tecnología de CORRIENTES, FEDERICO OJEDA le explicó previamente a la población ; " Es una prueba científica , YA QUE PARA SER UTILIZADO, LA JUSTICIA ELECTORAL COMO ENTIDAD QUE RIGE LAS ELECCIONES PROVINCIALES Y NACIONALES, DBERÁ APROBAR LA MODIFICACIÓN EN EL CÓDIGO ELECTORAL, para que se lean telegramas con " TRANSFORMER ", que son redes neuronales, que hacen que la máquina piense como el ser humano. Reitero COMENZÓ EL FRAUDE ELECTORAL EN CÓRDOBA. SCHIARETTI en el año 2007 ya sew robó una elección a Gobernador.

  2. Lo cierto es que la JUSTICIA ELECTORAL debe PROHIBIR el uso de la herramienta IA GENERATIVA para el computo electoral. Es sabido que se puede direccionar los parametros de accion de la IA a traves del diàlogo prompt, pues ¿quièn puede certificar que los marcos referenciales no esten condicionados previamente? ¡Urgente se debe expedir la Corte sobre este tema a NIVEL NACIONAL a fin de que se manipulen los resultados! Que sea "tecnologicamente avanzado" no significa que sea fiable. Hay mucha gente que cree que está en la cresta de la ola tecnológica, solo por ser usuario de todo tipo de aplicaciones y manejarlas con pericia, cuando lo avanzado es USAR las herramientas para crear esas aplicaciones. Hoy hay demasiada incertidumbre respecto a la privacidad y TRAFICO de la información sujeta a MANIPULACION INTERESADA incluida la de las cripto monedas ( https://eleconomista.com.ar/internacional/corea-norte-robo-mas-us-300-m-criptomonedas-financiar-armas-nucleares-n41236#:~:text=Corea%20del%20Norte%20rob%C3%B3%20m%C3%A1s%20de%20US%24%20300,bal%C3%ADsticos%20prohibidos%2C%20seg%C3%BAn%20un%20informe%20de%20la%20ONU), que han sido vulnerado mas de una vez, https://www.bbc.com/mundo/noticias-58344057. Es mas, siguiendo la sugerencia de Lafinur, es sabido que hay servicios secretos de potencias que se manejan de acuerdo a las antiguas practicas, abandonando el uso de internet para evitar el hackeo informativo. ¡La vuelta del Nokia en su versión aggiornada Lumia 520 solo para hablar y los mensajes SMS!

  3. Una alianza maléfica es lo que está evidenciando el periodismo y me refiero a los de TN ya los de LN+. Están buscando motivos sociales para los numeros de voto en blanco o la abstención, y lo sitúan en el mismo lugar que a los votantes de Milei. La intención de fraude es evidente, porque teniendo control de una mesa lo más fácil es tirar a la basura las boletas de la oposición y contarlos en el telegrama como voto en blanco. Eso lo hicieron desde siempre apretando a las autoridades de mesa si es necesario. Muy pocos se animan a enfrentarse a eso porque viven en el mismo barrio. Todo es fraude en lo que acá llaman política..El hecho de negar de antemano la posibilidad de fraude ya es fraude. .

  4. Este artículo arroja luz sobre la intersección de las elecciones de 2023 y la inteligencia artificial, enfatizando la necesidad de estar alerta contra la desinformación. En un mundo donde la IA desempeña un papel cada vez más destacado, resulta crucial discernir entre la información precisa y la desinformación durante los procesos electorales. El artículo insta a los lectores a ser conscientes de los posibles peligros que plantean las narrativas engañosas y destaca la importancia de cultivar la alfabetización mediática en la era de la IA. A medida que la tecnología evoluciona, el artículo subraya la necesidad de que los ciudadanos se mantengan informados y evalúen críticamente la información que encuentran, reforzando el papel de la concienciación sobre la IA en la salvaguardia de la integridad de los procesos democráticos.

  5. Navegar en la intersección de la inteligencia artificial y las elecciones de 2023 requiere vigilancia contra la desinformación. A medida que ChatGPT continúa dando forma a las conversaciones, es crucial que los votantes se mantengan informados a través de fuentes confiables, garantizando un proceso electoral más transparente y auténtico.

Dejá tu comentario

El comentario no se pudo enviar:
Haga click aquí para intentar nuevamente
El comentario se ha enviado con éxito
Tu Comentario
(*) Nombre:

Seguinos también en

Facebook
Twitter
Youtube
Instagram
LinkedIn
Pinterest
Whatsapp
Telegram
Tik-Tok
Cómo funciona el servicio de RSS en Tribuna

Recibí diariamente un resumen de noticias en tu email. Lo más destacado de TDP, aquello que tenés que saber sí o sí

Suscribirme Desuscribirme

Notas Relacionadas

Cuáles son las desinformaciones de las que te tenés que cuidar en las elecciones de 2023

Empiezan la carrera electoral de 2023 y, así, la diseminación en redes sociales de desinformación sobre los comicios, lo que nos exige estar en alerta para no dejarnos engañar. Ese, justamente, es el rol de Reverso, la alianza de medios periodísticos...