La Inteligencia Artificial y sus falsas imágenes de cara a las elecciones 2024

Amén de sus maravillosas prestaciones, la Inteligencia Artificial (IA)  puede ser una de las fuentes más potentes de desinformación, generando violencia o racismo extremo mediante fotos, videos y voces. Ethnic Media Services (EMS) organizó una conferencia de prensa en la que los especialistas coincidieron en que la maquinaria de las “fake news” es, sin dudas, uno de los mayores atentados contra la Democracia.

“Según expertos, funcionarios y observadores, la IA es una amenaza para las próximas elecciones” -dijo la periodista de EMS Pilar Marrero. Y continuó. “Mientras más fácil resulta utilizarla y difundir su contenido, mayores son las posibilidades de desinformar y confundir a los votantes. Lo que antes requería un presupuesto y un equipo de producción entero, hoy se puede armar con pocos clics. De hecho, cada día los votantes intentan navegar en un panorama electoral donde es difícil evaluar la autenticidad de las imágenes, publicaciones y videos. Expertos que monitorean los mensajes racializados producidos por IA y hablan de impulsar nuevos controles antes de las elecciones de 2024”.

Atentando contra el concepto de “Verdad”

Jonathan Mehta Stein es el director ejecutivo de California Common Cause (CCC), una agencia de vigilancia sin fines de lucro.

“Somos una organización californiana que trabaja para construir una Democracia más eficaz; y nuestra obsesión son los mensajes falsos producidos por la IA que están generando desinformación”, dijo Stein. “El departamento de justicia de los Estados Unidos descubrió e interrumpió una campaña de desinformación rusa que incluía miles de perfiles falsos en redes sociales. Los perfiles pretendían ser de ciudadanos estadounidenses de distintas regiones y razas. Y todos estaban haciendo propaganda pro rusa. Se averiguó que esto había sido generado por una sola persona”.

-¿Qué ha hecho CCC de cara a este problema?

-Desde CCC hemos lanzado CITED (Califormia Initiative for the Technology and Democracy), una iniciativa para derribar estas falacias y combatir la desinformación de la IA en California. Estamos en año de elecciones, donde la Democracia ya está debilitada. Tanto la gente como las instituciones ya no confían en la prensa. El concepto de “Verdad” está siendo atacado todos los días y la IA tiene el poder de inundar nuestro discurso político creando audios, videos, imágenes y eventos que no son reales. Hoy hay acceso a herramientas muy poderosas para extranjeros, conspiracionistas y trols que quieren ensuciar las elecciones.

-No es la primera vez que esto ocurre ¿no?

-No. De hecho, ya hemos visto elecciones impactadas por la desinformación en Bangladesh, Pakistán, Eslovaquia y Argentina. Pero también en las elecciones primarias presidenciales de los Estados Unidos.

-¿Cuáles son las mayores preocupaciones de la IA?

-Una es campo de trabajo, es decir, que puedan reemplazar a muchas personas y producir caos laboral. Otra es si podremos confiar en este sistema para tomar decisiones delicadas, que normalmente necesitan el juicio de un ser humano. Pero la que nos atañe aquí es la generativa.

-¿Qué es Ia Inteligencia Artificial Generativa?

-Es cuando un sistema genera nueva prensa siguiendo una sugerencia humana como audio, video o texto. Esto puede ser algo divertido, como un dibujo animado con el estilo de Vincent Van Gogh pero también puede ser controversial, como una imagen del Papa Francisco en campera blanca, que lo hacía más “cool” pero era falsa. Sin embargo, hubo otra más peligrosa y empezó a circular en Twitter en mayo de 2023, la de una explosión en el Pentágono. Se trataba de una imagen hecha por los rusos y esos días hubo caída del mercado porque los inversores pensaban que el terrorismo atacaba a los Estados Unidos.

-¿Cómo se puede hacer decir cosas a un político por medio de la IA?

-Con dos minutos de audio real, se pueden generar videos haciendo hablar durante horas enteras a un candidato o a un famoso; incluso al presidente Biden como pasó hace un tiempo. Las palabras no concordaban mucho con el movimiento de sus labios pero se demoró en descubrir el truco. Hoy la tecnología ha mejorado mucho y lo pueden hacer coincidir. Yo soy especialista y lo puedo ver, pero mis padres, no. Y si en vez de Biden fuera un político menor, es más difícil aún de darse cuenta.

-¿Cómo impactan estos falsos mensajes en las comunidades de color?

-La desinformación racial está llegando mucho a las comunidades de color para que no vayan a las urnas. De hecho, quienes apoyan a Trump quieren hacer ver que tienen más adeptos y apoyo de la comunidad de color. La tecnología mejora y es cada vez más realista. Mientras este problema siga, va a estar en juego no sólo la Democracia estadounidense sino el concepto de verdad en nuestra sociedad.

-¿Recomendaciones para detectar falsos videos?

-Necesitamos mejorar nuestros detectores de mentiras, ese es nuestro trabajo. Para la gente, si ven un video demasiado favorable a un partido o demasiado en desmedro de otro, hay que desconfiar y chequear esa información fuera de las redes sociales; ya sea en radio, televisión o diarios. Vean las noticias de la fuente directa y no la de los reproductores. Reporten todo lo que les genere dudas. La respuesta a falsas noticias es “verdaderas noticias”. El futuro de nuestra Democracia y nuestro sistema depende de un periodismo de calidad cada vez más confiable.

“Necesitamos mejorar nuestros detectores de mentiras y chequear todo antes de compartir. Si ven un video que es demasiado favorable a un partido o demasiado en desmedro de otro, hay que desconfiar y chequear esa información fuera de las redes; ya sea en radio, televisión o diarios. Vean las noticias de la fuente directa y no de los reproductores. Reporten todo lo que genere dudas. La respuesta a falsas noticias es “verdaderas noticias”. El futuro de nuestra Democracia y nuestro sistema depende de un periodismo de calidad cada vez más confiable”.
Jonathan Mehta Stein

 

La comunidad asiático-americana y las redes

Jinxia Niu es manager de programación de Compromiso Digital Chino en Chinese for Affirmative Action.

“La pregunta es qué debemos hacer las organizaciones como las nuestras que revisamos los hechos», se preguntó Liu. «La respuesta no es fácil y hay más retos que soluciones. Queremos compartir el problema de la desinformación de cara a las elecciones 2024”.

-¿Qué dicen las investigaciones de Compromiso Digital Chino?

-Desde nuestra organización hemos reportados más de 600 piezas de desinformación en los últimos doce meses en redes, generalmente traducida del inglés. Sin embargo, otras se generan directamente desde el idioma chino. Las fotos de Trump con personas de color, por ejemplo, se ha viralizado en la comunidad china y Biden ha sido atacado por filtros falsos de personas conservadoras.

-¿Los desafíos?

– La comunidad de inmigrante suele darle la espalda al chequeo de información, y de eso nos debemos ocupar nosotros. Todos sabemos que en la comunidad hablamos en chino, y los medios son muy limitados. Tenemos sólo tres personas a tiempo completo chequeando y cada vez hay más noticias falsas que ingresan a nuestra comunidad. Pese a que tenemos la información necesaria, necesitamos una suerte de FBI privado. Otro desafío es que nuestras comunidades mejoren su grado de alfabetización digital, sobre todo en las personas que tienen un inglés limitado.

-¿Cómo se viralizan las falsas noticias en la comunidad china?

-Generalmente por mensaje de texto vía WhatsApp, WeChat o Telegram. Cuando esta información circula, se comparte entre amigos; pero quien la puso a rodar se convierten en “influencer”, eso genera una suerte de chat privado o medio de comunicación no censurado. Hemos visto “influencers” chinos de ultraderecha que bombardean con mensajes falsos generados por IA. Son plataformas encriptadas y se hace difícil o imposible intervenirlas.

-¿Posibles soluciones?

-Somos una plataforma para ir en contra de la desinformación contra la comunidad AAPI y eso ya es importante. Pero tenemos que empoderar a nuestra comunidad, alfabetizarla digitalmente y tener más recursos en distintos idiomas. Otra cosa, hay que entrenar todo el tiempo a nuestros equipos periodísticos y revisar las noticias todo el tiempo.

“Las falsas noticias suelen viralizarse en nuestra comunidad vía WhatsApp, WeChat o Telegram. Cuando esta información circula, se genera una suerte de chat privado o medio de comunicación no censurado. Hemos visto “influencers” chinos de ultraderecha que bombardean con mensajes falsos generados por IA. Son plataformas encriptadas y se hace difícil o imposible intervenirlas”.
Jinxia Niu

Posibles soluciones

Brandon Silverman, ex CEO y cofundador de Crowd Tangle (ahora propiedad de Meta), y ex presidente de dicha compañía, dijo que “éramos una herramienta que ayudaba a organizaciones de noticias de todo el mundo para detectar las falsas noticias en la industria periodística. Pero esto fue comprado por Meta. Ahora, trabajo pidiéndole a las organizaciones que sean más transparentes. El impacto de las plataformas ha causado un daño desproporcionado en las comunidades étnicas y de color, y esto no es justo”.

-¿Cuáles son los objetivos de la desinformación mediática?

-Una de las metas de las campañas de desinformación es “inundar la zona”; es decir, crear tanto contenido falso que las comunidades ya no sepan en qué confiar. Tenemos que responder de modo estratégico a estas campañas sin hacer lo que ellos quieran, y generando fuentes de información más confiables.

-¿De qué modo?

-Hay tres pilares. El primero, es saber quién está creando la oferta y por qué. El segundo es la demanda; entender hasta qué grado estos mensajes están resonando con las comunidades. El tercero es cuáles son aquellos mecanismos que dinamizan la oferta y la demanda.

-¿Cuáles son las posibles soluciones?

-Una, son las plataformas que cobran los impuestos para financiar medios de información local. La otra, revisar todo el tiempo las noticias y lo que dicen los “influencers”. Y también que, antes de responder o reaccionar a ciertas noticias, piensen en cuáles son las narrativas que esas noticias están propulsando y por qué; sobre todo si están siendo creadas por IA. La AV311 es una ley fundamental que puede ser aprobada en el estado.

“Una de las metas de las campañas de desinformación es “inundar la zona”; es decir, crear tanto contenido falso que las comunidades ya no sepan en qué confiar. Tenemos que responder de modo estratégico a estas campañas sin hacer lo que ellos quieran y generando fuentes de información más confiables. Las plataformas que cobran impuestos para financiar medios de información local, son una buena posibilidad”.
Brandon Silverman

Autor

Comenta aquí / Comment here

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Botón volver arriba

Descubre más desde HispanicLA: la vida latina desde Los Ángeles

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo