IA en política: La delgada línea entre lo real y lo falso

 

Por: Diana Bello Aristizábal

 

A un mes de las elecciones en las que se definirá, entre otras cosas, quién será el próximo presidente de Estados Unidos, crecen los llamados deepfakes, un término que hace alusión a las imágenes, videos o audios que se editan o generan con inteligencia artificial (IA) y que imitan la apariencia y el sonido de una persona. En política, esta tecnología puede ser devastadora al influir en el comportamiento del votante.

 

Este tipo de contenido a veces raya en lo absurdo y, a la vez, genera miedo como fue el caso de las imágenes que circularon en agosto en las que se veía a los candidatos Kamala Harris y Donald Trump compartiendo como pareja o a líderes globales, entre esos el actual mandatario Joe Biden, cometiendo crímenes.

 

En otros casos, la IA puede generar una imagen o un audio de alguien famoso aparentemente respaldando a un candidato como ocurrió con Taylor Swift, cuya falsa imagen apareció apoyando a Donald Trump en una publicación difundida por el propio candidato en su cuenta de Truth Social.

 

“Cuando ya no sabemos diferenciar entre lo real y lo falso, estamos hablando de un derrumbe completo y total de nuestra sociedad y de la democracia. Este es un momento peligroso en el que no podemos confiar en nada”, comenta al respecto Richard Tapia, profesor de ciencias políticas y relaciones internacionales de Miami Dade College.

 

El poder está en nuestro criterio

Dado que constantemente estamos siendo bombardeados con contenido malicioso y manipulador, quedan dos caminos según los expertos: desarrollar nuestras habilidades críticas y regular la inteligencia artificial.

 

“Lo que la gente puede hacer es educarse. Eso que está viendo o escuchando, ¿quién lo está difundiendo?, ¿confía realmente en la fuente?, ¿concuerda con la realidad? y ¿es algo que usted quiere creer?”, dice Jovianna Gonzalez, experta en ciberseguridad y forense digital, son las preguntas que debemos hacernos todos.

 

Según la también fundadora y CEO de Digital Forensics Now, quienes elaboran contenido engañoso se valen de la manipulación emocional para lograr su cometido. “Utilizan la psicología para convencer a las personas de que hagan algo. Por eso es muy importante estar muy conscientes de lo que pasa en nuestro interior al consumir información, recibir un mensaje de texto o un email e investigar y verificar a fondo antes de confiar y tomar acción”, asegura.

 

Pero lo anterior es apenas el paso uno si consideramos que las herramientas de IA son cada vez más sofisticadas, pues quienes las usan con propósitos oscuros buscan que sea muy difícil detectar el engaño. Por eso, el paso dos sería volvernos expertos en capturar detalles.

 

Esto se traduce en observar si hay un desfase en la voz, muchas pausas o que el audio no concuerda con el movimiento de los labios; movimientos poco naturales en los ojos o fondos en los que en una fracción de segundo se ve algo borroso. Estas son señales que constituyen alertas rojas de acuerdo con la experta en ciberseguridad. “Percibirlas requiere de atención plena pero nada garantiza que se podrá detectar el engaño siempre”, dice.

 

Pese a lo anterior, la responsabilidad recae en los fabricantes de software, cuyo reto está en desarrollar productos capaces de detectar por defecto hasta el sistema más sofisticado de IA. La mala noticia, augura Gonzalez, es que estas serán las últimas elecciones en la que será relativamente fácil detectar algo falso.

 

“Aun creando legislación como la de California para imponer regulaciones sobre la IA (al cierre de esta edición, el proyecto de ley había sido vetado), los malos actores siempre estarán un paso adelante. Por eso, la presión debería ejercerse sobre los fabricantes”.

 

Votantes, ¡tengan cuidado!

En el marco de la política, el hecho de que malos actores estén llevando la delantera en materia de engaño puede generar un efecto devastador en la democracia al sembrar dudas en los votantes y servir de paraguas para los políticos inescrupulosos.

 

“Muchos políticos pueden usar el argumento de los deepfakes a su favor y esta estrategia se va a usar cada vez más. Ellos alegarán que los comentarios o declaraciones difundidos no son de ellos aunque lo sean para protegerse”, advierte Richard Tapia.

 

En el lado opuesto, están los contenidos que no son reales y sí fueron hechos a partir de inteligencia artificial, los cuales dejan una huella imborrable. Por ejemplo, si un candidato aparece en una fotografía abrazando a un sujeto con mala reputación, esto mancharía la carrera del candidato aunque se intenten aplicar correctivos.

 

“Será encontrado culpable por asociación así la imagen sea completamente falsa y el daño es muy difícil de controlar”, añade Tapia. En este sentido, el daño es irreversible desde el momento en que se postea algo con inteligencia artificial porque aun revelando que se trata de un contenido falso, siempre habrá un grupo de personas que crea que es cierto y actúe en concordancia con esa creencia, lo cual puede influir en la intención de voto.

 

Por otro lado, a través de la inteligencia artificial se están creando perfiles psicométricos de cada uno de los votantes con el fin de que los candidatos puedan difundir mensajes de campaña por cada individuo y no por grupos poblacionales. “Es una herramienta bien poderosa que si bien puede usarse para tener una mejor idea de lo que quiere el pueblo, también se puede emplear para manipularlo y confundirlo”, dice Tapia.

 

El tema es complejo porque hay una delgada línea entre segmentar el mercado (que vendría siendo lo que busca lo anterior) y ejercer prácticas pocos éticas. La solución, de acuerdo con Tapia, es que el congreso ponga controles sobre la inteligencia artificial.

 

“Hoy en día el congreso ya está hablando sobre poner ciertas salvaguardias y barreras cuando estas herramientas atenten contra la seguridad nacional o en casos de difamación y calumnia. Creo que vamos a empezar a ver legislación en todos los estados porque el gobierno está viendo el peligro que acarrea esta tecnología”.

 

Pero no se trata de satanizar la inteligencia artificial ni de vetar la libertad de expresión y de prensa al punto de que el mundo se convierta en un lugar en el que no se pueda usar la IA, pues no se pueden desconocer las bondades de esta. Más bien, el reto de cara al futuro será encontrar la forma de preservar la democracia y “huir de los autoritarios, los demagogos y los maquiavélicos que quieren manipular a los pueblos”, como concluye Tapia.

 

Leave a Reply

Your email address will not be published. Required fields are marked *

Send this to a friend