¿Un programa electoral escrito por ChatGPT? Ni rastro de la IA en la campaña del 18F

Una mujer y un hombre junto a los carteles electorales de la Plaza de la Constitución en Lugo este lunes durante la campaña electoral gallega.

Las campañas electorales como la que se está viviendo estos días en Galicia ya no se juegan sólo a golpe de mítines, debates y paseos con muchos besos y más selfies. Desde hace ya varios años, las redes sociales son un elemento fundamental. Aunque con solo una buena estrategia digital no se ganan votos, lo cierto es que la publicación de un vídeo, un tuit o un meme a tiempo puede posicionar ideas para establecer relatos y cambiar el paso al adversario. Con TikTok como la estrella para captar el voto de la generación Z y con Instagram como plataforma clave, la cita electoral en Galicia del próximo 18 de febrero cuenta con un nueva invitada, aunque poco usada y restringida a los usos anecdóticos: la inteligencia artificial. 

Tras el boom que se vivió en 2023 con esta tecnología tras la irrupción de ChatGPT, cada vez es más habitual encontrarse con contenidos en las redes sociales generados por la inteligencia artificial gracias a la popularización de nuevas herramientas y sistemas. Y, ante tal fenómeno, la política no tardó en subirse a este carro y, sin duda, las elecciones municipales y autonómicas del 28 de mayo y las generales del 23 de julio fueron el laboratorio para comenzar a ver cómo podían empezar a usarla los distintos partidos. 

"El uso de la inteligencia artificial tiene aspectos positivos y negativos. Permite desarrollar eslóganes, textos o vídeos, pero también contar con un gran desarrollo de análisis de datos que puede permitir conocer aún más y mejor al electorado y detectar patrones y hábitos", explica Miquel Pellicer, consultor en comunicación digital en la Universitat Oberta de Catalunya (UOC). Los ejemplos que nos dejaron ambas citas fueron pocos, pero llamativos. Por ejemplo, Junts lanzó una serie de spots protagonizados por Felipe VI, Pedro Sánchez o Santiago Abascal generados con inteligencia artificial, mientras que el PP tuvo que retirar un vídeo manipulado de unas declaraciones del presidente del Gobierno. 

¿Y este 18F? Pocas novedades. Los partidos consultados por infoLibre, reconocen que no emplean esta tecnología en su campaña electoral más allá que para usos anecdóticos. Tanto PPdeG, BNG, PSdeG, Sumar y Podemos confirman que no están usando la inteligencia artificial durante esta campaña. 

Desde el PP gallego defienden que en su programa electoral "no hay ni una sola palabra elegida por la inteligencia artificial" y que tampoco proceden de "un algoritmo que predice las preferencias de la gente". 

El BNG matiza que la han usado de forma puntual para crear alguna imagen genérica pero que "no es una herramienta de campaña ni está integrada en su trabajo". Lo mismo sucede en Podemos Galicia, que afirman que la han usado para generar imágenes o para buscar ideas de imágenes y defienden no usar ChatGPT —aunque antes del 28M lo usaron en un video sobre la meritocracia—: "Como se vio en el debate, Isabel Faraldo también le ganaría". 

Desde el PSOE gallego detallan que no hay que renunciar al uso de sistemas que "faciliten el trabajo en la edición de vídeo o resúmenes". Eso sí, destacan que el trabajo sigue siendo humano, utilizando instrumentos "normalizados".

De ser cuidadosos a un error político

A las formaciones políticas consultadas por infoLibre no les inquieta que sus rivales en las urnas se suban a la ola de la inteligencia artificial. Desde Sumar Galicia, inciden que no les preocupa su impacto en la campaña aunque apostillan que "los partidos políticos, como otros actores sociales, deben ser cuidadosos con su uso". En la misma línea se mueve el PP, que considera que sería un "error" que la usasen para confeccionar sus programas o propuestas. 

El PSOE gallego indica que no han percibido un mal uso hasta el momento aunque reconoce que están preocupados por el uso de herramientas deepfakes, tanto a nivel de imágenes, vídeos o audios que "falseen la realidad" sin advertir que se está usando estos sistemas. En este misma técnica inciden desde Podemos porque "si se implanta y se usa en redes sociales de nicho pueden ser un problema"

La inteligencia artificial da alas a la desinformación

El BNG, por su parte, pone el foco en uno de los riesgos que trae de la mano la inteligencia artificial: la desinformación. "Nos preocupa que haya fuerzas que la usen para embarrar el debate como pasa con las noticias falsas", aseguran los nacionalistas. 

Lo cierto es que la desinformación generada por la inteligencia artificial es un fenómeno que preocupa a nivel mundial. "El gran uso que se hace, que es la generación de contenidos, también puede ser un peligro para generar fake news y distribuir masiva de desinformación", apunta Pellicer. 

Este experto recuerda que el ser humano "está predispuesto a creerse las mentiras" y en un escenario como el actual, en el que "cada vez es más difícil identificar qué es lo verdadero y lo qué es falso", la unión de "factores psicológicos y el auge tecnológico" es un "problema". Según la encuesta Global Advisor de Ipsos sobre desinformación realizada en 29 países y publicada en octubre de 2023, una gran mayoría, el 74%, está de acuerdo en que estas herramientas están facilitando la generación tanto de noticias falsas como de imágenes muy realistas. 

El PSOE gallego recuerda que la ola de desinformación para intentar desestabilizar los procesos electorales ocurre cada vez más aunque, hasta ahora, se ha utilizado más "a través de injerencias extranjeras, por ejemplo, de Rusia". En la misma línea se mueven en Podemos, que aseguran que ni ChatGPT ni los deepfakes son una "amenaza" mucho más que otro tipo de desinformación. 

El PP es el único partido que señala a sus rivales políticos en este campo. En concreto, por la difusión de supuestas imágenes falsas durante la crisis de los pellets o la red de perfiles y trolls que denunciaron antes del inicio de la campaña de las que acusaron sin pruebas a PSOE y BNG. "Estas experiencias también demuestran que no son necesarios deepfakes o inteligencia artificial para desinformar", aseguran los conservadores. 

Más allá de los bulos: los otros riesgos de la inteligencia artificial

Pero la desinformación no es el único riesgo de la inteligencia artificial. Desde Sumar Galicia, destacan que les preocupan, sobre todo, los posibles usos nocivos que se puedan hacer de esta tecnología al igual que sus sesgos, sobre todo los de género. 

Diferentes estudios y análisis han ido poniendo sobre la mesa todos los sesgos sociales que arrastra la inteligencia artificial: es machista, racista y con prejuicios sociales. Y, según dos investigaciones publicadas este mismo mes de agosto, también tiene ideología. En concreto, ChatGPT tiende a favorecer posturas progresistas, mientras que los modelos de Google y Meta muestran características más conservadoras.

"Pensar que la tecnología es neutra es falso, tiene unos sesgos por el desarrollo y por cómo está desarrollada. Y a veces son muy imperceptibles", explica Pellicer que apunta directamente a las compañías detrás: "Los tienen identificados pero no terminar de luchas contra ellos, como pasa como con los discursos de odio o la desinformación. Es uno de los grandes trabajos que tienen por delante". 

A pesar de la desinformación y los sesgos, los partidos coinciden antes del 18F en no demonizar los usos de la inteligencia artificial y en avanzar en la dirección que marca la UE con la nueva reglamentación. El BNG, por ejemplo, destaca que ven esta tecnología como "algo positivo para el futuro" mientras que el PP señala que supone para Galicia "grandes oportunidades". 

En EEUU, la inteligencia artificial ya es un arma política

Este ambiente de consenso y calma cambia radicalmente si cruzamos el Atlántico. En EEUU, entre caucus y primarias del bando demócrata y republicano en las que Joe Biden y Donald Trump intentan ganarse su ticket en la carrera a la Casa Blanca, la inteligencia artificial es ya un arma electoral en toda regla. 

El primer caso a nivel nacional se produjo en abril de 2023. El Comité Nacional Republicano reaccionó a la candidatura a la reelección de Biden con un vídeo con imágenes generadas con inteligencia artificial que muestra una versión distópica y apocalíptica del futuro si vuelve a ganar. En julio de 2023, la campaña del gobernador de Florida, el republicano Ron DeSantis, utilizó una imagen generada por esta tecnología de Trump abrazando a su archienemigo durante la pandemia, el doctor Anthony Fauci. 

Ataques entre políticos que quedan en niñerías si se compara con lo que pasó a finales de enero en New Hampshire. En medio de sus primarias, los votantes recibieron mensajes de llamadas automáticas en una voz generada de forma artificial y que imitaba la de Biden instándolos a no votar. La Fiscalía investiga este caso que buscaba interferir en estos comicios.

Las nuevas políticas de OpenAI

Ante este escenario, OpenAI ha decidido tomar cartas en el asunto. La empresa detrás de ChatGPT y Dall·e fue la última en presentar este mismo mes de enero sus planes y políticas para intentar impedir que la gente utilice su tecnología para difundir desinformación y mentiras sobre las elecciones, sobre todo las de EEUU —no hay que olvidarse que prácticamente casi todas las empresas de esta industria tienen pasaporte estadounidense—.

En concreto, prohíbe usar sus herramientas para crear aplicaciones para campañas políticas y lobby, para hacerse pasar por candidatos, partidos o instituciones, para disuadir a los votantes a participar o para tergiversar el proceso electoral. Para mejorar su transparencia, OpenAI está experimentando con sistemas de detección de imágenes generadas por Dall·e y han integrado en ChatGPT más fuentes de información como, por ejemplo, "noticias en tiempo real a nivel mundial". 

"Serían máquinas con autoconciencia": Zuckerberg, Altman y Musk buscan ahora la superinteligencia artificial

"Serían máquinas con autoconciencia": Zuckerberg, Altman y Musk buscan ahora la superinteligencia artificial

Con estas normas ya en vigor, pocos días después, Open AI prohibió a un desarrollador usar un bot que imitaba al candidato demócrata Dean Phillips y que funcionaba con ChatGPT. La empresa consideró que se produjo un uso indebido de sus herramientas en una campaña política. 

Google y Meta ya movieron ficha en 2023 para proteger las elecciones

Estas nuevas medidas de OpenAI llegan después de que otras tecnológicas movieran ficha a finales de 2023 actualizando sus políticas electorales para hacer frente a esta novedad con respecto a las presidenciales de 2020. En diciembre, Google anunció que limitaría en su bot conversacional Bard —recién bautizado como Gemini— el tipo de respuestas que ofrecen a preguntas relacionadas con los comicios además de introducir marcas de agua en imágenes generadas con estos sistemas. 

En noviembre, Meta —la matriz de Facebook, Instagram y WhatsApp— prohibió a los anunciantes políticos usar sus nuevos productos publicitarios de inteligencia artificial generativa. No obstante, esta misma semana, el consejo asesor de contenido u Oversight Board, que así se llama oficialmente este órgano independiente del imperio tecnológico de Mark Zuckerberg, trasladó a la compañía su preocupación por su actual política de contenido multimedia manipulado que calificaron de "incoherente, carente de justificación y enfocada inapropiadamente". 

Más sobre este tema
stats