El temor al uso de imágenes, audios y videos generados con inteligencia artificial (IA) en el ámbito electoral —especialmente en países como México— es muy significativo y creciente, por varias razones que ya se reflejaron en los procesos electorales recientes y en debates públicos sobre la tecnología:
1. La amenaza percibida: manipulación de verdad y opinión pública
La IA generativa permite crear deepfakes que parecen reales, donde políticos, líderes o figuras públicas parecen decir o hacer cosas que nunca ocurrieron. Esto puede confundir al electorado, erosionar la confianza en la información y polarizar más a la sociedad.
En México se documentaron casos de audios y videos supuestamente falsos vinculados a campañas, donde actores políticos tuvieron que desmentir públicamente que se trataba de IA usada para manipulación.
Este fenómeno no es exclusivo de México: elecciones en EE. UU. y otros países han visto audios deepfake de líderes políticos circulando en redes sociales, lo que ha generado alarmas sobre la llamada “guerra sucia digital”.
-Publicidad-
2. La desinformación como factor de inquietud
Las autoridades, organizaciones internacionales y expertos señalan que la desinformación digital y la IA están entre los riesgos más relevantes para las democracias contemporáneas, pues combinan la tecnología con la posibilidad de influir en decisiones de votación.
Encuestas globales muestran altos niveles de preocupación ciudadana sobre la influencia de la desinformación en procesos electorales, donde la IA es un motor adicional de generación de contenido falso.
3. Desafíos específicos en México
A pesar de experiencias como las de 2024, en México no existe todavía un marco normativo sólido que regule el uso malintencionado de IA en contextos electorales (el Instituto Nacional Electoral, por ejemplo, ha sido criticado por no incluir límites claros en propuestas de reforma).
Esto ha generado preocupación entre organizaciones civiles, periodistas y especialistas que piden mayor regulación, educación digital y herramientas de verificación para contrarrestar la difusión de contenido sintético engañoso.
4. Percepción pública y preparación social
Parte del temor también está relacionado con el hecho de que cualquier persona, incluso con pocos recursos, puede generar contenido falso con IA, lo que facilita su circulación masiva y hace más difícil identificar qué es verdadero o falso en redes sociales.
En México, algunos comentarios en redes y debates públicos reflejan que muchos ciudadanos aún no están completamente preparados para evaluar críticamente este tipo de contenido, lo que amplifica el riesgo.
5. Medidas de respuesta y contramedidas
Organizaciones de verificación de datos, plataformas tecnológicas y también el propio órgano electoral han empezado a implementar herramientas y campañas para identificar y reportar contenido falso, como chatbots para que la ciudadanía reporte audios, videos o imágenes sospechosos.
Sin embargo, muchos expertos consideran que estos esfuerzos aún son insuficientes frente al ritmo de desarrollo de las tecnologías generativas.
En resumen: el temor a que imágenes, audios y videos generados con IA afecten procesos electorales es alto porque amplifica la desinformación, puede manipular la percepción pública y desafía los mecanismos tradicionales de verificación y regulación. En México, a diferencia de algunos países que ya discuten leyes específicas, aún falta un marco sólido para enfrentar este riesgo de manera integral, y eso contribuye a la inquietud tanto de especialistas como de ciudadanos.

































