El libro, fruto de un trabajo interdisciplinario encabezado por Juan Gustavo Corvalán, Matilde O’Mill, Laura Bonhote y Roberto Requejo, advierte sobre los riesgos que plantean los deepfakes, la microsegmentación emocional y la automatización de la desinformación en procesos electorales. Al mismo tiempo, propone herramientas jurídicas, institucionales y técnicas para resguardar la legitimidad del voto y la confianza pública en tiempos de inteligencia artificial.
La irrupción de la inteligencia artificial (IA) está transformando el modo en que las sociedades se informan, discuten y toman decisiones colectivas. En un ecosistema digital atravesado por algoritmos de recomendación, producción automática de contenidos y estrategias de persuasión hiperpersonalizadas, la integridad de los procesos electorales enfrenta desafíos inéditos. En este contexto surge “Integridad electoral frente al tsunami de IA”, una obra que no solo diagnostica el problema, sino que ofrece un marco de acción para proteger la democracia.
El libro examina cómo tecnologías disruptivas -como deepfakes, gemelos digitales, clonaciones sintéticas de voz y la segmentación emocional de votantes- pueden alterar la transparencia de las campañas, la equidad entre candidaturas y, sobre todo, la confianza ciudadana. La capacidad de la IA para ajustar mensajes en tiempo real a perfiles psicológicos y conductuales convierte al electorado en objeto de ensayo permanente, erosionando la autonomía en la toma de decisiones y debilitando la deliberación pública.
Pero la obra evita caer en el determinismo tecnológico. Sostiene que el ordenamiento jurídico argentino -desde la Constitución Nacional hasta la Ley de Protección de Datos Personales y el Código Civil y Comercial- ya ofrece herramientas para enfrentar estas prácticas, siempre que sean interpretadas de manera dinámica, coordinada y con enfoque preventivo.
Desafíos éticos
Los principales desafíos éticos giran en torno a la autonomía del votante, la equidad en la competencia y el uso responsable de la tecnología:
Manipulación de la voluntad y la autonomía ciudadana:
- La IA permite la segmentación emocional y conductual, diseñando publicidad política hiperpersonalizada basada en perfiles psicológicos e interacciones digitales, con el fin de influir estratégicamente en la decisión electoral al explotar emociones como el miedo o la indignación. Esta práctica erosiona la autonomía de la ciudadanía y debilita la deliberación democrática.
- Los gemelos digitales (réplicas virtuales de personas construidas a partir de datos) permiten a los partidos ensayar discursos y consignas sobre poblaciones virtuales antes de difundirlos, adaptando mensajes con precisión quirúrgica, lo que convierte al votante en un objeto de simulación y prueba constante. Esto plantea desafíos éticos profundos.
Vulneración de la identidad y la dignidad:
El uso de contenidos generados por IA, como los deepfakes o clonaciones sintéticas de voz e imagen sin consentimiento, plantea si es legítima una expresión que reproduce atributos identitarios ajenos. Estas prácticas pueden manipular la percepción ciudadana, erosionar la confianza democrática y vulnerar la dignidad de las personas involucradas.
Asimetrías tecnológicas y equidad electoral:
La asimetría tecnológica genera una nueva desigualdad electoral, favoreciendo a aquellos actores políticos que tienen acceso a herramientas avanzadas de IA (análisis de datos, automatización, segmentación psicográfica) frente a candidaturas emergentes o con menos recursos. Esta disparidad erosiona el principio de equidad electoral, alterando la neutralidad del proceso.
Fomento de la polarización:
Los algoritmos de recomendación en plataformas digitales generan «cámaras de eco» o «burbujas informativas», donde los usuarios solo son expuestos a información que refuerza sus propias creencias, limitando el acceso a información plural y fomentando la radicalización de posturas políticas.
Desafíos Jurídicos
Los desafíos jurídicos se centran en cómo el ordenamiento legal tradicional se adapta a la velocidad y sofisticación de la IA, especialmente en la protección de derechos fundamentales y la integridad del sufragio:
Armonización de derechos fundamentales:
Se requiere armonizar la libertad de expresión (piedra angular de la deliberación pública) con otros derechos fundamentales como la autodeterminación informativa, la protección de datos personales y la identidad digital. La clave es que la libertad de expresión fortalezca el voto informado y no sea un canal de manipulación, exigiendo transparencia y sanción posterior.
Protección de la identidad y la imagen (Deepfakes):
La generación y difusión de deepfakes sin consentimiento viola directamente derechos personalísimos. El Código Civil y Comercial exige el consentimiento expreso para captar o reproducir la imagen o voz de una persona. El uso de elementos identitarios para generar representaciones sintéticas sin permiso afecta la imagen, intimidad e integridad personal.
Protección de datos personales y segmentación emocional:
El uso de IA para el perfilado y la microsegmentación electoral puede colisionar con la Ley de Protección de Datos Personales. Esta ley prohíbe la recolección y uso de datos sensibles (como opiniones políticas) sin consentimiento explícito. El uso automatizado de información personal para mensajes persuasivos sin el debido consentimiento libre, previo, expreso e informado constituye un riesgo severo de violación.
Aplicación de normas de fraude electoral:
El uso de IA para generar contenidos falsos con intencionalidad política puede encuadrar en figuras penales ya existentes en el Código Electoral Nacional, como inducir al elector a votar en determinado sentido o a abstenerse mediante engaños (Art. 140). La Cámara Nacional Electoral ha advertido que la difusión de videos falsos mediante IA constituye un delito electoral al afectar la libertad del sufragio.
Gobernanza y regulación de la IA:
Lo que está en juego es cómo la sociedad decide gobernar la IA, estableciendo límites, controles y fines, pues la misma tecnología que mejora la transparencia puede amplificar desigualdades y manipular voluntades si se usa sin regulación. El orden jurídico argentino, si bien tiene bases aplicables, necesita una interpretación integradora y dinámica para abordar los desafíos de la IA.
Desafíos Técnicos
Los desafíos técnicos se refieren a las herramientas y mecanismos de la IA que se utilizan para la manipulación, y la dificultad de verificar la autenticidad en un entorno de alta velocidad:
Deepfakes y pérdida de autenticidad:
La capacidad de la IA generativa para crear imágenes, audios y videos falsos tan realistas que se confunden con la realidad desafía la confianza pública. La dificultad técnica para verificar la autenticidad del contenido en tiempo real pone en jaque el principio de un electorado informado, permitiendo que el engaño se propague antes de que la verdad se pueda restablecer.
Desinformación automatizada y velocidad de propagación:
La IA ha potenciado exponencialmente la producción y diseminación de contenidos falsos a través de bots y cuentas automatizadas. Esta desinformación automatizada (o «infodemia digital») puede inundar las redes sociales en lapsos de tiempo ínfimos, superando la capacidad de respuesta de las autoridades y disolviendo los marcos compartidos de sentido.
Opacidad algorítmica:
La democracia se debilita cuando la esfera digital queda librada a arquitecturas algorítmicas opacas. La opacidad de los algoritmos utilizados en plataformas y redes sociales dificulta no solo la sanción jurídica de las prácticas de manipulación, sino también la elaboración de una narrativa pública compartida sobre lo que ocurre.
Nuevas herramientas de manipulación:
La irrupción de tecnologías como bots, clones digitales y ediciones sintéticas de voz e imagen puede distorsionar la voluntad popular y romper la equidad entre candidaturas. El uso de modelos predictivos y segmentación psicográfica por parte de actores con mayores recursos es un desafío técnico que amplía la ventaja algorítmica.
