El uso de inteligencia artificial para manipular imágenes de niños ya es una realidad. La Red Colaborativa de Inteligencia propone un enfoque legal, ético y preventivo para garantizar que el mundo digital también respete el interés superior del niño.
¿Y si clonaran la imagen de tu hijo para hacer un chiste en TikTok o en la escuela? No es una hipótesis de ciencia ficción. Es una escena real. Y está pasando ahora.
La posibilidad de manipular imágenes, voces y gestos mediante inteligencia artificial ya no es exclusiva de grandes laboratorios. Hoy, cualquier adolescente con acceso a una app puede generar en minutos un video falso que imite a otra persona. Y cuando la víctima es un niño o una niña, el daño trasciende la broma: afecta derechos fundamentales como la intimidad, la imagen, la integridad emocional y la identidad digital.
En este contexto, la Red Colaborativa de Inteligencia -un espacio interinstitucional conformado por especialistas, universidades y organismos públicos- lanzó el primer informe integral sobre deepfakes e infancias. La publicación, titulada “Proteger identidades digitales”, busca abrir el debate y brindar herramientas frente a un fenómeno que desborda marcos tradicionales.
Lo falso puede doler más que lo real
Los llamados deepfakes comenzaron como un experimento tecnológico, pero hoy circulan en grupos escolares y redes sociales, muchas veces creados por otros chicos. A veces como “joda”, otras con la intención de dañar, estos videos o audios manipulados generan consecuencias reales: vergüenza, aislamiento, acoso y daño emocional duradero.
El informe revela, además, que más del 90% de las niñas, niños y adolescentes en Argentina tienen acceso a Internet, y muchos interactúan con IA sin controles parentales ni criterios de edad. El resultado: una enorme brecha entre el uso y la protección efectiva.
¿Qué hacer si una imagen se viraliza sin consentimiento?
El documento propone líneas de acción concretas:
- Pedir a las plataformas la eliminación del contenido.
- Solicitar el desentrenamiento de la IA que usó esos datos (“machine unlearning”).
- Denunciar ante autoridades si se vulneraron derechos.
También subraya que el consentimiento -especialmente en menores de edad- no puede ser asumido ni forzado. Según la ley argentina, los menores de 13 años no pueden autorizar el uso de su imagen; entre los 13 y 16, necesitan supervisión; y desde los 16, el consentimiento debe ser informado y seguro.
La infancia no es contenido
“Cuando lo que está en juego es la voz o el rostro de un chico, ya no hablamos de tecnología: hablamos de derechos”, afirma el equipo detrás del informe.
Entre los principales ejes, se destaca la necesidad de:
- Entender qué pasa cuando un deepfake se vuelve viral en la escuela.
- Visibilizar las nuevas formas de exposición digital.
- Acompañar a madres, padres y decisores públicos en este nuevo escenario.
En un entorno donde lo falso se vuelve viral más rápido que la verdad, el desafío es enorme. Pero también urgente. Educar en consentimiento, supervisar con criterio y reforzar los marcos legales son pasos indispensables.
La Red Colaborativa de Inteligencia promete nuevas entregas para profundizar este trabajo. Mientras tanto, el mensaje es claro: la identidad digital también debe ser cuidada desde la infancia.
