Gaby Astudillo/Para notimercio
La inteligencia artificial abre puertas creativas para revivir personajes históricos a través del storytelling digital, conectando generaciones con su cultura y memoria. Pero esa misma tecnología, sin ética ni criterio, está generando videos falsos que confunden, desinforman y vulneran identidades. ¿Cómo equilibrar educación, creatividad y responsabilidad?
La inteligencia artificial se ha convertido en una herramienta poderosa para dar vida a personajes históricos, permitir que se cuenten sus historias, que sus voces resuenen y que sus enseñanzas se conecten con las nuevas generaciones. En proyectos culturales en Quito y Ecuador, he utilizado IA para representar figuras como Cantuña o Eugenio Espejo, colocando sus relatos en contextos dinámicos donde el público no solo aprende, sino que se engancha, se emociona y se ríe. Con este enfoque, se combina storytelling, tecnología y patrimonio, transformando archivos estáticos en experiencias vivas y memorables.

La IA facilita crear presencia audiovisual de personajes que solo conocemos por textos o fotografías, integrándose en narrativas audiovisuales que capturan la atención de jóvenes y adultos por igual. En estos casos, la tecnología se transforma en aliada del conocimiento cultural, acercando nuestra historia a quienes, de otra manera, no la buscarían.
El otro lado: cuando la IA crea verdades que nunca existieron
Pero hay un problema serio cuando esas mismas herramientas se usan para crear videos o imágenes que parecen reales pero son completamente falsas. El auge de los llamados deepfakes videos hiperrealistas generados o manipulados con IA ha superado el terreno experimental y se ha convertido en un vehículo de desinformación que puede afectar la percepción pública de la realidad.
Recientemente, circuló una serie de videos que supuestamente mostraban eventos relacionados con la captura del presidente venezolano Nicolás Maduro y situaciones de redadas de inmigrantes en Estados Unidos. Algunos de estos contenidos fueron tan difundidos que incluso canales de televisión locales compartieron versiones producidas con IA sin advertir que eran fabricaciones digitales. Esto genera confusión, alarma y malentendidos en sectores de la población con menor alfabetización digital, como personas mayores o quienes no tienen herramientas para verificar la autenticidad de lo que ven.
La capacidad de estas herramientas para crear contenido audiovisual convincente plantea desafíos profundos: ¿qué sucede cuando ya no podemos distinguir lo que realmente ocurrió de lo que fue construido digitalmente para manipular emociones o creencias? Este fenómeno no es abstracto: los deepfakes son tan difíciles de detectar que estudios muestran que incluso sistemas técnicos a menudo superan a la percepción humana en identificar contenidos falsos.
Ética y derechos de identidad: más allá del entretenimiento
La facilidad con la que hoy se puede generar una voz o un avatar digital con apenas una suscripción de bajo costo implica riesgos que van más allá de producir entretenimiento o educación. Servicios que clonarán la voz de una persona, replican su rostro o generan escenas completas con su supuesta participación pueden vulnerar el derecho fundamental a la propia imagen y a la identidad.
Esto no solo afecta a figuras públicas. Una persona normal puede ver su rostro y su voz usados en un contenido que nunca autorizó, con efectos sobre su reputación, su vida personal o incluso su seguridad. Las legislaciones y marcos regulatorios en varios países están intentando ponerse al día para proteger derechos digitales, exigir la identificación clara de contenido generado por IA y promover mecanismos de verificación, pero aún queda mucho trabajo por hacer.
¿Hasta dónde estamos dispuestos a llegar?
La IA es una herramienta. Como cualquier herramienta poderosa, puede ser usada para empoderar, educar y conectar, o puede ser mal utilizada para confundir, manipular y dañar. El problema no es inherentemente la tecnología, sino quién la usa, con qué propósito y bajo qué normas éticas.
Para que esta tecnología realmente contribuya al bien común, debe acompañarse de un compromiso ético, de educación digital y de alfabetización mediática. Enseñar a las personas no solo a usar estas herramientas, sino a evaluar críticamente lo que consumen es crucial. La alfabetización digital que antes era una competencia deseable hoy es imprescindible.
La IA puede ser una aliada increíble para revivir memoria cultural, contar historias con impacto emocional y acercar a jóvenes a su patrimonio histórico. Pero esa misma tecnología puede ser distorsionada para crear historias falsas o exageradas que se presentan como hechos y que confunden, incluso a medios tradicionales y públicos vulnerables.
El desafío ahora no es prohibir la IA, sino aprender a convivir con ella de forma ética y crítica: promoviendo usos que enriquezcan el conocimiento, fortaleciendo regulaciones que protejan la identidad y la verdad, y educando a nuestra sociedad para que no confunda un deepfake con la realidad.





