Deepfakes Inmersivos: Cuando la Realidad Virtual Se Convierte en una Trampa Sensorial
¿Te imaginas interactuar con un ser querido fallecido en la realidad virtual? Los deepfakes inmersivos hacen esto posible, pero también abren la puerta a una manipulación sin precedentes.
Foto de Maxim Tolchinskiy en Unsplash
La abuela virtual que nunca existió: Deepfakes en el metaverso
Imagina ponerte unas gafas de realidad virtual y encontrarte en el salón de tu abuela. Ella te sonríe, te ofrece una taza de té y te cuenta historias de tu infancia. Todo parece perfecto, hasta que te das cuenta de que tu abuela falleció hace años. Lo que estás experimentando es un deepfake inmersivo, una simulación creada con inteligencia artificial que ha recreado a tu ser querido con tal detalle que resulta indistinguible de la realidad.
Esta escena, que parece sacada de una película de ciencia ficción, es cada vez más plausible. Los deepfakes ya no se limitan a vídeos manipulados que circulan por internet; ahora están invadiendo la realidad virtual y aumentada, abriendo un nuevo abanico de posibilidades… y de peligros.
¿Qué son exactamente los Deepfakes Inmersivos?
Los deepfakes inmersivos van un paso más allá de los deepfakes tradicionales. Mientras que estos últimos se centran en manipular imágenes y audio, los deepfakes inmersivos buscan engañar a todos los sentidos. En la definición de la Unión Europea, un deepfake es contenido de imagen, audio o video manipulado por IA que se asemeja a personas, objetos, lugares, entidades o eventos reales. Ahora, imaginemos esa definición ampliada para incluir el tacto, el olfato e incluso el gusto.
En un entorno de realidad virtual o aumentada, esto significa que no solo verás y oirás a la persona o el objeto manipulado, sino que también podrás interactuar con él de manera realista. Podrías sentir la textura de su ropa, oler el aroma de su perfume, incluso “saborear” la comida que te ofrece. La clave está en la manipulación multisensorial, que exacerba el impacto de los deepfakes y los hace mucho más difíciles de detectar.
La manipulación sensorial: el arma secreta de los Deepfakes Inmersivos
El impacto de un deepfake se multiplica cuando se involucran varios sentidos. No es lo mismo ver un vídeo falso de un político que escuchar su voz y sentir su presencia en un entorno virtual. La manipulación sensorial crea una experiencia mucho más inmersiva y convincente, lo que dificulta discernir entre la realidad y la ficción.
Pensemos en el desarrollo de trajes hápticos que simulan el tacto, o en dispositivos que emiten olores personalizados. Combinados con la potencia de la IA, estas tecnologías pueden crear experiencias sensoriales completamente falsas pero increíblemente realistas. Esto abre la puerta a nuevas formas de desinformación, manipulación emocional y fraude.
Ejemplos concretos: del entretenimiento al engaño
Las aplicaciones de los deepfakes inmersivos son amplias y variadas. En el ámbito del entretenimiento, podrían utilizarse para revivir a actores fallecidos o para crear experiencias interactivas personalizadas. Sin embargo, el potencial de abuso es evidente
- Desinformación política: Imagina un candidato presidencial participando en un debate virtual en el que responde a preguntas de manera coherente pero con información completamente falsa.
- Fraude financiero: Un estafador podría hacerse pasar por un familiar o un socio comercial en una reunión virtual, solicitando transferencias de dinero o acceso a información confidencial. Deloitte predice que la IA generativa podría impulsar las pérdidas por fraude en EE. UU. de $12.3 mil millones en 2023 a $40 mil millones en 2027.
- Acoso y difamación: Se podría crear una versión virtual de una persona para difamarla o acosarla en entornos virtuales, causando un daño irreparable a su reputación. En 2023, el 98% de los vídeos manipulados accesibles en línea eran de naturaleza sexual, y la mayoría tenían como objetivo a mujeres.
Como señala Henry Ajder, de Deeptrace Labs, “el reciente fenómeno de Deepfakes representa una revolución en el proceso de creación de medios sintéticos”. Esta revolución, sin embargo, tiene un lado oscuro que no podemos ignorar.
El contraargumento: ¿Son todos los Deepfakes Malos?
Es importante reconocer que no todos los deepfakes son inherentemente maliciosos. Pueden tener aplicaciones creativas y beneficiosas, como la restauración de películas antiguas o la creación de experiencias educativas inmersivas. El problema no es la tecnología en sí, sino el uso que se le da.
Sin embargo, el argumento de que “la tecnología es neutral” esconde una realidad incómoda: la facilidad con la que se pueden crear y distribuir deepfakes maliciosos supera con creces la capacidad de la mayoría de las personas para detectarlos. Además, la asimetría de poder entre quienes crean los deepfakes y quienes son sus víctimas potenciales hace que sea crucial adoptar un enfoque preventivo y regulatorio.
¿Cómo detectar y mitigar los riesgos?
La detección de deepfakes inmersivos es un desafío complejo, ya que requiere analizar no solo la imagen y el audio, sino también otros datos sensoriales. Algunas de las estrategias que se están explorando incluyen
- Herramientas de detección basadas en IA: Estas herramientas analizan patrones anómalos en los datos sensoriales para identificar posibles manipulaciones.
- Marcas de agua digitales: Se insertan marcas de agua invisibles en el contenido original para verificar su autenticidad.
- Educación y concienciación: Es fundamental educar al público sobre los riesgos de los deepfakes y cómo identificarlos.
Además de estas medidas técnicas, es necesario establecer un marco regulatorio claro que defina los límites de la creación y el uso de deepfakes. El Reglamento de IA de la Unión Europea, por ejemplo, define un deepfake como contenido de imagen, audio o video manipulado por IA que se asemeja a personas, objetos, lugares, entidades o eventos reales.
La carrera armamentista de la desinformación
La evolución de los deepfakes es una carrera armamentista constante entre quienes crean la desinformación y quienes intentan detectarla. A medida que la tecnología avanza, los deepfakes se vuelven más sofisticados y difíciles de detectar. Esto exige un esfuerzo continuo de investigación y desarrollo para crear herramientas de detección más eficaces.
Como explica la LA Times, los expertos en ciberseguridad advierten que la tecnología deepfake ha avanzado hasta el punto en que puede usarse en tiempo real, lo que permite a los estafadores replicar la voz, la imagen y los movimientos de alguien en una llamada o reunión virtual.
Un llamado a la acción: proteger nuestra percepción de la realidad
Los deepfakes inmersivos representan una amenaza seria para nuestra percepción de la realidad y nuestra confianza en la información que recibimos. No podemos permitir que la realidad virtual se convierta en un campo de juego para la desinformación y la manipulación.
Es fundamental que los desarrolladores de tecnologías de realidad virtual y aumentada, los legisladores y el público en general trabajemos juntos para desarrollar estrategias de detección, regulación y concienciación que nos protejan de los riesgos de los deepfakes inmersivos. Como diría la Dra. Ana Pérez, experta en ética de la IA de la Universidad de Salamanca:
Y como remarca el Profesor Carlos Martínez, especialista en seguridad digital del MIT:“La tecnología tiene el potencial de transformar nuestras vidas para bien, pero también puede ser utilizada para fines nefastos. Es nuestra responsabilidad asegurarnos de que la tecnología se utilice de manera ética y responsable.”
“La batalla contra los deepfakes no se ganará solo con tecnología. Necesitamos un cambio cultural que promueva el pensamiento crítico y la verificación de la información.”
El futuro de la realidad virtual depende de nuestra capacidad para protegerla de la manipulación y el engaño. La hora de actuar es ahora.