Un análisis publicado por MIT Technology Review, el medio especializado del Instituto Tecnológico de Massachusetts, encontró que como consecuencia del crecimiento de las deepfakes y el perfeccionamiento de las tecnologías que utilizan, el mayor riesgo que enfrentaremos en la próxima década no serán las noticias falsas en sí mismas, sino “acusar a los deepfakes para hacer que lo real parezca falso”.

 ¿Entramos en la era de la desinformación?

Las elecciones de Bolsonaro en BrasilMacri en Argentina, Trump en Estados Unidos, el Brexit en el Reino Unido, al igual que los procesos electorales en las islas caribeñas de Granada y Barbados tienen un elemento en común: todas estas elecciones fueron manipuladas por la compañía británica Cambridge Analytica, que mediante el uso de FakeNews manipuló la decisión del voto de millones de indecisos, inclinando la balanza electoral a favor de sus clientes.

El escándalo de Cambridge Analytica fue el primer campanazo que dejó en evidencia el peligro de la manipulación de la información mediante tecnología sofisticada, la denominada ingeniera social y el uso de información privada de los usuarios de los medios sociales, exponiendo un riesgo latente para las democracias contemporáneas. Sin embargo, este episodio fue la génesis de un fenómeno mucho peor, el de la consolidación de las deepfakes, un tipo de Fake News que el MIT Technology Review ha definido como “Ultrafalsificaciones” que usando la Inteligencia Artificial (IA) y la más avanzada tecnología, logran un nivel de realismo sin precedente incluso en videos o piezas de alta complejidad, que hacen que el usuario común no logre diferenciar entre información original y manipulada, convirtiéndose en un riesgo mayor.

La relativización de la verdad

Para los expertos del Tecnológico de Massachusetts, citados por MIT Technology Review, en las actuales elecciones presidenciales para el 2020 que se vienen desarrollando en EE. UU., los deepfakes son cada vez más convincentes y difíciles de diferenciar entre los ciudadanos del común, generado temores sobre cómo esos contenidos falsos podrían influir en la opinión pública, las posturas políticas y alterar el curso de las elecciones, de la misma forma como ocurrió en las elecciones pasadas. No obstante, un informe presentando por Deeptrace Labs, una compañía de ciberseguridad especializada en detección de deepfakes, no encontró ejemplos en los que los deepfakes se hayan utilizado en campañas de desinformación hasta ahora en la actual contienda electoral, pero para el común de las personas ya no es posible saberlo y la gente desconfía de toda la información, sin importar si es verdadera o no.

“Los deepfakes sí representan una amenaza para la política, pero en este momento la amenaza más tangible es el hecho de acusar a los deepfakes para hacer que lo real parezca falso, la exageración y la cobertura sensacionalista que especula sobre el impacto político de los deepfakes ha eclipsado los casos reales en los que la tecnología ha tenido un verdadero efecto”.

Henry Ajder experto de Deeptrace Labs citado por MIT Technology Review

La relativización de las evidencias

Supongamos que un político es descubierto infraganti recibiendo un soborno y la prueba principal es un video grabado de forma oculta, con algunos problemas técnicos en donde se identifica el personaje y se escucha su voz, al estallar el escándalo este político podría aducir que se trata de un tipo de deepfake y que todo ha sido una manipulación para acabar con su reputación, sembrando la duda que aprovecharían sus seguidores para generar confusión en los medios sociales y finalmente nadie podría saber a ciencia cierta si es real o no.

De la misma forma podría ocurrir con cualquier tipo de información o noticia, generando una paradoja sin precedentes: en el momento histórico en el que habremos alcanzado el máximo posible de acceso a la información, estaremos experimentando el mayor nivel funcional de desinformación. En vez de tener una sociedad informada tendremos una sociedad confusa y probablemente paranoica respecto de la veracidad de los hechos, desencadenándose un nivel de relatividad de la objetividad que podría erosionar las bases mismas de la sociedad.

Desde principios de este siglo el destacado académico Ignacio Ramonet afirmó que: “Cuando hayamos alcanzado el óptimo de información habremos llegado al máximo de desinformación, por saturación”. Una visión futurista muy adelantada para su época, que se anticipó a muchas voces actuales, especialmente de organizaciones civiles y diversos expertos en desinformación, que han manifestado su preocupación, pues ellos consideran que la mayor parte de los esfuerzos que hacen los organismo reguladores, gobiernos y empresas de tecnología, se han concentrado en evaluar “la facilidad con la que la tecnología puede hacer que las cosas falsas parezcan reales”,  pero han ignorado el segundo problema mencionado en el informe de Henry Ajder: “Aunque los límites para crear deepfakes están desapareciendo rápidamente, poner en duda la veracidad de algo no requiere ninguna tecnología en absoluto”.

“Es otra arma para los poderosos: responder con ‘Es un deepfake’ sobre cualquier cosa que las personas que están fuera del poder intenten usar para mostrar la corrupción”.

Diferenciar entre realidad y ficción siempre ha sido algo complejo para los ciudadanos sin mayores competencias educativas, pero sin duda el desafío de los próximos años evidenciarán una confusión sin precedentes, que irá más haya de la ambigüedad tradicional y que afectará no solamente al usuario de Internet del común, sino también a personas con formación profesional, incluso permitirá complejizar ejercicios como el del periodismo que deberán incorporar competencias propias de la informática para garantizar la objetividad, por lo que el desafío que deberán enfrentar los gobiernos y las compañías de telecomunicaciones, será monumental.

Un esfuerzo conjunto de muchos sectores

Gobiernos, reguladores, organizaciones de la sociedad civil, grupos de investigación y compañías tecnológicas como Google han venido desarrollando herramientas, software y tecnología que permitan descubrir ultrafalsificaciones, incluyendo sistemas de inteligencia artificial. De la misma forma han emergido soluciones: apps, que le permiten a cualquier usuario contrastar si una información es verdadera o falsa, al tiempo que se han creado bases comparativas para analizar las versiones del contenido que circula por Internet.

La educación como mecanismo de contención

Aunque la tecnología probablemente permita la aparición de muchas estrategias para combatir las deepfake, sin duda la mejor herramienta será la educación. Es decir, formar a los ciudadanos y usuarios de internet en competencias suficientes que les permita discernir racionalmente acerca de la veracidad o no de una información y aprendan a utilizar herramientas para contrastar y verificar de forma eficiente, el contenido disponible en la nube y en los medios.

En conclusión, las deepfake serán sin duda uno de los mayores dolores de cabeza y amenazas que el mundo contemporáneo deberá enfrentar en la próxima década. No solo,  por la gran cantidad de contenido falso que emergerá en los próximos años, sino porque este tipo de contenido hará que comencemos a dudar de cualquier tipo de información, desconfiando por completo de los datos accesibles en la red y los medios, lo que pondría en tela de juicio cualquier evidencia que golpee los intereses de los más poderosos, convirtiéndose en una amenaza potencial sin precedentes para la democracia global, requiriéndose el esfuerzo conjunto de gobiernos, organizaciones civiles, empresas de tecnología y expertos, para que se promuevan nuevas regulaciones eficaces, se desarrolle tecnología que permita identificar los fraudes y sobre todo se promueva una educación en el consumo responsable de contenidos digitales, promoviendo una ciudadanía crítica, dotada de conceptos, elementos y criterios objetivos de observación y consumo de contenidos digitales.

Por: Gabriel E. Levy B.
AndinaLink