Los peligros y amenazas más notorios de estas técnicas de I.A, de toma de decisiones automatizadas y de la elaboración de perfiles (profiling) es la discriminación algorítmica, mediante sesgos y poca transparencia que conllevan dichos tratamientos, afectando el derecho de protección de datos personales.
También hay que comprender que dichas técnicas inteligentes al ser riesgosas requieren de un tratamiento especial por parte de los Estados.
Sin embargo desde la industria tecnológica se ha avanzado tanto sin reparos, que hoy tenemos una amplia variedad de productos que utilizan estas herramientas. Por nuestra parte, el Estado Argentino, en los últimos años ha mostrado una visión netamente productivista y económica del asunto, alentando su desarrollo y crecimiento, sin regularla, estableciendo solamente guías éticas que siguen parámetros internacionales, sin ser obligatorias.
En estas sociedades de control y vigilancia, los datos biométricos tienen una importancia crucial, en primer lugar, porque sirven para verificar o identificar a las personas, en Argentina desde que nacemos, estamos identificados con un número de identidad, huella dactilar y reconocimiento facial. También estamos utilizando dichos métodos en la vida cotidiana, para bloqueo y desbloqueo del smartphone, ya sea con huella como con reconocimiento facial, los aparatos como Siri y Alexa de reconocimiento de voz, y grandes tecnológicos que nos escanean el ojo (retina o iris) a cambio de criptomonedas, en el mundo laboral para control personal, entre otros.
En segundo lugar, por seguridad del Estado, para perseguir “terroristas” a fin de salvaguardar la ciudadanía de posibles ataques. Como tercer grado de importancia, pero no por eso la menos importante, al contrario, para detectar conductas de todos/as los/as ciudadanos/as cuando nuestras imágenes se relacionan con otras bases de datos.
Mientras que estos datos deben ser resguardados con una mayor seguridad en los casos de filtraciones por parte de delincuentes, también ha crecido dentro de la industria del entretenimiento y cine las posibilidades de su uso para las llamadas deepfake.
Tengamos presente que el activo principal de los sistemas de datos biométricos es nuestro propio cuerpo, el cual se convierte en una mercancía de alto valor en un mercado privado lucrativo. A la hora de recopilar y procesar grandes volúmenes de datos biométricos nos encontramos con una industria tecnológica en pleno auge.
Uno de los grandes desafíos en relación a la industria tecnológica es conocer de forma fehaciente los efectos y tratamiento que se le dan a nuestros datos, por las compañías que los receptan, sobre todo los datos biométricos que tienen un proceso más complejo para la anonimización del dato dada las característica de la información, y que requieren de una mayor protección por parte de los Estados.
En el mundo de las deepfakes podemos identificar casos puntuales de vulneración de derechos fundamentales de las personas afectadas. El caso más resonante se da en las plataformas pornográficas, la utilización de rostro de actrices conocidas implantadas en la estrella porno mediante estas técnicas, son los mayores casos de deepfakes actuales.
Como así también su uso para generar desinformación y manipulación en las democracias actuales en un contexto donde todo se viralizan sin cortejar el mínimo criterio de verificación.
¿Cómo nos enfrentamos a estas nuevas formas de desinformación? ¿Qué peligro se corre a futuro si no tomamos acción al respecto?
Estas son las primeras preguntas que debemos hacernos para abordar esta problemática y tomar acciones concretas para nuestra defensa frente a estas nuevas amenazas.
Un deepfake está compuesto por la combinación de dos palabra “deep” (por profundo) y “fake” (falso) puede ser definido como el producto de la aplicación de técnica de I.A. que genera videos o imágenes hiperealistas (sintéticos) que son manipuladas digitalmente a fin de representar a una persona que dice o hace cosas que nunca sucedieron.
Podemos decir que los deepfakes son las formas modernas de desinformación en nuestras sociedades del siglo XXI, y como tal provocan una amenaza que hay que combatir.
En el 2017 un usuario llamado “Deepfake” de la plataforma Reddit creo videos sintéticos pornográficos suplantando el rostro de las actrices reales porno con el rostro de famosas. Desde ese momento los deepfakes tomaron el nombre del usuario y se conoce como tal a la producción de imágenes, videos y audio sintéticas.
El deepfake como técnica computacional viene a lograr un avance en la forma en que la desinformación y manipulación de la información se generan
Si bien al comienzo las apps que crean imágenes o videos sintéticos fueron burdas, fáciles de identificar como falsas, las actuales han mejorado muchísimo, las mismas son hiperrealistas siendo incluso más complejo su detección para el común de las personas y que pueden ser perceptivas por quienes son técnicos y especialistas de dichas tecnologías.
Es importante comprender este fenómeno para identificar los riesgos reales de las deepfakes maliciosas a fin de poder mitigar sus efectos y generar las responsabilidades pertinentes, no solo de quienes realizan las imágenes sintéticas sino de las plataformas o apps que permiten esta situación.
Hace poco trataron de realizar un fraude suplantando con I.A. la voz del CEO de Ferrari, mediante está técnica de clonar la voz de una persona. Ahora: ¿Somos conscientes de cuantos videos con nuestra voz existen en las distintas plataformas virtuales que usamos a diario?
En relación a nuestro país partimos por coincidir que tenemos un ordenamiento jurídico eficaz para ser aplicado cuando los bienes jurídicos tutelados son afectados mediante el procedimiento civil o penal dependiendo el caso ante los tribunales.
Sin embargo si creemos que debemos avanzar como política de estado en regular la I.A. en la misma sintonía que lo ha hecho la Unión Europea, debe comprenderse que dicha tecnología implica una actividad riesgosa por todo lo mencionado en el trabajo, la cual debe tener grados de clasificación y control con la finalidad de poner a la persona como centro de la tecnología.
Somos partidarios en considerar que los avances de estas herramientas son fundamentales para la sociedad cuando las mismas puedan ser aplicadas sin afectaciones a los derechos fundamentales de las personas.
En cuanto a las deepfakes que es la amenaza actual analizada, compartimos que su prohibición no resuelve el problema de fondo, atento a que su control es complejo, las técnicas de I.A. no conlleva por sí sola una aceptación o prohibición, sino que su mal desarrollo y uso son las que lesionan bienes jurídicos tutelados. Es desde ahí, donde se puede generar una normativa con responsabilidad por parte de quienes diseñan los algoritmos, como también las empresas que las promueven.
Recordemos que los deepfakes son utilizados por empresas para generar publicidad y se está estudiando en la industria cinematográfica, con lo cual este derecho de libertad de expresión o artístico debe ser tenido en cuenta a la hora de analizar este fenómeno.
Compartimos que un camino a seguir a fin de regular este fenómeno que ha crecido en el último tiempo y que cuando afecta derechos fundamentales son considerados amenazas, es la obligación por parte de empresas que diseñen imágenes, videos y audios mediante técnicas de deepfake, que utilicen un sello e identificación que determinen que los mismos son falsos o sintéticos. A su vez, establecer de modo inequívoco las consecuencias legales que todo/a usuarios/as pueda tener en caso de usar las aplicaciones o plataformas al utilizar imágenes no consentidas y de terceros.
Solo las normativas no son suficientes, deben ser acompañadas por una sociedad comprometida e informada sobre los derechos frente a estas tecnologías.
Sabrina Quinteros – Abogada con orientación en Derecho Penal y Derecho Informático.