Recordemos que Skynet es la inteligencia artificial que lidera las máquinas en la saga de la película “Terminator”. Ahora bien, cabe preguntarnos:
¿Qué tan cerca estamos de un sistema como Skynet o el detrás de lo que llamamos Inteligencia Artificial?
Las sociedades actuales son sociedades completamente dataístas, es decir, todo pasa por los datos y en donde las tecnologías emergentes irrumpen de formas abruptas día a día en nuestra comunidad. En este marco, las sofisticadas herramientas tecnológicas como la inteligencia artificial (I.A.), aparecen en lo cotidiano como “modas” imperantes que vienen a dar soluciones a distintas problemáticas en diversas áreas, automatizando y optimizando los procesos.
Sin embargo, no se llega a dimensionar los peligros y las vulnerabilidades que trae inmersa esta industria tecnológica.
En los procesos de automatización, los grandes volúmenes de datos pasan a ser el combustible de los mismos, que juntos con los resultados son los que determinarán los algoritmos a utilizar.
En estos procesos de automatización, poco claros y opacos, nuestras identidades digitales (ID) están siendo perfiladas todo el tiempo de forma sistematizada y masiva, ya sea por organismos estatales y por el sector de la industria tecnológica.
Procesos que los propios diseñadores no saben como explicar por qué sus sistemas han tomado determinada decisión, bajo estas “cajas negras” se entrenan y no se conocen los caminos lógicos por los cuales en este caso se perfilan los datos. Mientras tanto el individuo pasa a ser un gran desconocedor de cómo es el tratamiento y procesamiento de sus propios datos.
Esto lo vemos en las campañas de marketing de consumos y entretenimiento, acceso al crédito, campañas políticas, investigación de delitos o temas de seguridad, entre otras.
Bajo este contexto las tecnologías de “moda” como la I.A., entendiendo como tal a todo proceso tecnológico que emulan la capacidad humana, impactan de una forma abrupta y cuando quieren ser aplicadas a áreas con mayor relevancia para las personas, como lo puede ser en salud, educación, seguridad, resultan ser intrusivas y peligrosas.
Así la Inteligencia Artificial y de las distintas técnicas tales como el aprendizaje automático (Machine Learning), el aprendizaje profundo (Deep Learning), I.A. generativa, entre otras, se complejizan más y su comprensión en los alcances y efectos tantos éticos como jurídicos son un gran desafío.
Los derechos que vemos afectados ante estas prácticas que avanzan son muchos. El más notorio que con estas técnicas de toma de decisiones automatizadas y de la elaboración de perfiles (profiling) es la discriminación algorítmica, mediante sesgos y poca transparencia que conllevan dichos tratamientos, generando una clara y continua vulneración a la autodeterminación informativa y a la protección de los datos personales.
Estas técnicas son riesgosas y como tal deben ser vistas y contempladas en los ordenamientos jurídicos, como también ser entendidas por todos los actores que deben proteger y resguardar los derechos humanos.
Sin embargo desde la industria tecnológica se ha avanzado tanto sin reparos, que hoy tenemos una amplia variedad de productos que utilizan estas herramientas.
Si bien estamos muy lejos de que una máquina central tome el control de forma independiente y acabe con la humanidad, en el mundo cotidiano de hoy en día estamos frente a amenazas reales sin darnos cuenta.
Tal vez quedemos fuera de un trabajo porque la IA de la compañía a la que nos postulemos tenga sesgos raciales o sexistas, como sucedió con Amazon. O tal vez las aplicaciones de reconocimiento facial solo sean para reconocer rostros de hombres blancos.
Traigo a colación un documental de investigación de la plataforma de entretenimiento Netflix “Prejuicio cifrado”, del año 2020, sobre la existencia de sesgos raciales en los sistemas de reconocimiento facial, atento a que es muy interesante comprender cómo estos sistemas tecnológicos que en el imaginario de las personas nos brindan “seguridad” y “certeza”, deberían interpelarnos a un análisis crítico.
Este documental lo narra la investigadora del MIT, Joy Boulamwin y nos presenta dos planteos que creo interesante mencionar, el primero, es considerar si es bueno dejar la vigilancia a sistemas defectuosos, entendiendo que son defectuosos por los sesgos algorítmicos que representan; el segundo, por qué los falsos positivos se da más con personas latinas o afrodescendientes.
Tengamos presente que los algoritmos que integran los sistemas de I.A, por sí mismos no tienen un impacto negativo ni positivo, no son ni “buenos” ni “malos”, su uso y diseño de forma imprudente o sin ética son los que están viciados de estos sesgos.
En conclusión, los avances tecnológicos deben ser apoyados y promovidos por los Estados siempre que los mismos tengan efectos beneficiosos para toda la sociedad, cuando sus efectos impliquen una vulneración a los derechos fundamentales de los/as ciudadanos/as, deben ser considerados riesgosos y como tal, tener un control especial.
Hay avances de procedimientos de I.A. que no pueden ser aplicados a determinadas áreas por lo nocivo que pueden ser sus efectos ante las personas, esto debería seguir siendo un tema de discusión y abrir esos debates a todas las miradas multidisciplinarias.
Comprender algunos conceptos técnicos en el desarrollo de estas tecnologías, permitirá contar con un plus a la hora de un activismo por los derechos digitales y generar propuestas para poner al individuo en el centro de estas tecnologías.
No buscamos una sociedad tecnofóbica, todo lo contrario. Queremos propuestas que permitan a los ciudadanos tener una apropiación crítica sobre las tecnologías.
Una política estatal destinada a defender los derechos humanos a la par de los avances tecnológicos permitirán crear sociedades más fuertes y protegidas frente a los abusos.
Redacción por Sabrina Quinteros – Abogada con orientación en Derecho Penal y Derecho informático.