Que la privacidad en redes sociales es relativa no es nada nuevo. Las fotos que subimos a nuestros perfiles (también en las que nos etiquetan) pertenecen a una gigantesca base de datos que empresas como Clearview AI utilizan para conocer detalles de tu vida privada. Muchos pondrían el grito en el cielo si leyeran esa hoja infinita de condiciones de uso que aceptamos sin pestañear haciendo scroll a toda leche.
Lo cierto es que una acción tan inofensiva como subir una foto con amigos puede servir para localizar a un asesino en paradero desconocido o incluso convertirte en actor o actriz porno. Aquí es donde se encuentra la delgada línea de la privacidad. Nuestras fotos son públicas y pueden servir para hacer el bien, pero también tienen su lado oscuro. El reconocimiento facial es un gran avance para capturar delincuentes que pasarían desapercibidos mediante vías tradicionales. Pero también se ha utilizado para reprimir protestas pacíficas en países extremadamente autoritarios.
Para los que todavía desconozcan el funcionamiento del reconocimiento facial, se trata de una tecnología que convierte nuestras caras en vectores. Esta geometría facial, compara unas fotos con otras que también son vectores, y va encontrado similitudes y diferencias entre una gigantesca base de datos. Clearview, por ejemplo, encuentra resultados en el 75% de las búsquedas. Y no tienen que ser fotos de una calidad asombrosa, pueden ser capturas de perfil y hasta de cámaras de seguridad.
Este periodista pidió por email sus fotos a la empresa Clearview Al. El resultado fueron 22 imágenes sacadas de fotogramas de Youtube, presentaciones o webs remotas. Algunas no recordaba haberlas visto nunca https://t.co/rDKIBYAyXo
— EL PAÍS (@el_pais) June 17, 2020
El debate sobre la privacidad y la seguridad ciudadana se abrió cuando The New York Times publicó que el Departamento de Policía de Indiana, en Estados Unidos, utilizó Clearview para resolver un caso en 20 minutos. Ocurrió en febrero de 2019 con un caso que tenían abierto. Un hombre disparó a otro mientras se peleaban en un parque. Un testigo que lo presenció todo, grabó un vídeo con su móvil del que se sacó una captura de la cara del sospechoso. Gracias a Clearview, dieron con el paradero del sujeto mediante la comparación con otras fotografías de su base de datos.
Lo que a simple vista parece un gran avance, presenta otro interrogante además de las cuestiones éticas, su precisión. Cuanto más grande sea la base de datos, mayor será el riesgo de equivocarse e identificar a un sospechoso de forma errónea.
En Europa, aunque vayamos retrasados en cuanto a tecnología puntera, tenemos un plan por el que se impondría un veto de cinco años al uso del reconocimiento facial en zonas públicas. Veremos si después de la Pandemia las cosas cambian.
En el caso de las redes sociales también encontramos diferencias. Twitter prohibe específicamente que sus APIs sean utilizadas para este fin, y que sus imágenes no puedan ser recolectadas para reconocimiento facial. El caso de Facebook es distinto. Si tenemos en cuenta que Pether Thiel es miembro del consejo de administración de Facebook y fundador de Palantir Technologies (una empresa de análisis de Big Data), hemos dado con la clave. Desde Facebook señalan que los usuarios siempre pueden configurar sus cuentas para que los motores de búsqueda no enlacen a su perfil, pero si tus fotos ya están en la base de datos es casi imposible borrarlas de ahí. La pregunta que yo me hago es, ¿mi madre, mi abuelo o mi hermana pequeña, sabrían modificar la indexación de un motor de búsqueda desde su cuenta de Facebook? Ya sabemos donde está la trampa.
Deja tu comentario