Fuente: es-us.finanzas.yahoo.com
El reconocimiento facial se ha convertido en un sistema ya rutinario. Gracias a él podemos desbloquear nuestro teléfono móvil o incluso entrar a conciertos o a ferias (así lo pudieron comprobar los asistentes del último Mobile World Congress de Barcelona). Pero esta misma tecnología que nos facilita la vida en el presenta, puede que nos la arruine en el futuro.
Según denuncia este reportaje de NBC News los algoritmos que hacen que este sistema funcione están nutriéndose de millones de fotos que los usuarios han subido a Internet… y no saben que sus rostros están llenando bases de datos de gobiernos y empresas.
Estos algoritmos son capaces de aprender de su experiencia, lo que significa que pueden identificar mejor a las mujeres y a las personas de color, una tarea con la que históricamente han tenido problemas; en el primer caso por el pelo largo o por los peinados que tapan los rostros y en el segundo caso, porque les cuesta identificar rostros cuando la piel se vuelve más oscura.
Y para mejorar sus capacidades, las empresas están acumulando millones de imágenes que obtienen gracias a las redes sociales, en una operación oscura de la que nadie es consciente y que es absolutamente ilegal. En resumen, Las caras de estas personas se utilizan sin su consentimiento para impulsar una tecnología que podría utilizarse para vigilarlas.
“Este es el secreto sucio de los proyectos de entrenamiento de la Inteligencia Artificial detrás del reconocimiento facial. Los investigadores a menudo simplemente toman cualquier imagen que esté disponible en Internet y la usan“, asegura el profesor de la Escuela de Derecho de la Universidad de Nueva York, Jason Schultz, en el mismo reportaje.
Por ejemplo, IBM, que en enero presentó una colección de casi un millón de fotos que fueron obtenidas de diversos sitios de almacenamiento de fotos y fueron codificadas para que una Inteligencia Artificial pudiera describir la apariencia de los sujetos. IBM promovió la colección a los investigadores como un paso progresivo hacia la reducción del sesgo en el reconocimiento facial.
Aunque IBM es una empresa ultra reputada y que respeta escrupulosamente la legalidad, resulta que muchos de los autores de las fotografías que han alimentado su base de datos desconocen que sus imágenes han terminado ahí.
“Ninguna de las personas que fotografié tenía idea de que sus imágenes se estaban utilizando de esta manera”, asegura Greg Peverill-Conti, un ejecutivo de relaciones públicas con sede en Boston que tiene más de 700 fotos en la colección de IBM. “Parece que IBM ha usado las fotos sin tener el consentimiento de los autores ni de los protagonistas de las instantáneas”, asegura Peverill-Conti.
Algunos expertos y activistas argumentan que esto no es solo una infracción a la privacidad de los millones de personas cuyas imágenes han sido barridas, sino que también genera mayores preocupaciones sobre la mejora de la tecnología de reconocimiento facial y el temor de que estos avances se utilicen para alienar o atacar a determinadas personas.
Por su parte, IBM asegura a NBC News que el conjunto de datos es solo para investigación académica y no se utilizará para mejorar las herramientas comerciales de reconocimiento facial de la compañía. Pero la realidad es que las personas que están en esas imágenes no saben que están ahí y no tienen forma de reclamar que les saquen de ese lugar.
¿Qué pasaría si esa base de datos cayera en malas manos, o que IBM se dedicara a mercadear con esta información, de la misma forma que Facebook lo ha hecho con los datos de sus usuarios? Sólo significaría una cosa: que una máquina sabe exactamente cómo somos.