Golpéalos en los algoritmos.
Bloomberg
Por Cathy O’Neil
15 de janeiro de 2021 12:00 BRT
Cathy O’Neil es columnista de opinión de Bloomberg. Es una matemática que ha trabajado como profesora, analista de hedge-fund y científica de datos. Fundó ORCAA, una empresa de auditoría algorítmica, y es autora de “Weapons of Math Destruction” [Armas Matemáticas De Destrucción].
Si no ha oído hablar del auge y caída de la aplicación de fotos Ever, le sugiero que preste atención. Su historia ilustra como el gobierno, si quisiera, podría obligar a las grandes empresas tecnológicas como Google y Facebook a respetar la privacidad de las personas.
Como muchos servicios en la nube, Ever ofreció a los usuarios un lugar para almacenar sus fotos. Luego fue un paso más allá, utilizando esas fotos para entrenar a un algoritmo de reconocimiento facial , que comercializó para las agencias de aplicación de la ley y otros potenciales clientes. Algunos usuarios de Ever sintieron que su privacidad había sido violada, y la Comisión Federal de Comercio [FTC por su sigla en inglés] alegó que la compañía, Everalbum, había actuado de manera engañosa al emplear el reconocimiento facial sin el conocimiento de los clientes y al no borrar sus fotos cuando ellos desactivaron sus cuentas.
Lo realmente interesante son los términos del acuerdo alcanzado esta semana. No solo requiere que Everalbum elimine las fotos en cuestión y obtenga el consentimiento de los consumidores para usar el reconocimiento facial. La empresa también debe eliminar cualquier algoritmo que desarrolló con las fotos y videos que obtuvo a través de la aplicación (que se cerró el año pasado).
El enfoque de la FTC sobre los algoritmos podría sentar un precedente poderoso. En el mundo de la inteligencia artificial, los datos de las personas son solo la materia prima: para Google, los términos de búsqueda y clics en los anuncios; para Facebook, las publicaciones que leen las personas y cuánto tiempo están entusiasmadas en esa plataforma; para Amazon, qué compra la gente y cómo lo encuentra. Luego, las empresas utilizan esos datos para actualizar sus algoritmos, diariamente, cada hora o incluso cada minuto, para atraer y generar ganancias de cada vez más personas. Los algoritmos son el núcleo del producto. Contienen el completo conocimiento acumulado, incluidos los enlaces más recientes, los videos virales más recientes y los productos nuevos más populares.
Entonces, cuando la FTC multa a Facebook con u$s 5 mil millones por hacer un mal uso de los datos de los usuarios, como lo hizo en 2019, tal vez sea caro, pero está lejos de ser fatal. Los activos más valiosos, los algoritmos que Facebook desarrolló a partir de los datos malversados, permanecen intactos. Al igual que los cuerpos de los pacientes con eutanasia en el thriller distópico “Soylent Green” [Cuando El Futuro Nos Alcance], la información de las personas ya ha sido procesada en el producto final, lista para ser enviada al siguiente en la fila.
Pero, ¿y si las autoridades le exigieran a Facebook que elimine las partes ofensivas del algoritmo? ¿Qué pasaría si la empresa tuviera que volver a una versión anterior antes de empezar a hacer un mal uso de los datos? La IA estaría completamente desconectada: imagine que Facebook publica los artículos antes de las elecciones de 2016. El reentrenamiento sin la información faltante requeriría un esfuerzo monumental, arruinando severamente el modelo de negocio durante algún tiempo.
Ahí radica un arma potente. Si las autoridades hacen saber que perseguirán los algoritmos la próxima vez que descubran a alguien haciendo un mal uso de los datos, las empresas de tecnología probablemente se tomarán las preocupaciones sobre la privacidad mucho más en serio.
Puede contactar a la autora de esta historia: Cathy O’Neil en coneil19@bloomberg.net