Como los algoritmos gobiernan nuestras vidas laborales

The Guardian

Los empleadores están recurriendo a fórmulas matemáticas para tamizar a las solicitudes de empleo. Incluso cuando están equivocados, sus veredictos parecen indiscutibles – y tienden a castigar a los pobres

Por Cathy O’Neil

Jueves 1 Septiembre 2016

Hace unos años, un joven llamado Kyle Behm abandonó sus estudios en la Universidad Vanderbilt en Nashville, Tennessee. Sufría de trastorno bipolar y necesitaba tiempo para tratarse. Un año y medio después, Kyle estaba lo suficientemente sano como para volver a sus estudios en una universidad diferente. Por ese tiempo, supo por un amigo acerca de un trabajo a tiempo parcial. Era sólo un trabajo de un sueldo mínimo en un supermercado Kroger, pero parecía una cosa segura. Su amigo, que estaba dejando el trabajo, podría recomendarlo. Para un estudiante de alto rendimiento como Kyle, la solicitud parecía una formalidad.

Pero Kyle no fue llamado para ninguna entrevista. Cuando le preguntó, su amigo le explicó que se había encendido una “luz roja” en la prueba de personalidad que le habían tomado cuando solicitó el trabajo. La prueba fue parte de un programa de selección de empleados desarrollado por Kronos, una empresa de gestión de personal con sede fuera de Boston. Cuando Kyle le dijo a su padre, Roland, un abogado, lo que había sucedido, su padre le preguntó qué tipo de preguntas habían aparecido en la prueba. Kyle dijo que se parecían mucho a la prueba del “modelo de cinco factores” , que le habían tomado en el hospital. Esa prueba califica a la gente por su extraversión, amabilidad, conciencia, neuroticismo y su apertura a nuevas ideas.

Al principio, perder un trabajo de un sueldo mínimo debido a una prueba cuestionable no parecía ser tan importante. Roland Behm instó a su hijo a solicitar empleo en otro lugar. Pero Kyle regresaba cada vez con la misma noticia. Las compañías a las que se ofrecía estaban usando la misma prueba, y no estaba recibiendo ofertas.

Roland Behm estaba desconcertado. Las preguntas sobre la salud mental parecían estar sacando a su hijo del mercado laboral. Decidió investigarlo y pronto se enteró de que el uso de pruebas de personalidad para la contratación estaba ampliamente extendido entre las grandes corporaciones. Y sin embargo encontró muy pocos procesos legales ante esta práctica. Como me explicó, las personas que solicitan un trabajo y se les enciende una luz roja, raramente saben que fueron rechazadas debido a los resultados de sus tests. Incluso cuando lo sepan, es probable que no se contacten con un abogado.

Behm continuó enviando cartas documento a siete compañías, incluyendo Home Depot y Walgreens, informándoles de su intención de presentar una demanda colectiva alegando que el uso del examen durante el proceso de solicitud de empleo era ilegal. Mientras escribo esto la demanda todavía está pendiente. Es probable que los argumentos se centren en si la prueba de Kronos puede considerarse un examen médico, cuyo uso para la contratación es ilegal bajo la Ley de Estadounidenses con Discapacidades de 1990 [ADA “Americans with Disabilities Act” por su sigla en inglés]. Si este resulta ser el caso, la justicia tendrá que determinar si las propias empresas contratantes son responsables de afrontar la ADA, o si lo es Kronos.

Pero las cuestiones planteadas por este caso van mucho más allá de lo que una empresa en particular puede o no ser responsable. Los sistemas automáticos basados en complicadas fórmulas matemáticas, como el que se usa para tamizar la solicitud de empleo de Behm, se están volviendo más comunes en todo el mundo desarrollado. Y dada su escala e importancia, combinadas con su secreto, estos algoritmos tienen el potencial de crear una subclase de personas que se encontrarán cada vez más inexplicablemente excluidas de la vida normal.

No tendría que ser así. Después del colapso financiero, quedó claro que la crisis de vivienda y el colapso de las principales instituciones financieras habían sido ayudadas y fomentadas por matemáticos que manejaban fórmulas mágicas . Si hubiéramos sido claros, habríamos dado un paso atrás en este punto para averiguar cómo podríamos evitar una catástrofe similar en el futuro. Pero en lugar de eso, a raíz de la crisis, las nuevas técnicas matemáticas estuvieron más incentivadas que nunca, y se expandieron hacía otros dominios. Ellos obtuvieron más de 24/7 de petabytes de información, gran parte de ella escarbada desde las redes de comunicación social o sitios web de comercio electrónico. Y cada vez más se centraban no en los movimientos de los mercados financieros globales, sino en los seres humanos, en nosotros. Matemáticos y estadísticos estaban estudiando a nuestros deseos, movimientos y patrones de gastos. Estaban prediciendo nuestra confiabilidad y calculando nuestro potencial como estudiantes, trabajadores, amantes, criminales.

Esta fue la economía del big data, y prometía ganancias espectaculares. Un programa de computadora podría aceleradamente en un segundo o dos a través de miles de currículos o solicitudes de préstamo clasificarlos en listas ordenadas, con los candidatos más prometedores en la parte superior. Esto no sólo ahorra tiempo, sino que también se comercializó como justo y objetivo. Después de todo, no involucraba a seres humanos con prejuicios escarbando a través de un montón de papeles, sólo máquinas procesando números fríos. Para el año 2010 más o menos, la matemática se estaba utilizando como nunca antes en los asuntos humanos, y el público en gran medida le dio la bienvenida.

La mayoría de estas aplicaciones algorítmicas fueron creadas con buenas intenciones. El objetivo era reemplazar los juicios subjetivos con mediciones objetivas en cualquier número de campos – si era una manera de ubicar a los maestros con el peor desempeño en una escuela o estimar las posibilidades de que un preso regresara a la cárcel.

Estas “soluciones” algorítmicas están dirigidas hacía problemas reales. No se puede confiar en los directores de escuela para señalar consistentemente a los profesores problemáticos, porque esos maestros también son a menudo sus amigos. Y los jueces son sólo humanos y, siendo humanos, tienen prejuicios que les impiden ser enteramente justos; sus decisiones han demostrado ser más duras antes del almuerzo, cuando tienen hambre, por ejemplo, por lo que es una meta digna aumentar la consistencia, Especialmente si puedes estar seguro de que el nuevo sistema también es científicamente sólido.

La dificultad es esa última parte. Pocos de los algoritmos y sistemas de puntuación han sido examinados con rigor científico, y hay buenas razones para sospechar que no pasarían estas pruebas. Por ejemplo, las evaluaciones automatizadas de maestros pueden variar ampliamente de un año a otro, poniendo su exactitud en cuestión. Tim Clifford, un profesor de inglés de una escuela secundaria de Nueva York de 26 años, obtuvo un 6 sobre 100 en un año y un 96 el siguiente, sin cambiar su estilo de enseñanza. Por supuesto, si las puntuaciones no importaran, eso sería algo, pero a veces las consecuencias son terribles, llevaría a que los profesores fueran despedidos.

También hay razones para preocuparse de puntuar a los acusados penalmente en lugar de confiar en la discreción de un juez. Consideren los datos que se vierten en los algoritmos. En parte, proviene de las interacciones de la policía con la población, que se sabe que es desigual, a menudo basada en la raza. El otro tipo de información, generalmente un cuestionario, también es problemático. Algunos de ellos incluso preguntan a los acusados si sus familias tienen un historial de problemas con la ley, lo que sería inconstitucional si se lo piden en una audiencia pública, pero forma parte de la puntuación del acusado y es etiquetado como “objetivo”.

No termina allí. Los algoritmos se utilizan para determinar cuánto pagamos por el seguro (más si tu calificación de crédito es baja, incluso si tu historial de manejo está limpio), o cuáles serán los términos de nuestros préstamos, o qué tipo de mensajes políticos recibiremos . Hay algoritmos que averiguan el pronóstico del tiempo y sólo entonces deciden sobre el horario de trabajo de miles de personas, haciendo trizas su capacidad para planificar el cuidado de los niños y su escolarización, mucho menos un segundo trabajo.

Su popularidad se basa en la noción de que son objetivos, pero los algoritmos que impulsan la economía de datos se basan en elecciones hechas por seres humanos falibles. Y, si bien algunas de ellas fueron hechas con buenas intenciones, los algoritmos codifican el prejuicio humano, el malentendido y el sesgo en sistemas automáticos que cada vez manejan más nuestras vidas. Al igual que los dioses, estos modelos matemáticos son opacos, su funcionamiento invisible para todos, excepto para los más altos sacerdotes de su dominio: los matemáticos e informáticos. Sus veredictos, aun cuando estén equivocados o sean dañinos, están fuera de toda discusión o apelación. Y tienden a castigar a los pobres y oprimidos en nuestra sociedad, mientras que enriquece a los ricos. Eso es lo que Kyle Behm aprendió de la manera más difícil.

Encontrar trabajo solía ser en gran parte una cuestión de a quién conocías. De hecho, Kyle Behm siguió la ruta tradicional cuando solicitó trabajo en Kroger. Su amigo le había avisado de la apertura y lo había recomendado. Durante décadas, así fue como la gente entraba, ya sea en tiendas de comestibles, bancos o firmas de abogados. Por lo general, los candidatos normalmente se enfrentaban a una entrevista, en la que un gerente trataba de tener una idea de ellos. Con demasiada frecuencia esto se traducía en un solo juicio básico: ¿es esta persona como yo (o como las otras personas con las que me relaciono)? El resultado era una falta de oportunidades para los solicitantes de empleo sin un amigo adentro, especialmente si venían de una raza un grupo étnico o religión diferente. Las mujeres también se vieron excluidas por este juego de información privilegiada.

Las empresas como Kronos introdujeron la ciencia en los recursos humanos corporativos en parte para hacer el proceso más justo. Fundada en la década de 1970 por graduados del MIT, el primer producto de Kronos fue un nuevo tipo de reloj para fichar, equipado con un microprocesador, que sumaba las horas de los empleados y lo informaba automáticamente. Esto puede sonar banal, pero fue el comienzo de un empuje electrónico – ahora una velocidad asombroso – para monitorear y optimizar a la fuerza laboral.

A medida que Kronos crecía, desarrolló una amplia gama de herramientas de software para la gestión de la fuerza de trabajo, incluyendo un programa de software, Workforce Ready HR, que prometía eliminar “las conjeturas” en las contrataciones. De acuerdo con su página web, Kronos “puede ayudarle a seleccionar contratar y emplear a los candidatos con más probabilidades de ser productivos – seleccionando mejor a los empleados que se comportarán mejor y permanecerán en el trabajo por más tiempo”.

Kronos es parte de una industria en crecimiento. El negocio de la contratación se está automatizando, y muchos de los nuevos programas incluyen pruebas de personalidad como la que se le tomó a Kyle Behm. Ahora es un negocio de 500 millones de dólares anuales y está creciendo entre un 10 y un 15% al año, según Hogan Assessment Systems Inc, una compañía que desarrolla tests de personalidad online. Estos tests se utilizan ahora entre un 60 a un 70% de los posibles trabajadores en los EE.UU. y del Reino Unido, de acuerdo con la Asociación de Graduados en Contratación, el 71% de los empleadores utilizan algún tipo de prueba psicométrica para la contratación.

Incluso dejando de lado las cuestiones de equidad y legalidad, la investigación sugiere que las pruebas de personalidad son pobres predictoras del desempeño en el trabajo. Frank Schmidt, profesor de negocios de la Universidad de Iowa, analizó un siglo de datos de productividad en los lugares de trabajo para medir el valor predictivo de varios procesos de selección. Las pruebas de personalidad fueron clasificadas como de un nivel bajo en la escala – eran sólo un tercio como predictoras en los exámenes cognitivos, y también estaban muy por debajo de los controles de referencia. “El objetivo principal de los tests”, dijo Roland Behm, “no es encontrar al mejor empleado. Sino excluir a tantas personas como sea posible de la forma más barata posible “.

Podrías pensar que es fácil completar un test de personalidad. Si vas a realizar un test de personalidad de cinco factores online, parece algo fácil. Una de las preguntas: “¿Tienes frecuentes oscilaciones de humor?” Probablemente sería inteligente responder “muy inexacto”. Otro pregunta: “¿Te enojaas fácilmente?” Una vez más, selecciona no.

De hecho, las empresas pueden tener problemas al examinar a los solicitantes sobre la base de estas preguntas. Los reguladores en Rhode Island encontraron que CVS Pharmacy eliminaba ilegalmente a aspirantes con enfermedades mentales cuando un test de personalidad requirió que los que respondían estuvieran de acuerdo o no con declaraciones tales como “la gente hace muchas cosas que te hacen enojar” y “no sirve para nada tener amigos cercanos ; Siempre te defraudan.

Las preguntas más intrincadas, las que son más difíciles de responder, son las más propensas a mantener a las compañías fuera de problemas. En consecuencia, muchos de los tests utilizados hoy en día obligan a los solicitantes a tomar decisiones difíciles, con la probabilidad de dejarlos con una sensación de depresión “Maldición si lo hago, maldición si no lo hago”.

McDonald’s, por ejemplo, recientemente le pidió a los posibles trabajadores que eligieran qué los describía mejor: “Es difícil estar alegre cuando tienes muchos problemas” o “A veces, necesito de un empujón para empezar mi trabajo . ”

En 2014, el Wall Street Journal le preguntó a un psicólogo que estudia el comportamiento en el lugar de trabajo, Tomas Chamorro-Premuzic, que analice a preguntas espinosas como éstas. A la primera de las dos respuestas a la pregunta de McDonald’s, Chamorro-Premuzic dijo, seleccionó “las diferencias individuales en neuroticismo y conciencia”; A la segunda, “ambición baja y unidad”. Así que el futuro trabajador se está declarando culpable de ser demasiado nervioso o perezoso.

Una pregunta del supermercado Kroger era mucho más simple: ¿Cuál adjetivo te describe mejor en el trabajo, especial u ordenado? Al responder “único”, dijo Chamorro-Premuzic, se selecciona “alto concepto de sí mismo, apertura y narcisismo”, mientras que “ordenado” expresa conciencia y autocontrol.

Ten en cuenta que no hay ninguna opción para responder “todas las anteriores”. Los trabajadores potenciales deben elegir una opción, sin una pista de cómo el programa la interpretará. Y algunos de los análisis sacarán conclusiones poco halagüeñas.

Los defensores de los tests señalan que presenta muchas preguntas y que ninguna respuesta individual puede descalificar a un solicitante. Ciertos patrones de respuestas, sin embargo, pueden hacerlo y sí los descalifican. Y no sabemos cuáles son esos patrones. No nos dicen qué buscan los tests. El proceso es completamente opaco.

Lo que es peor, después de que el modelo es calibrado por expertos técnicos, recibe muy poco feedback. Los deportes proporcionan un buen contraste aquí. La mayoría de los equipos profesionales de baloncesto emplean geeks de datos, que ejecutan modelos que analizan a los jugadores mediante una serie de métricas, incluyendo velocidad del pie, salto vertical, porcentaje en los tiros libres y una serie de otras variables. Los equipos confían en estos modelos cuando deciden si reclutan a jugadores o no. Pero si, digamos, Los Ángeles Lakers deciden no contratar a un jugador porque sus estadísticas sugieren que no tendrá éxito, y posteriormente ese jugador se convierte en una estrella, los Lakers pueden regresar a su modelo para ver en qué se equivocaron. Sea cual sea el caso, pueden trabajar para mejorar su modelo.

Ahora imagínense que Kyle Behm, después de obtener una luz roja en Kroger, continúa para conseguir un trabajo en McDonald’s. Convirtiéndose en un empleado estelar. Él estará manejando la cocina dentro de cuatro meses y toda la franquicia un año más tarde. ¿Alguien en Kroger volverá a los test de personalidad e investigará cómo pudieron haberlo hecho tan mal?

No existe esa chance, diría yo. La diferencia es la siguiente: los equipos de baloncesto están administrando a individuos, cada uno valiendo, potencialmente, millones de dólares. Sus motores de análisis son cruciales para su ventaja competitiva, y están hambrientos de datos. Sin una retroalimentación constante, sus sistemas se vuelven obsoletos y bobos. Las empresas que contratan a trabajadores por un sueldo mínimo, al contrario, actúan como si estuvieran manejando a manadas. Reducen los gastos sustituyendo a los profesionales de recursos humanos por máquinas, y esas máquinas filtran a grandes poblaciones en grupos más manejables. A menos que algo desordene a la fuerza laboral -un brote de cleptomanía, digamos, o una caída de la productividad- la compañía tiene pocas razones para ajustar el modelo de filtrado. Está haciendo su trabajo – incluso si se pierde a las estrellas potenciales. La empresa puede estar satisfecha con el statu quo, pero las víctimas de sus sistemas automáticos sufren.

A la mayoría de los solicitantes de empleo, afortunadamente, no son no seleccionados por  sistemas automáticos. Pero todavía enfrentan el desafío de mover su solicitud de empleo al tape de la pila y de aterrizar en una entrevista. Esto ha sido durante mucho tiempo un problema para las minorías raciales y étnicas, así como para las mujeres.

La forma ideal de eludir tal prejuicio es considerar a los solicitantes a ciegas. Las orquestas, que durante mucho tiempo estuvieron dominadas por hombres, comenzaron en la década de 1970 a celebrar audiciones con el músico escondido detrás de una sábana. Conexiones, reputaciones, raza o alma mater ya no importaban. La música de detrás de la sábana hablaba por sí misma. Desde entonces, el porcentaje de mujeres que tocan en grandes orquestas se ha multiplicado por cinco – aunque todavía constituyen sólo una cuarta parte de los músicos.

El problema es que pocas profesiones pueden ingeniar una prueba tan imparcial para los solicitantes de empleo. Los músicos detrás de la sábana pueden realmente realizar el trabajo que están solicitando, ya se trate de un concierto de violonchelo de Dvorák o de bossa nova en la guitarra. En otras profesiones, los empleadores tienen que cazar a través de los CVs, buscando cualidades que puedan predecir el éxito.

Como es de esperar, los departamentos de recursos humanos se basan en sistemas automáticos para acumular pilas de currículums. De hecho, en los EE.UU., alrededor del 72% de los CV nunca son vistos por ojos humanos. Los programas informáticos pasan por ellos, saltando hacía las habilidades y experiencias que el empleador está buscando. Luego clasifican a cada CV como en un ranking para el trabajo solicitado. Depende de la gente en el departamento de recursos humanos decidir dónde se hace el corte, pero se puede eliminar a más candidatos más en esta primera selección, se tendrán que pasar menos horas humanas procesando en la búaqueda de los mejores candidatos.

Por lo tanto, los solicitantes de empleo deben elaborar sus currículums con ese lector automático en mente. Es importante, por ejemplo, diseminar libremente en el currículum palabras específicas del empleo al que se está solicitando. Esto podría incluir a trabajos anteriores (gerente de ventas, arquitecto de software), idiomas (mandarín, Java), u honores (summa cum laude). Aquellas con la información más reciente aprenden lo que las máquinas aprecian y lo que las complica, y adaptan sus solicitudes en consecuencia.

El resultado de estos programas es que aquellos con el dinero y los recursos para preparar sus currículums quedan arriba. Los que no realizan estos pasos nunca sabrán que están enviando sus currículums a un agujero negro. Es un ejemplo más en el que los ricos e informados obtienen el tope y los pobres son más propensos a perder.

Hasta ahora, hemos estado buscando modelos que filtren a candidatos para un trabajo. Para la mayoría de las empresas, esos modelos están diseñados para reducir los costos administrativos y reducir el riesgo de contrataciones no deseadas (o de aquellas que requieran más capacitación). El objetivo de los filtros, en definitiva, es ahorrar dinero.

Los departamentos de recursos humanos, por supuesto, también están dispuestos a ahorrar dinero a través de las opciones de contratación que hacen. Uno de los mayores gastos para una empresa es la rotación de personal, comúnmente llamado churn. El reemplazo de un trabajador que gana u$s 50,000 al año le cuesta a la compañía u$s 10,000, o el 20% del salario anual de ese trabajador, según el Center for American Progress. El reemplazo de un empleado de alto nivel puede costar hasta dos años de salarios.

Naturalmente, muchos modelos de contratación tratan de calcular la probabilidad de que un candidato para un trabajo se quede. Evolv, Inc., que ahora forma parte de Cornerstone OnDemand, ayudó a Xerox a buscar candidatos para sus call centers, que emplean a más de 40.000 personas. El modelo de churn tomó en cuenta algunas de las métricas que podrías esperar, incluyendo el tiempo promedio que la gente se quedó en los trabajos anteriores. Pero también encontraron algunas correlaciones intrigantes. Las personas que el sistema clasificó como “tipos creativos” tendían a permanecer más tiempo en el trabajo, mientras que aquellos que obtuvieron puntajes altos en “curiosidad” eran más propensos a poner en sus mentes cuestionamientos hacia otras oportunidades.

Pero la correlación más problemática tiene que ver con la geografía. Los solicitantes de empleo que vivían más lejos del trabajo eran más propensos a rotar. Esto tiene sentido: los grandes desplazamientos son molestos. Pero los gerentes de Xerox notaron otra correlación. Muchas de las personas que sufren esos largos trayectos venían de barrios pobres. Así que Xerox, para ponerlo como algo positivo, eliminó los datos de rotación altamente correlacionados de su modelo. La compañía sacrificó un poco de eficiencia para hacer justicia.

Mientras que el análisis de la rotación se centra en los candidatos con más probabilidades de fracasar, el trabajo más estratégicamente vital para los departamentos de recursos humanos es localizar a futuras estrellas, las personas cuya inteligencia, inventiva y dirección puede cambiar el curso de toda una empresa. En los escalones más altos de la economía, las empresas están a la caza de los empleados que piensan creativamente y trabajan bien en equipo. Por lo tanto, el desafío de los modelistas es identificar, en el vasto mundo del big data, a los bits de información que se correlacionan con la originalidad y las habilidades sociales.

Un pionero en este campo es Gild, una startup basada en San Francisco. Extendiéndose mucho más allá del alma mater o del currículum de un solicitante, Gild clasifica a través de millones de sites de trabajo, analizando lo que llama de “datos sociales” de cada persona. La empresa desarrolla perfiles de candidatos de empleo para sus clientes, en su mayoría empresas de tecnología, manteniéndolos actualizados a medida que los candidatos aportan nuevas habilidades. Gild afirma que incluso puede predecir cuándo es probable que un empleado estrella cambie de empleo y puede alertar a sus empresas clientes cuando sea el momento adecuado para hacerle una oferta.

Pero el modelo de Gild intenta cuantificar y calificar al “capital social” de cada trabajador. ¿Qué tan integral es esta persona para la comunidad de compañeros programadores? ¿Comparten y contribuyen con programas? Un codificador brasileño -Pedro, llamémoslo- vive en São Paulo y pasa todas las noches desde la cena hasta la una de la mañana en comunión con otros programadores de todo el mundo, resolviendo problemas de computación en la nube o haciendo una lluvia de ideas sobre algoritmos de juegos en sites como GitHub o Stack Overflow. El modelo podría intentar medir la pasión de Pedro (que probablemente obtendría una puntuación alta) y su nivel de compromiso con los demás. También evaluaría la habilidad y la importancia social de sus contactos. Aquellos con más seguidores contarán más. Si su principal contacto online pasó a ser Sergey Brin de Google, digamos, la puntuación social de Pedro sin duda se dispararía hacía arriba.

Pero modelos como los de Gild rara vez reciben señales explícitas de los datos. Así que lanzan una red más amplia, en busca de correlaciones hacía el estrellato en el lugar de trabajo dondequiera que puedan encontrarlos. Y con más de seis millones de codificadores en su base de datos, la empresa puede encontrar todo tipo de patrones. Vivienne Ming, principal científica de Gild, dijo en una entrevista con Atlantic Monthly que Gild había encontrado a un grupo de talentos frecuentando un cierto site de mangas japoneses. Que Pedro pase tiempo en ese site de cómics, por supuesto, no predice su estrellato. Sin embargo, no impulsa a su puntuación.

Eso tiene sentido para Pedro. Pero algunos trabajadores podrían estar haciendo algo offline, lo que no podría ser inferido incluso por el algoritmo más sofisticado – al menos no hoy en día. Pueden estar cuidando a niños, por ejemplo, o tal vez asistiendo a un grupo de libros. El hecho de que las posibles estrellas no pasen seis horas discutiendo el manga cada tarde no debe ser contado contra ellas. Y si, como la mayoría de techdom, ese site de manga está dominado por hombres y tiene un tono sexista, un buen número de mujeres en la industria probablemente lo evitarán.

A pesar de estos problemas, la categoría del modelo predictivo de Gild tiene más que ver con premiar a la gente que castigarlos. Es comparado con tests de personalidad ampliamente utilizados que excluyen a las personas de las oportunidades. Sin embargo, es importante tener en cuenta que estos modelos de contratación están en constante evolución. El mundo de los datos continúa expandiéndose, con cada uno de nosotros produciendo cada vez más flujos de actualizaciones sobre nuestras vidas. Todos estos datos alimentarán las perspectivas de nuestros empleadores potenciales en nosotros.

¿Se pondrán a prueba estas ideas o simplemente se utilizarán para justificar el status quo y reforzar los prejuicios? Cuando considero las maneras descuidadas y egoístas con que las compañías suelen usar los datos, me recuerda a la frenología, una pseudociencia que fue brevemente popular en el siglo XIX. Los frenólogos pasaban los dedos por el cráneo del paciente, explorando los baches y las hendiduras. Pensaban que cada uno estaba vinculado a rasgos de personalidad. Si un paciente estaba mórbidamente ansioso o sufriendo de alcoholismo, la sonda del cráneo usualmente encontraría protuberancias y caídas que se correlacionaran con esa observación, lo que a su vez reforzaba la fe en la ciencia de la frenología.

La frenología fue un modelo que se basó en absurdos pseudocientíficos para hacer declaraciones autorizadas, y durante décadas no fue probada. Los Big Data pueden caer en la misma trampa. Modelos como los que calificaron a Kyle Behm siguen seeccionando a la gente, incluso cuando la “ciencia” dentro de ellos es poco más que un paquete de suposiciones no probadas. •

Este ensayo es adaptaptado a partir de Weapons of Math Destruction: [Armas matemáticas de destrucción]: ¿Cómo el Big Data aumenta la desigualdad y amenaza a la democracia? publicado por Allen Lane el 6 de septiembre


Algo más sobre Cathy O´Neil en este humilde blog

Anuncios

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s