¿Los Aparatos Tienen Ética?

Una primera traducción, si quieren mejorarla envíen un e-mail a:

Eduardo#partidopirata.com.ar
Reemplacen # por @


Fuente The Frailest Thing

Escribiendo sobre «tecnología y su dimensión moral,» el escritor de tecnología y fundador de Gigaom, Om Malik hizo la siguiente observación :

“Puedo decir con seguridad que en tecnología no entendemos el aspecto emocional de nuestro trabajo, así como no entendemos el imperativo moral de lo que hacemos. No es que todos los jugadores sean malos; simplemente no es parte del proceso del pensamiento la manera en que se hace, digamos, ‘producto viable mínimo «o» crecimiento «».

No estoy seguro de cuántas personas en la industria de la tecnología estarían de acuerdo con la afirmación de Malik, pero es algo extraordinariamente elocuente por lo menos de un individuo bien colocado. Felizmente, Malik se da cuenta de que «es el momento de añadir una dimensión emocional y moral a los productos.» Pero, ¿qué significa añadirle una dimensión emocional y moral a los productos?

El debate posterior al propio Malik es breve y trata principalmente del uso de los datos de manera ética y la producción de claros y sencillos términos de servicio. Esto sugiere que Malik está alentando a las empresas de tecnología a tratar a sus clientes de una manera éticamente responsable. Si es así, es bastante desconcertante que lo que él hace sea tratado como un descubrimiento del que se siente obligado a anunciarlo proféticamente a sus colegas. Dejando esta lamentable acusación de la comunidad tecnológica a un lado, quiero sugerir que no hay necesidad de añadir una dimensión moral a la tecnología.

Hace años, Langdon Winner pronunció su famosa pregunta: «¿Los Aparatos tienen política?» En el artículo que lleva ese título, Winner siguió argumentando que sin duda la tienen. También podríamos preguntarnos: » ¿Los Aparatos tienen ética?» Yo diría que la tienen de hecho. La cuestión no es si la tecnología tiene una dimensión moral, la pregunta es si la reconocemos o no. De hecho, la dimensión moral de la tecnología es ineludible, en capas, y con múltiples facetas.

Cuando pensamos en las implicaciones morales de la tecnología, tendemos a pensar en lo que hacemos con una tecnología determinada. Podríamos llamar a esto el enfoque de «las armas no matan a la gente, las personas matan a las personas» a la ética de la tecnología. Lo más importante acerca de una tecnología en este punto de vista es el uso que se le dé. Esto es, por supuesto, una consideración válida. Un martillo de hecho puede ser usado para construir una casa o romperle a alguien la cabeza En esta visión, la tecnología es moralmente neutra y la cuestión sólo moralmente relevante es la siguiente:. ¿Qué voy a hacer con esta herramienta?

Pero ¿es realmente la única pregunta moralmente relevante que uno puede pedir? Por ejemplo, siguiendo el ejemplo del martillo, puede ser que yo tampoco me pregunte ¿cómo tener un martillo en mi mano me modifica para percibir el mundo a mi alrededor? O, ¿qué sentimientos me despierta el tener un martillo en la mano?

A continuación se presentan algunas otras preguntas que podriámos pedir con el fin de llegar a una amplia «dimensión moral» de nuestras tecnologías. Hay, por supuesto, muchas otros que podíamos hacernos, pero esto es un comienzo.

  1. ¿En qué clase de persona me transformará el uso de esta tecnología ?
  2. ¿Qué hábitos inculcará el uso de esta tecnología?
  3. ¿Cómo afectará el uso de esta tecnología mi experiencia del tiempo?
  4. ¿Cómo afectará el uso de esta tecnología mi experiencia del espacio?
  5. ¿Cómo afectará el uso de esta tecnología como me relaciono con otras personas?
  6. ¿Cómo afectará el uso de esta tecnología como me relaciono con el mundo que me rodea?
  7. ¿Qué prácticas cultivará el uso de esta tecnología?
  8. ¿A qué prácticas el uso de esta tecnología desplazará?
  9. ¿Qué me incentivará a notar el uso de esta tecnología?
  10. ¿Qué me incentivará a ignorar el uso de esta tecnología?
  11. ¿Qué se requiere de otros seres humanos para que yo pueda ser capaz de utilizar esta tecnología?
  12. ¿Qué se requiere de otras criaturas para que yo pueda ser capaz de utilizar esta tecnología?
  13. ¿Qué se requiere de la tierra para que yo pueda ser capaz de utilizar esta tecnología?
  14. ¿El uso de esta tecnología me trae alegría?
  15. ¿El uso de esta tecnología me despierta ansiedad?
  16. ¿Cómo me «empodera» esta tecnología empoderar? ¿A costa de quién?
  17. ¿Qué sentimientos me genera el uso de esta tecnología con los demás?
  18. ¿Puedo imaginarme la vida sin esta tecnología? ¿Por qué sí, o por qué no?
  19. ¿De qué manera esta tecnología me incentiva a destinar mi tiempo?
  20. ¿Podrían ser mejor empleados los recursos que se usan para adquirir y utilizar esta tecnología?
  21. ¿Esta tecnología automatiza o terceriza trabajo o responsabilidades que son moralmente esenciales?
  22. ¿Qué deseos genera el uso de esta tecnología?
  23. ¿Qué deseos disipa el uso de esta tecnología?
  24. ¿Qué posibilidades de acción hace presenta esta tecnología? ¿Es bueno que estas acciones sean posibles?
  25. ¿Qué posibilidades de acción impide esta tecnología? ¿Es bueno que estas acciones ya no sean posibles?
  26. ¿Cómo afecta el uso de esta tecnología a formar mi visión de una buena vida?
  27. ¿Qué límites me impone el uso de esta tecnología?
  28. ¿Qué límites impone mi uso de esta tecnología en los demás?
  29. ¿Qué requiere mi uso de esta tecnología de otros que (o deben) interactuar conmigo?
  30. ¿Qué suposiciones sobre el mundo estimula tácitamente el uso de esta tecnología?
  31. ¿Qué conocimiento sobre mi mismo me revela el uso de esta tecnología?
  32. ¿Qué conocimiento genera el uso de esta tecnología conmigo sobre los demás? ¿Es bueno tener este conocimiento?
  33. ¿Cuáles son los daños potenciales a mí mismo, a otros, o al mundo que puede resultar de mi uso de esta tecnología?
  34. ¿Sobre qué sistemas, técnicos o humanos, depende de mi uso de esta tecnología? ¿Son estos sistemas justos?
  35. ¿Mi uso de esta tecnología me estimula a ver a los demás como un medio para un fin?
  36. ¿El uso de esta tecnología requiere que piense más o menos?
  37. ¿Cómo sería el mundo si todos usaran esta tecnología tal y como yo la uso?
  38. ¿Qué riesgos mi uso de esta tecnología supondrá para los demás? ¿Han dado su consentimiento?
  39. ¿Se pueden deshacer las consecuencias de mi uso de esta tecnología? ¿Puedo vivir con esas consecuencias?
  40. ¿Mi uso de esta tecnología hace que sea más fácil vivir como si no tuviera ninguna responsabilidad hacia el prójimo?
  41. ¿Puedo ser responsable de las acciones que esta tecnología permite hacer? ¿Me sentiría mejor si no lo fuera?

2 comentarios en “¿Los Aparatos Tienen Ética?

  1. Pingback: Robots atendiendo al público en bancos y Negocios-Preguntas sobre tecnología y qué dirán los sindicatos | blognooficial
  2. Pingback: ¿Y si no hubiera más taxistas? | blognooficial

Deja un comentario