TripAdvisor, Huffington Post, y El Diario , Pérdida de Confianza y formas de encarar una violación

 


Sobre una denuncia contra TripAdvisor por haber borrado un comentario donde se denunciaba una violación en un hotel en la Costa Maya:


Denuncian a TripAdvisor de borrar mensajes que alertaban sobre violaciones y robos en la Riviera Maya

“La agencia AP obtuvo respuesta de la cadena Iberostar, donde también en 2011 y 2015, dos mujeres denunciaron haber sido violadas. Una de ellas perdió la conciencia junto a su esposo, después de tomar bebidas alcohólicas:

“Todos los incidentes reportados por los huéspedes en nuestras instalaciones son tratados con la mayor seriedad y cuidado, en un esfuerzo por asegurarnos que se tomen todas las medidas apropiadas. La seguridad y el bienestar de nuestros huéspedes es y seguirá siendo nuestra principal preocupación. Iberostar Hotels & Resorts tiene tolerancia cero para cualquier tipo de conducta ilegal o inapropiada en cualquiera de nuestras propiedades”.

“Las quejas contra el servicio de Iberostar en México documentadas recientemente en los medios “datan de hace más de seis años” y en ningún caso se “eligió presentar quejas ante las autoridades de México. Al igual que en los Estados Unidos, el hecho de que no se haya presentado una denuncia oficial ante las autoridades obstaculiza la capacidad de investigar un reclamo””, defendió la empresa.

Huffington Post México

Y pensando en eso de que no habían existido denuncias buscás un poco más y te encontrás:

“Iberostar Hotels and Resorts, con matriz en España, dijo tomar en serio todas las aseveraciones hechas por sus huéspedes. La compañía agregó que los empleados del Iberostar Paraíso indicaron a Kristie Love presentar su demanda ante las autoridades pero que ella se negó.

Love declaró a The Journal Sentinel que los empleados del hotel rehusaron ayudarla cuando reportó la violación. Una vez de vuelta en Dallas, el hotel le dijo no tener ningún reporte sobre el suceso, dejó de contestarle las llamadas telefónicas y amenazó con demandarla, aseguró.

Varias semanas después de la agresión, Love regresó a México e interpuso una demanda pero el hotel no cooperó con las autoridades, dijo al periódico.

Durante las investigaciones de The Journal Sentinel se detectaron otros casos en los cuales se borraron sin explicación alguna de TripAdvisor reseñas negativas, incluyendo comentarios en los cuales se alertaba sobre ataques y muertes.

El sitio de internet anunció el establecimiento de un “símbolo” notificador en sus listados comerciales con el fin de advertir a los turistas en caso de haberse presentado “problemas de salud y seguridad o discriminación” en las empresas.”

El Diario


Huffington Post se queda con la versión de Iberostar, quien tiene más poder, pareciera que Kristie Love no quiso denunciarlos. En la nota en El Diario informan que Iberostar incentivó a Love a hacer la denuncia y que ella no quiso, pero al final ella dice que hizo la denuncia y que la cadena hotelera no la ayudó para nada y que hasta la amenazó con procesarla!

En Huffington Post dicen que Tripadvisor repuso la denuncia y dan el link pero no aclaran lo que si dice El Diario:

“El sitio informó haber vuelto a subir el comentario original de Love respecto a lo que le sucedió en el hotel, el Iberostar Paraíso, situado cerca de Playa del Carmen y Cancún, enfatizando agradecer los posts en los cuales se alertaba sobre ataques, robos y asaltos. El comentario de Love se colocó en su posición cronológica original, ahora enterrada entre miles de páginas de otros comentarios.


¿Quién va a navegar hasta un comentario del 2010 para saber qué recomiendan sobre Iberostar?

¿Por qué Huffington Post no fue más solidario con la víctima?

Y ahora, ¿quién le cree a Tripadvisor?, ¿cómo creerle?.

El alcance de TripAdvisor

Fundado en el 2000, TripAdvisor es hoy el principal site de viajes del mundo. De acuerdo con datos del informe anual de la empresa de 2015, el site tiene 315 millones de miembros registrados y 500 millones de reseñas y opiniones de usuarios sobre hoteles, restaurantes y atracciones turísticas.

Cuando se busca por evaluaçiones de establecimientos en Google, la evaluación de TripAdvisor generalmente aparece en el tope de los resultados de las búsquedas. Las reseñas negativas pueden verse reflejadas en una caída de ingresos para un estabecimiento.

TripAdvisor mantiene diversos convenios comerciales con cadenas de hoteles y sites de reservas, como Booking y Expedia. Además, los establecimientos pueden anunciar en el site. De acuerdo con la empresa, existe separación clara entre estos negocios y el contenido generado por los usuarios, que no serían afectados por intereses comerciales.

En el pasado, el sistema de TripAdvisor ya fue acusado de ser pasible de manipulación. Un diario italiano creó un perfil para un restaurante que no existia. Por medio de reseñas falsas, consiguió que el lugar fuese el mejor votado de la ciudad donde estaria localizado.

Nexo Jornal


La confianza en un site es uno de los capitales de sites como Tripadvisor, si ya no podemos creerle, o debemos dudar mucho de lo que dicen, tal vez sea tiempo de volver a intentar el viejo y simple cara a cara, creerle al otro y no a un site.

Y lo duro que es que alguien informe un poco más en profundidad, me decepcionó mucho el Huffington

Anuncios

La Declaración de los Guerreros Climáticos del Pacífico sobre el cambio climático

Este año, con Fiji confirmado como presidente de la COP23, la región del Pacífico mostrará al mundo cuál es el verdadero liderazgo climático. Resaltaremos al mundo cómo se ve el cambio climático en el Pacífico y cómo, si no actuamos al respecto, esa amenaza empeora.

Como Guerreros Climáticos del Pacífico provenientes de toda la región del Pacífico y representando a a diversas poblaciones, comunidades de primera línea y comunidades indígenas, y con el apoyo de todo el mundo, estamos haciendo un llamado a los líderes mundiales para que se comprometan a construir un mundo mejor y más justo para nosotros mismos y para las generaciones que están por venir.

Para lograrlo, hacemos un llamado a:

La inmediata eliminación de los combustibles fósiles existentes y la prohibición de todas las expansiones nuevas, existentes y planificadas de infraestructuras de combustibles fósiles con compromisos de hacer una rápida transición hacia el 100% de energía libre, a más tardar para 2050

El ofrecimiento del apoyo y financiamiento necesarios para que los países que ya están enfrentándose a daños y pérdidas irreversibles provocados por el cambio climático, así como el establecimiento inmediato de mecanismos de adaptación para lidiar con los impactos climáticos en curso.La prohibición a la industria de los combustibles fósiles de participar en los procesos de la CMNUCC para que no puedan retrasar debilitar y bloquear más la acción sobre el cambio climático.

El accionar de todos los llamados hechos en el Acuerdo de París, incluidos los esfuerzos internacionales para asegurar que las temperaturas globales promedio no superen los 1.5 grados desde los niveles preindustriales.

El cambio climático es real y está teniendo un impacto en este momento, por lo que es imperativo que nos pongamos de pie por el Pacífico y la comunidad global, e igualmente, que actuemos ahora para evitar una mayor catástrofe climática. Esta COP debe tratarse de las personas, no de las ganancias ni de los contaminadores.

Para firmar la declaración

 

Ciencia, grieta y otras supersticiones

Primera Parte:


Segunda Parte:


Descargar Bloque 1 | Descargar Bloque 2


¿Existe el pensamiento crítico en el actual ambiente científico argentino? ¿Qué representa la ciencia: un saber, o una forma de poder sobre la sociedad? La política científica -o no científica- del país se mantiene hasta con un mismo ministro (Lino Baranhao) durante la era kirchnerista y la actual: cero grieta. Un modelo que sigue las tendencias de moda, los papers y los negocios que alegran a los laboratorios, sin distraerse con las necesidades reales de la sociedad. Los reclamos científicos se basan en lo gremial y rechazan los recortes presupuestarios, pero no discuten qué tipo de ciencia es el más conveniente. Alicia Massarini y Adriana Schnek son biólogas, creadoras del grupo (y el libro) Ciencia entre todxs, y revelan cuestiones para evitar pensamientos supersticiosos sobre la ciencia, la neutralidad y la objetividad. ¿Cómo pensar estos temas? Además, las maravillas que Pablo Marchetti con El grito pelado nos propone para mejorar la vida de nuestras orejas. (Escuchá el programa completo)

Decí Mu


Algunos capítulos de Ciencia entre todxs para descargar


El “Tambo del Futuro” y la tecnología como religión, vos tené fé!

Nicolás Lyons me escribe a raíz de un comentario sobre su participación en La Red Rural:


Nicolás tampoco responde hacía dónde van todos los datos, quién tiene acceso a ellos o si se puede llegar a manipular al mercado con ellos.

Nos dice que hay que tener confianza…Así, como si fuera una fé, una religión, suena un poco a esa idea del Capitalismo como religión o la Tecnología como religión, tené confianza, tené fe, es tecnología y no va a pasar nada, relaja y goza!


En su cuenta en Twitter encuentro a este video:

Video de Clarín Rural sobre la automatización y el uso del Big Data en los tambos.


No conté la cantidad de veces que dice tecnología o aprovechar y desaprovechar pero si me llamó la atención que dijo que era para eliminar mano de obra!.

Más allá de cierta impresión al ver a robots ordeñando a las vacas y al poco personal que se ve en el tambo Lyons no dice nada de ¿hacía dónde van todos los datos que se comparten?, ¿quiénes más tienen acceso a ellos?, ¿se podría llegar a manipular al mercado?, ¿qué pasa si se detecta una superproducción o una reducción de ella?

Clarín tampoco se lo pregunta, en EE.UU. la American Farm Boureau se hizo varias preguntas sobre la privacidad y el manejo de los datos, en la Argentina nadie se lo está preguntando.

Videos de Mary Kay Thatcher, directora del American Farm Bureau para las relaciones con el Congreso [la lobbysta de los sojeros en el congreso de EE.UU.]



En la base del video donde dice cc le activan los subtítulos en español


En la base del video donde dice cc le activan los subtítulos en español

Etchevehere, ministro de agroindustria, contra el “ambientalismo furibundo y renegador del auténtico progreso”

El presidente de la Sociedad Rural Argentina (SRA), Luis Miguel Etchevehere, se pronunció en contra del “ambientalismo furibundo y renegador del auténtico progreso”, en el marco de la apertura oficial de la 131° Exposición de Agricultura, Ganadería e Industria Internacional de Palermo, que contó con la presencia del presidente Mauricio Macri.

Agrovoz


halloween

Conferencia TED: Zeynep Tufek: Estamos construyendo una distopía solo para hacer que la gente haga click en los anuncios

Si quiere descargar el video, click con el botón derecho del mouse y elegir descargar

en este enlace

Si quiere ver al video en el lugar donde está cargado

Los subtítulos en español e inglés en formato srt, se pueden editar con un editor de texto, si quiere enviar alguna corrección/revisión


La conferencia en el site TED


El libro Twitter y Gas Lacrimógeno, en inglés, para descargar


Transcripción:

Entonces, cuando se escucha lo que dice la gente sobre las amenzas de la inteligencia artificial
muy a menudo, a invocan imágenes de robots humanoides fuera de control.
¿Ya saben? ¿Terminator?
Ya saben, eso podría ser algo a considerar,
pero esa es una amenaza lejana.
O bien, nos preocupamos por la vigilancia digital
con metáforas del pasado.
“1984” de George Orwell “1984”
que está en las listas de los más vendidos de nuevo.
Es un gran libro,
pero no es la distopía correcta para el siglo 21.
A lo que tenemos que temerle más
no es a lo que nos hará la inteligencia artificial por su cuenta,
sino a como las personas en el poder utilizarán a la inteligencia artificial
para controlarnos y manipularnos
en nuevas, a veces ocultas,
maneras sutiles e inesperadas.
Gran parte de la tecnología
que amenaza a nuestra libertad y a nuestra dignidad en el futuro a corto plazo
está siendo desarrollada por las empresas
en el sector de captura y venta de nuestros datos y de nuestra atención
a los anunciantes y a otros:
Facebook, Google, Amazon,
Alibaba, Tencent.
Ahora, la inteligencia artificial ha comenzado a impulsar su también a su sector.
Y puede parecer que la inteligencia artificial
es sólo el siguiente paso después de los anuncios en línea.
No lo es.
Es un salto de categoría.
Es un mundo completamente diferente,
y tiene un gran potencial.
Se podría acelerar nuestra comprensión de muchas áreas de estudio e investigación.
Pero parafraseando a un famoso filósofo Hollywood,
“Con el enorme prodigio potencial viene un riesgo enorme.”
Ahora vamos a ver un hecho básico de nuestra vida digital, los anuncios en línea.
¿Verdad? Nos los tomamos mucho en cuenta
Parecen burdos, ineficaces.
Todos hemos tenido la experiencia de ser seguidos en la web
por un anuncio basado en algo que buscamos o leímos.
Ya saben, buscas un par de botas
y durante una semana, esas botas te están siguiendo a todas partes que vayas.
Incluso después de sucumbir y las compras, todavía siguen a tu lado.
Estamos como acostumbrados a ese tipo de manipulación básica, barata.
Rodamos nuestros ojos y pensamos: “¿Sabes qué? Estas cosas no funcionan.”
Excepto que, en línea,
las tecnologías digitales no son sólo anuncios.
Ahora, para entenderlo, pensemos en un ejemplo del mundo físico.
¿Vieron como en las cajas de los supermercados, cerca del cajero,
hay caramelos y chicles en el nivel de los ojos de los niños?
Esto está diseñado para hacerlos gimotear a sus padres
justo cuando los padres están a punto de salir.
Ahora, eso es una arquitectura de persuasión.
No es agradable, pero es algo que funciona.
Es por eso que lo ves en todos los supermercados.
Ahora, en el mundo físico,
tales arquitecturas de persuasión son un poco limitadas,
porque sólo puedes poner algunas cosas cerca del cajero. ¿Correcto?
Y los dulces y chicles, son los mismos para todos,
a pesar de que, en general, funcione
sólo para las personas que tienen a pequeños humanos refunfuñando al lado de ellos.
En el mundo físico, vivimos con esas limitaciones.
En el mundo digital, sin embargo,
las arquitecturas de persuasión pueden ser construidas en la escala de miles de millones
y pueden ser dirigidas, deducidas, entendidas
y desplegadas individualmente
uno a uno
por averiguar sus puntos débiles,
y que puedan ser enviadas a la pantalla del teléfono privado de todos,
así que no es visible para nosotros.
Y eso es diferente.
Y esa es sólo una de las cosas básicas que la inteligencia artificial puede hacer.
Ahora, vamos a dar un ejemplo.
Digamos que quieres vender pasajes de avión a Las Vegas. ¿Correcto?
Así que en el viejo mundo, podrías pensar en algunos datos demográficos como objetivos
Basados en tu experiencia y en lo que puedas suponer.
Podrías tratar de hacer publicidad a, oh,
hombres entre las edades de 25 y 35 años,
o a personas que tengan un alto límite de su tarjeta de crédito,
o parejas de jubilados. ¿Verdad?
Eso es lo que podías hacer en el pasado.
Con big data y Machine Learning [aprendizaje automático],
no funciona más así.
Así que imaginen esto,
piensen en todos los datos que Facebook tiene sobre ustedes:
cada estado de actualización que alguna vez escribieron,
cada conversación en Messenger,
cada lugar desde el que han entrado,
todas las fotografías que han subido allí.
Si comienzan a escribir algo y cambian de opinión y lo eliminan,
Facebook lo mantiene y lo analiza, también.
Cada vez más, se trata de hacer que coincidan con sus datos offline.
También se compran una gran cantidad de datos a los data brokers [corredores de datos].
Podría ser de todo, desde sus registros financieros
a una buena parte de su historial de navegación.
¿Verdad? En los EE.UU., tales datos se recogen de forma rutinaria,
cotejados y vendidos.
En Europa, tienen normas más estrictas.
Entonces, lo que sucede entonces es,
revolviendo todos esos datos, estos algoritmos de aprendizaje automático –
por eso se les llama algoritmos de aprendizaje –
aprenden a entender las características de las personas
que compraron antes pasajes a Las Vegas.
Cuando aprenden esto a partir de los datos existentes,
también aprenden como aplicarle esto a gente nueva.
Así que si se les presenta a una nueva persona,
la pueden clasificar sobre si esa persona es probable que compre un pasaje a Las Vegas o no.
Bien. Ustedes están pensando, una oferta para comprar pasajes a Las Vegas.
Puedo ignorar eso.
Pero el problema no es ese.
El problema es,
que ya no entendemos realmente cómo funcionan estos complejos algoritmos.
No entendemos cómo están haciendo esta categorización.
Son matrices gigantes, miles de filas y columnas,
tal vez millones de filas y columnas,
y ni los programadores
y nadie que lo mire,
incluso si tienes todos los datos,
entendera exactamente más sobre cómo está operando
algo más sobre lo que uno sabe sobre lo que estaba pensando en este momento
si se te mostrara una sección transversal de mi cerebro.
Es como que no estamos programando más,
estamos haciendo crecer a una inteligencia que no entendemos de verdad.
Y estas cosas sólo funcionan si hay una enorme cantidad de datos,
así que también fomentan la vigilancia profunda sobre todos nosotros
de forma que los algoritmos de aprendizaje automático puedan funcionar.
Es por eso que Facebook quiere recolectar todos los datos que pueda sobre uds..
Para que los algoritmos funcionen mejor.
Así que sigamos un poco con ese ejemplo de Las Vegas.
Que tal si este sistema que no entendemos
está captando que es más fácil venderle pasajes a Las Vegas
a personas que son bipolares y están a punto de entrar en una fase maníaca.
Tales personas tienden a convertirse en derrochones, jugadores compulsivos.
Podrían tranformarse en eso,
y no tendrías ni idea de cuál fue el motivo.
Una vez les dí este ejemplo a un grupo de científicos de computación
y después, uno de ellos se acercó a mí.
Él estaba preocupado y me dijo, “Es por eso que no podía publicarla.”
Yo estaba como, “¿Que puede publicar qué?”
Él había tratado de ver si de hecho se puede averiguar el comienzo de las manías
a partir de los posts en las redes sociales antes que los síntomas clínicos,
y había funcionado,
y había funcionado muy bien,
y no tenía ni idea de cómo funcionaba o de cuál era el motivo.
Ahora, el problema no se resuelve con él no publicándolo,
porque ya hay empresas
que están desarrollando este tipo de tecnología,
y un montón de las cosas ya están listas para usar.
Esto no es muy difícil ya.
¿Alguna vez fueron a YouTube para ver un vídeo
y una hora más tarde habían visto 27?
¿Saben cómo YouTube tiene esta columna a la derecha
que dice: “Reproducción Automática”
y se reproduce automáticamente algo?
Es un algoritmo
seleccionando lo que cree que puede estar interesándote
y tal vez no lo encuentras por tí mismo.
No es un editor humano.
Son los algoritmos los que lo hacen.
Seleccionan lo que has visto y lo que personas como ustedes han visto,
e infiere que eso debe ser lo que les interesa,
de lo que quieres más,
y apenas te muestra más.
Suena como una característica benigna y útil,
excepto cuando no lo es.
Así en 2016, asistí a reuniones del entonces candidato Donald Trump
para estudiar con una beca sobre el movimiento de apoyo a él.
Yo estudio los movimientos sociales, así que lo estaba estudiando también.
Y luego quería escribir algo sobre una de sus movilizaciones,
entonces las ví un par de veces en YouTube.
YouTube comenzó a recomendarme
y a reproducir automáticamente para mí vídeos sobre la supremacía blanca
en un orden creciente de extremismo.
Si veía uno,
seleccionaba otro aún más extremo
y reproducía automáticamente a este, también.
Si ves contenido sobre Hillary Clinton o Bernie Sanders,
YouTube te recomienda y reproduce automáticamente conspiración izquierdista,
y va cuesta abajo a partir de allí.
Bueno, ustedes pueden estar pensando, esto es política, pero no lo es.
Esto no se trata de política.
Esto es sólo el algoritmo descifrando al comportamiento humano.
Una vez vi un video en YouTube sobre vegetarianismo
y YouTube me recomendó y reprodujo automáticamente un video acerca de ser vegetariana.
Es como si nunca se es lo suficientemente duro para YouTube.
(Risas)
Entonces, ¿qué está pasando?
El algoritmo de YouTube es propiedad intelectual,
pero esto es lo que creo que está pasando.
El algoritmo se ha dado cuenta
de que si puedes atraer a la gente
haciéndolas creer de que se les puede mostrar algo más duro,
son más propensas a permanecer en el site
viendo vídeo tras vídeo cayendo hacía ese abismo
mientras Google les muestra anuncios.
Entonces con nadie ocupándose de la ética de lo que se almacena,
estos sites pueden hacer perfiles de las personas
que son enemigos de judíos,
que piensan que los Judios son parásitos
y a quien tiene ese contenido antisemita explícito,
y hacerlos el objetivo de esos anuncios.
También pueden movilizar algoritmos
para encontrarte un público parecido,
personas que no tienen tal contenido antisemita explícito en su perfil
pero que el algoritmo detecta que pueden ser susceptibles a este tipo de mensajes,
y te permite que también sean el blanco de los anuncios.
Ahora, esto puede sonar como un ejemplo inverosimil,
pero esto es real.
ProPublica investigó esto
y encontró que, de hecho, puedes hacerlo en Facebook,
y Facebook les ofreció amablemente sugerencias
sobre la manera de ampliar a este público.
BuzzFeed lo intentó con Google, y muy rápidamente se los encontró,
Sí también puedes hacerlo en Google.
Y ni siquiera era caro.
El reportero de ProPublica gastó cerca de 30 dólares
para tener como objetivo a esta categoría.
Entonces el año pasado, el administrador de las redes sociales de Donald Trump reveló
que estaban usando los “Dark Post” de Facebook para desmovilizar a la gente,
no para animarlos,
sino para convencerlos a que se abstengan de votar .
Y para hacer eso, ellos se dirigían específicamente,
por ejemplo, a hombres afroamericanos en las principales ciudades como Filadelfia,
y voy a leer exactamente lo que él dijo.
Lo estoy citando.
Ellos estaban usando “posts no públicos”
cuyo público es controlado por la campaña
de modo que sólo las personas que queremos que los vean lo vean.
Hemos modelado esto.
que va a afectar drásticamente su capacidad para que acudan a votar “.
¿Qué hay en esos dark posts?
No tenemos ni idea.
Facebook no nos lo dirá.
Entonces Facebook también organiza algorítmicamente a los posts
que tus amigos ponen en Facebook, o a las páginas que sigues.
No te muestra todo cronológicamente.
Se pone el orden en la forma en que el algoritmo piensa que te atrae a
a que permanezcas en el site más tiempo.
Entonces esto tiene muchas consecuencias.
Puedes pensar que alguien te está menospreciando en Facebook.
El algoritmo puede no estar mostrándole tus posts a ellos.
El algoritmo le está dando prioridad a algunos de ellos y enterrando a otros.
Los experimentos muestran
que lo que el algoritmo selecciona para mostrarte puede afectar a tus emociones.
Pero eso no es todo.
También afecta al comportamiento político.
En el año 2010, en las elecciones de mitad de mandato,
Facebook hizo un experimento con 61 millones de personas en los EE.UU.
que se divulgaron después de hechas.
Entonces a algunas personas se les mostró, “Hoy es el día de las elecciones,”
el aviso más simple,
y a algunas otras personas se les mostró el que tiene ese pequeño retoque
con esas pequeñas miniaturas
de tus amigos que haicieron clic en “Voté”.
Este simple retoque.
¿OKAY? Entonces las imágenes tenían ese único cambio,
y ese post se muestró sólo una vez
y resultó en 340.000 votantes adicionales
en esa elección,
de acuerdo con esa investigación
como se confirma a través de las listas de votantes.
¿Una casualidad? No.
Ya que en el año 2012, repitieron al mismo experimento.
Y en ese momento,
ese mensaje cívico que se mostró sólo una vez
produjo 270.000 votantes adicionales.
Como una referencia, la elección presidencial del 2016 en los Estados Unidos
se decidió por unos 100.000 votos.
Entonces Facebook también puede inferir fácilmente cuáles son tus inclinaciones políticas,
incluso si nunca los divulgaste en su sitio.
¿Correcto? Estos algoritmos pueden hacer eso con bastante facilidad.
¿Qué pasa si una plataforma con ese tipo de poder
decide desalentar a los partidarios de un candidato más que al otro?
¿Cómo podemos ni siquiera saber sobre esto?
Entonces hemos partido de un lugar aparentemente inocuo –
los avisos onlines siguiéndonos por todas partes –
y hemos aterrizado en otro lugar.
Como comunidad y como ciudadanos,
ya no sabemos si estamos viendo la misma información
o lo que alguien más está viendo,
y sin una base común de información,
poco a poco,
el debate público se está volviendo imposible,
y sólo estamos en las etapas iniciales de esto.
Estos algoritmos pueden inferir con bastante facilidad
cosas como tu origen étnico,
tus puntos de vista religiosos y políticos, rasgos de tu personalidad,
inteligencia, felicidad, uso de sustancias adictivas,
si tus padres son separados, edad y géneros,
sólo a partir de los “Me Gusta” en Facebook.
Estos algoritmos pueden identificar a manifestantes
incluso si sus caras se ocultan parcialmente.
Estos algoritmos pueden ser capaces de detectar la orientación sexual de las personas
sólo a partir de las fotos en tu perfil en sites de encuentros.
Entonces, estas son conjeturas probabilísticas,
por eso no van a ser 100 por ciento correctas,
pero no veo a los poderosos resistir a la tentación de utilizar a estas tecnologías
sólo porque hay algunos falsos positivos,
que, por supuesto, crean toda otra capa de problemas.
Imaginen lo que un Estado puede hacer
con la inmensa cantidad de datos que tiene sobre sus ciudadanos.
China ya está utilizando la tecnología de detección de rostros
para identificar y detener a las personas.
Y aquí está la tragedia:
estamos construyendo esta infraestructura de vigilancia autoritaria
simplemente para conseguir que la gente haga clic en los anuncios.
Y este no será el autoritarismo de Orwell.
Esto no es “1984”
Porque si el autoritarismo es utilizar el miedo abiertamente para aterrorizarnos,
todos vamos a tener miedo, pero lo sabremos,
vamos a odiarlos y nos resistiremos.
Pero si las personas en el poder están utilizando estos algoritmos
para vigilarnos en silencio,
para juzgarnos, y llamarnos la atención,
para predecir e identificar a los alborotadores y a los rebeldes,
para desplegar arquitecturas de persuasión a escala
y para manipular a los individuos uno por uno
utilizando sus debilidades y vulnerabilidades personales individualmente,
y si lo están haciendo a escala
a través de nuestras pantallas privadas
de esta manera ni siquiera sabemos
lo que nuestros conciudadanos y vecinos están viendo,
ese autoritarismo nos envolverá como una tela de araña
y será posible que ni siquiera sepamos que estamos en ella.
Debido a que la capitalización bursátil de Facebook
se acerca a la mitad de un billón de dólares.
Por eso es que funciona como un gran arquitectura de persuasión.
Pero la estructura de la arquitectura
es la misma si estás vendiendo zapatos
o si estás vendiendo políticas.
Los algoritmos no saben la diferencia.
Los mismos algoritmos dispersos sobre nosotros
para hacernos más flexibles ante las publicidades
también están organizando los flujos de nuestra información política, personal y social,
y eso es lo que tiene que cambiar.
Entonces no me malinterpreten,
utilizamos a las plataformas digitales, porque nos proporcionan un gran valor.
Yo uso Facebook para mantenerme en contacto con amigos y familiares en todo el mundo.
He escrito sobre lo crucial que son las redes sociales para los movimientos sociales.
He estudiado cómo se pueden utilizar a estas tecnologías
para eludir la censura en todo el mundo.
Pero no es que las personas que dirigen, ya saben, a Facebook o a Google
estén tratando maliciosa y deliberadamente
de polarizar más al país o al mundo
y fomentar el extremismo.
He leído las declaraciones bien intencionadas de muchas
que estas personas publican.
Pero no son las intenciones o las declaraciones de las personas en tecnología
las que importan
son las estructuras y los modelos de negocios que están construyendo.
Y este es el núcleo del problema.
Que Facebook sea una estafa gigante con medio billón de dólares
y que sus anuncios no funcionen en el site,
que no funcione como una arquitectura de persuasión,
o que su poder de influencia sea algo de gran preocupación.
Es una cosa o la otra.
Es similar también para Google.
Entonces, ¿qué podemos hacer?
Esto tiene que cambiar.
No puedo ofrecerles una receta simple,
porque necesitamos reestructurar
todo el camino con el que opera nuestra tecnología digital.
Todo, desde la forma en que la tecnología se desarrolla
a la forma en que los incentivos económicos, y otros,
están incorporados en el sistema.
Tenemos que hacerle frente y tratar de examinar a
la falta de transparencia creada por los algoritmos propietarios,
el reto estructural de la opacidad del learning machine [aprendizaje automático],
todos estos datos indiscriminados que están siendo recolectados sobre nosotros.
Tenemos una gran tarea frente a nosotros.
Tenemos que movilizar a nuestra tecnología,
nuestra creatividad
y sí, a nuestros políticos
así podremos construir a una inteligencia artificial
que nos apoye en nuestros objetivos humanos
pero que también se vea limitada por nuestros valores humanos.
Y entiendo que esto no será fácil.
Puede ser que incluso no esté de acuerdo fácilmente con lo que significan esos términos.
Pero si tomamos en serio
como funcionan estos sistemas de los que dependemos para tanto,
no veo cómo podemos posponer más a esta conversación.
estas estructuras
están organizando cómo funcionamos
y están controlando
lo que podemos y no podemos hacer.
Y muchas de estas plataformas financiadas a través de la publicidad,
presumen de que son gratis.
En este contexto, eso significa que nosotros somos el producto que se está vendiendo.
Necesitamos una economía digital
donde nuestros datos y nuestra atención
No esten en venta para el demagogo autoritario que haga la mayor oferta.
(Aplausos)
Entonces volviendo a esa frase de Hollywood,
sí queremos al prodigioso potencial
de la inteligencia artificial y que la tecnología digital a florezca,
pero para eso, debemos hacer frente a esta amenaza prodigiosa,
abrir los ojos y actuemos.
Gracias.
(Aplausos)


Si no nos vamos de Facebook después de esto por lo menos usemos un nic/apodo!
No es sólo para que nosotros nos cuidemos sino para cuidar la frágil democracia que tenemos


Alexander Nix-El Poder del Big Data y la Psicografía

Sobre la Agencia Cambridge Analytica y Alexander Nix, su CEO, que usó Big Data en la campaña de Ted Cruz para las primarias republicanas :

“La propuesta es irresistible para la prensa, en especial la tecnológica: una pequeña empresa de origen británico con una herramienta demográfica capaz de segmentar los mensajes a los electores individualmente pudo ser instrumental, no sólo en la victoria de Donald Trump en EEUU, sino previamente en la campaña del Brexit en el Reino Unido.

Su misteriosa tecnología le permitió crear un perfil psicológico personalizado de los votantes para ajustar los mensajes de la campaña exactamente a sus intereses y gustos particulares, proporcionando así el margen clave para estas sensacionales victorias.

Por si fuera poco, tanto el perfil como los mensajes personalizados tendrían que ver con las redes sociales, en especial Facebook: sería el triunfo definitivo del tipo de campaña política del siglo XXI que tanto ayudó a las victorias de Barack Obama.”

El Diario.es


Si quiere descargar el archivo de video, click con el botón derecho del mouse y elegir descargar en este enlace

Si no puede ver al video aquí hágalo donde está almacenado


Los subtítulos en español y los automáticos hechos en inglés por Youtube en formato SRT que pueden ser editados para revisarlos/corregirlos mi email para enviarme las correcciones/revisiones


En Brasil ya hay, por lo menos, una agencia diciendo que usará Big Data para las elecciones presidenciales de 2018, ¿En la Argentina se estará usando Big Data?, ¿Cómo podemos defendernos de esto?