Cuando la biometría no alcanza!

Si no puede verlo en el blog, puede asistir al video en donde está alojado


Hay un tema social, las personas no quieren ir a las clases de reciclaje por haber superado los puntos en su registro de conductor.
El tema es que no se solucionará con más y más vigilancia, suponer que los problemas sociales se solucionan con tecnología lo único que hace es que nos ponen a todos más y más vigilados!

Como funcionan los robots que ‘discuten’ política en las redes sociales

Camilo Rocha 29 Ago 2017 (actualizado 29/Ago 14h27)
Nexo Jornal

Su uso está en todo el espectro político, dice un estudio de la Fundación Getulio Vargas [FGV] que alerta hacía su influencia en el debate general

La palabra ‘robot’ remite a personajes metálicos, pero los robots online son nada más que líneas de código de programación. Ya te peleaste sobre política con un robot hoy? Miles de conversaciones y discusiones son [travadas en las redes sociales diariamente a causa de las posiciones políticas o de convicciones ideológicas. La mayor parte de los que participan de estos diálogos probablemente no sabe, sin embargo, que una parte considerable de estas interacciones se dá entre seres humanos y robots, o “bots”, como también son comunmente llamados hoy.

De acuerdo a un estudio publicado en agosto, cerca de 10% de las interacciones en Twitter relacionadas a las elecciones presidenciales de 2014 fueron realizadas por cuentas vinculadas a robots. En la época de las protestas contra el impeachment de la ex-presidente Dilma Rousseff, el número llegó a los 20%. El mismo porcentaje fue observado en las interacciones con participación de apoyadores del senador Aécio Neves durante el ballotaje de las elecciones de 2014.

La investigación es un trabajo de la Directoria de Análisis de Políticas Públicas (DAPP) de la FGV (Fundación Getúlio Vargas). Fueron analizados 2.153 perfiles de Twitter sospechosos de estar totalmente automatizados o “ciborgs” (operados por robots y humanos). Su actuación fue examinada en momentos relevantes de la política nacional, como el debate de las elecciones presidenciales de 2014, el impeachment de la ex-presidente Dilma Rousseff, en 2015, y las elecciones municipais paulistanas, en 2016. El estudio resalta que los responsables por los robots pueden ser actores independientes o de grupos de interés, sin estar conectados directamente con partidos o políticos.

Partiendo de la realidad de que las redes sociales e internet se tornaron plataformas de discusión e información políticas esenciales para la sociedad actual, el estudio alerta para una realidad en que los robots han conseguido influenciar a opiniones personales y al debate como un todo.

“El surgimiento de cuentas automatizadas permitió que estrategias de manipulación, diseminación de rumores y difamación, comunmente usadas en disputas políticas, ganasen una dimensión aun mayor en las redes sociales”, concluye el estudio.

La FGV defiende que esta situación hace necesaria la identificación de este tipo de cuentas a fin de diferenciar las interacciones verdaderas de las falsas, especialmente en las vísperas de un año electoral.

¿Quién usa los robots?

“Todo el espectro partidario” se vale de robots para propagar mensajes o responderle a usuarios reales de Twitter, dice el estudio de la FGV.
El contenido que publican o comparten incluye a noticias falsas, ataques a políticos adversarios y posts favorables al nombre que apoyan.

Sus objetivos incluyen el conseguir un rebaño de seguidores, la difamación de oponentes y la creación de discusiones artificiales. 10 % es el porcentaje de interacciones en Twitter relacionados a las elecciones presidenciales de 2014 que fueron realizadas por cuentas vinculadas a robots, de acuerdo con la FGV Según un estudio de la universidad de Oxford, publicado em junio de 2017, que analizó el uso de robots en nueve países, en Brasil tanto el PT [de Lula-Dilma] como el PSDB [de Aécio Neves] utilizaron bots durante el ballotaje de la elección presidencial de 2014. El partido de Aécio Neves habria gastado cerca de R$ 10 millones [Unos u$s 3 millones] en el recurso, de acuerdo con un documento filtrado del gobierno Dilma citado por el estudio. El estudio resalta que los responsables por los robots pueden ser actores independientes o de grupos de interés, sin estar conectados directamente a partidos o a políticos.Los robots que publican fuera del país también fueron identificados. De acuerdo con la FGV, “esto
atrae la reflexión sobre la manipulación no sólo interna”, sugiriendo incluso la posibilidad de agentes “extraños al cuadro nacional”.

“Los bots son eficaces para sembrar confusión o sofocar una conversación política sobre un tema global que involucra a un gobierno autoritario. Por esto, ellos son bastante activos en Rusia, donde forman parte de una estrategia de éxito del gobierno para diseminar la desinformación”, dijo Phil Howard, profesor del Instituto de Internet de la Universidad de Oxford, al site alemán Deutsche Welle, en 2016.

Los bots

La palabra “robot” puede traernos la imagen de un personaje en los moldes de la famosa dupla de la película “Star Wars”, C3PO y R2D2. Sin embargo, el término (derivado de la palabra checa “robotnik”, “aquel que trabaja forzado”) es usado para cualquier máquina que recibe programación computacional para realizar tareas específicas.

Un robot no necessita ni existir fisicamente, sino sólo ser una entidad virtual que recibió un conjunto de instrucciones. En internet, los robots virtuales son utilizados para cientos de funciones, como por ejemplo enviar spam o sugerir productos en Facebook basados en sus búsquedas de Google. Otros prestan asistencia a clientes de una empresa via chat. Wikipedia usa a un robot para categorizar artículos.

Los robots sociales (“social bots”), como los usados en el contexto político, son creados especificamente para las redes sociales y también son virtuales. Por medio de un programa simple, generalmente conteniendo a algunas líneas de código, se puede generar a un robot de este tipo.

Esta programación puede contener términos y nombres específicos, al que el robot responderá siempre que pase por ellos. Los comandos pueden instruir a la cuenta falsa a que retwitee siempre posts de un perfil específico. En los Estados Unidos, el perfil-robot @ilduce2016 fue creado para mandar mensajes al perfil del presidente Donald Trump en intervalos de horas. Sus mensajes eran siempre frases del dictador Benito Mussolini (sin su crédito). Un cierto día, después de meses, el objetivo del robot fue alcanzado: Trump mordió el anzuelo y retwiteó a uno de los mensajes. El entonces candidato a presidente se transformó en noticia por compartir el pensamiento del líder fascista italiano.

Pero los robots pueden ser mucho más sofisticados. Programaciones más elaboradas pueden dejarlos con una forma más parecida a un usuario real, haceindo con que estén fuera de la red por períodos de tiempo para que parezcan que están durmiendo o para que adopten un tono específico, que parezcan algo más informales al hablar.

“Los robots están alli sólo para distorcionar a las estadísticas”, dice el profesor Fabrício Benevenuto, de la UFMG (Universidad Federal de Minas Gerais), en una entrevista de 2015 al diario “O Globo”. “Con ellos, es fácil crear una sensación de que hay un grupo muy grande insatisfecho con algo. Esto es parte de un objetivo político e incluso comercial, cuando, por ejemplo, una empresa lanza un auto y la competencia crea un robot para atacar al auto del otro.”

Los robots de Facebook

El estudio de la FGV se enfocó en Twitter por creer que la proliferación y eficiencia de los robots sea mayor en aquella red social. La restrcción de comunicación impuesta por los 140 caracteres de Twitter “facilita la imitación de la acción humana”. La utilización del @ para marcar a otros perfiles permite que los robots se comuniquen com personas reais “para insertar un factor que se asemeje a las interacciones humanas”.

La investigación de la FGV cita tests que indican a un mayor cuidado en la elección de amigos en Facebook: “60% aceptan siempre a quien posee al menos a un amigo en comun”. Por medio de un programa simple, generalmente conteniendo a algunas líneas de código, se puede generar a un robot para las redes sociales
Aún así, Facebook no deja de contar con el uso de robots para fines políticos. A partir del rastreamiento de hashtags específicos, los investigadores de la universidad federal de Espírito Santo detectaron en 2014 que, en un período de 15 minutos, las menciones al candidato Aécio Neves en Facebook se habían triplicado durante uno de los debates televisivos de la campaña. Este aumento seria un fuerte indicio del uso de robots.

¿Cómo identificar a los robots?

Hay diversas maneras de distinguir perfiles-robots en Facebook y en Twitter. Muchos tienen en comun a determinadas características, como por ejemplo, la ausencia de fotos de perfil de usuario o personales. El número de posts suele ser reducido. Las cuentas falsas también suelen tener como amigos o ser seguidas por perfiles del mismo tipo.

Con el tiempo, sin embargo, este conjunto puede tornarse mixto, conteniendo a perfiles de personas reales, una vez que, de acuerdo con el estudio de la FGV, “los usuarios humanos son poco criteriosos en relación a las interacciones y amistades con cuentas desconocidas, en especial en Twitter”.

Otro factor que puede denunciar a un perfil falso, dice la FGV, es que sus actividades en general son menos complejas y variadas que las de los seres humanos. La investigación señala también como indicios “características de contenido y lenguaje” y el número de amigos (“las personas reales poseen, en promedio, entre 100 y 1000 seguidores”).


Tal vez antes de engancharte en una discusión en Internet pensar si lo estás haciendo con un robot!.

También para pensar en todos los rumores que circulan a través de Interneet y en la necesidad de que la política siga siendo algo fuera de la virtualidad

Aumento de robots racistas – como la Inteligencia Artificial está aprendiendo de todos nuestros peores impulsos

Hay un dicho en informática: basura que ingresa, basura que sale. Cuando alimentamos a nuestras máquinas con datos que reflejan nuestros prejuicios, ellas nos imitan, desde los chatbots antisemitas hasta el software racialmente sesgado. ¿Nos espera un horrible futuro obligados a vivir a merced de los algoritmos?
The Guardian

Por Stephen Buranyi

Martes, 8 de agosto de 2017,

En mayo del año pasado, un informe sorprendente afirmó que un programa informático utilizado por un tribunal estadounidense para la evaluación de riesgos estaba sesgado en contra de los presos negros. El programa, Correctional Offender Management Profiling for Alternative Sanctions (Compas), Perfiles Para La Gestión de Delincuentes Correccionales con Sanciones Alternativas (Compas en su sigla en inglés), era mucho más propenso a clasificar erróneamente a los acusados negros como propensos a reincidir – señalándolos erróneamente como de casi el doble de la tasa de los blancos (45% a 24%) de acuerdo con la organización de periodismo de investigación ProPublica.

Compas y programas similares a estaban en uso en cientos de juzgados en los Estados Unidos, haciendo que las decisiones de jueces y otros funcionarios sean potencialmente sesgadas. El mensaje parecía claro: el sistema de justicia de Estados Unidos, criticado por su sesgo racial, había recurrido a la tecnología para obtener ayuda, sólo para descubrir que los algoritmos también tenían un sesgo racial.

¿Cómo pudo pasar esto? La empresa privada que suministra el software, Northpointe, cuestionó a las conclusiones del informe, pero se negó a revelar el funcionamiento interno del programa, que considera comercialmente sensible. La acusación dio sustancia aterradora a una preocupación que se ha estado produciendo entre los activistas y los informáticos durante años y que los gigantes tecnológicos Google y Microsoft tomaron recientemente medidas para investigar : que a medida que nuestras herramientas computacionales se han vuelto más avanzadas, se han vuelto más opacas. Los datos en los que se basan – registros de arrestos, códigos postales, vínculos sociales, ingresos – pueden reflejar, y hacer que los prejuicios humnanos estén más arraigados en el futuro.

La promesa de aprendizaje automático y otros programas que funcionan con big data (a menudo bajo el término de “inteligencia artificial” o IA) es que con cuanta más información alimentamos a estos sofisticados algoritmos informáticos, mejor se comportan. El año pasado, según la consultora de management McKinsey, las empresas de tecnología gastaron entre u$s 20.000 millones y u$s 30.000 millones en IA, principalmente en investigación y desarrollo. Los inversores están haciendo una gran apuesta en que la IA filtrará a través de la gran cantidad de información producida por nuestra sociedad y encontrará patrones que nos ayudarán a ser más eficientes, más ricos y felices.

Esto ha llevado a una carrera armamentista de una década de duración en la que el gobierno británico está ofreciendo salarios de seis cifras a los científicos de informática. Ellos esperan usar el aprendizaje automático para, entre otras cosas, ayudar a los desempleados a encontrar trabajo, predecir el desempeño de los fondos de pensiones y clasificarlos a través de los ingresos y aduanas. Se ha convertido en una especie de sabiduría recibida que estos programas tocarán todos los aspectos de nuestras vidas. (“Es imposible saber qué tan ampliamente adoptada está la IA ahora, pero sí sé que no podemos regresar”, dice un científico informático).

Sin embargo, aunque algunas de las voces más prominentes de la industria están preocupadas por el futuro potencialmente apocalíptico de la IA , se presta menos atención al problema más inmediato de cómo evitar que estos programas amplifiquen las desigualdades de nuestro pasado y afecten a los miembros más vulnerables de nuestra sociedad. Cuando los datos con que alimentamos a las máquinas reflejan la historia de nuestra propia sociedad desigual, estamos, de hecho, pidiéndole al programa que aprenda con nuestros propios sesgos.

“Si no eres cuidadoso, corrés el riesgo de automatizar exactamente los mismos sesgos que se supone que eliminarán estos programas”, dice Kristian Lum, el estadistico principal de la ONG: Grupo Análisis de Datos sobre los Derechos Humanos (HRDAG, por sus siglas en inglés), con sede en San Francisco. El año pasado, Lum y un coautor mostraron que PredPol, un programa para que los departamentos de policía predice lugares donde podrían ocurrir delitos en el futuro, podría quedar atrapado en un bucle de retroalimentación sobrevigilando a la mayoría de los barrios negros y no blancos . El programa estaba “aprendiendo” de informes de delitos anteriores. Para Samuel Sinyangwe, un activista de la justicia y un investigador de política, este tipo de enfoque es “especialmente nefasto” porque la policía puede decir: “No estamos sesgados, simplemente estamos haciendo lo que nos dicen las matemáticas”. Y que, para el público, los algoritmos son imparciales.

Ya hemos vislumbrado lo que podría estar en el horizonte. Los programas desarrollados por compañías en la vanguardia de la investigación de IA han resultado en una serie de errores que se parecen asombrosamente a los sesgos más oscuros de la humanidad: un programa de reconocimiento de imágenes de Google etiquetó a las caras de varios negros como gorilas; Un programa de publicidad de LinkedIn mostró una preferencia por nombres masculinos en las búsquedas , y un chatbot de Microsoft llamado Tay pasó un día aprendiendo en Twitter y comenzó a lanzar mensajes antisemitas .

Estos incidentes a pequeña escala fueron todos rápidamente fijados por las empresas involucradas y generalmente han sido anulados como “gafes”. Pero la revelación de Compas y el estudio de Lum sugieren un problema mucho más grande, demostrando cómo los programas podrían replicar el tipo de sesgos sistémicos a gran escala por el que las personas han pasado décadas haciendo campaña para educar o legislar.

Las computadoras no se vuelven sesgadas por sí solas. Necesitan aprender eso de nosotros. Durante años, la vanguardia de la informática ha estado trabajando en el aprendizaje automático, a menudo con programas que aprenden de manera similar a los seres humanos – observando el mundo (o al menos el mundo que les mostramos) e identificando patrones. En 2012, los investigadores de Google alimentaron a su computadora “brain” [cerebro] con millones de imágenes de vídeos de YouTube para ver lo que podía reconocer. Respondió con contornos borrosos en blanco y negro de caras humanas y de gatos . Al programa nunca se le dio una definición de un rostro humano o un gato; Había observado y “aprendido” dos de nuestros temas favoritos.

Este tipo de enfoques les ha permitido a las computadoras realizar tareas -como traducción de idiomas, reconocimiento de rostros o recomendar películas en su cuenta de Netflix- que hace apenas una década se habrían considerado demasiado complejos para automatizarlas. Pero a medida que los algoritmos aprenden y se adaptan a de programación original, se vuelven más opacos y menos predecibles. Pronto puede llegar a ser difícil entender exactamente cómo la compleja interacción de los algoritmos generaron un resultado problemático. E, incluso si pudiéramos hacerlo, las empresas privadas no están dispuestas a revelar el funcionamiento interno comercial confidencial de sus algoritmos (como fue el caso de Northpointe).

Menos difícil es predecir dónde pueden surgir problemas. Tome el programa de reconocimiento facial de Google: los gatos no son polémicos, pero ¿qué pasaría si aprendiera lo que los británicos y los estadounidenses creen que es un CEO? Los resultados probablemente se asemejarían a los retratos casi idénticos de hombres blancos más viejos que se alinean en cualquier banco o lobby corporativo. Y el programa no sería inexacto: sólo el 7% de los CEO de FTSE son mujeres. Incluso menos, sólo el 3%, tienen un origen étnico no blanco. Cuando las computadoras aprenden de nosotros, pueden aprender nuestros atributos menos atractivos.

Joanna Bryson, una investigadora de la Universidad de Bath, estudió un programa diseñado para “aprender” las relaciones entre las palabras. Lo entrenó con millones de páginas de texto de Internet y comenzó a agrupar nombres femeninos con pronombres con trabajos como “recepcionista” y “enfermera”. Bryson dice que estaba sorprendida por lo estrechamente que los resultados reflejaban el desglose de real de género de esos empleos con los datos del gobierno de los EE.UU., una correlación de casi el 90%.

“La gente esperaba que la IA fuera imparcial; eso es correcto. Si los datos subyacentes reflejan estereotipos, o si entrenas a la IA desde la cultura humana, encontrarás estas cosas “, dice Bryson.

Entonces, ¿quién puede perder más? Cathy O’Neil, autora del libro Weapons of Math Destruction [Armas Matemáticas de Destrucción] sobre las peligrosas consecuencias de tercerizar las decisiones en las computadoras, dice que generalmente las más vulnerables de la sociedad son las que están expuestas a la evaluación por los sistemas automatizados. Es improbable que una persona rica tenga su solicitud de trabajo examinada por una computadora, o su solicitud de préstamo evaluada por alguien que no sea un ejecutivo de un banco. En el sistema de justicia, los miles de acusados sin dinero para un abogado u otro asesor serían los candidatos más probables para la evaluación automatizada.

En Londres, el consejo de Hackney ha estado trabajando recientemente con una empresa privada para aplicar la IA a los datos, incluidos los registros de salud y de deuda del gobierno, para ayudar a predecir qué familias tienen niños en riesgo de terminar en el sistema obligatorios . Según informes, otros consejos han estudiado programas similares.

En su artículo de 2016, Kristian Lum de HRDAG demostró quién se vería afectado si un programa diseñado para aumentar la eficiencia de la policía fuese alimentado con datos sesgados. Lum y su co-autor tomaron a PredPol – el programa que sugiere la localización probable de los delitos futuros basados en estadísticas recientes de delitos y detención – y alimentándolo con los datos históricos de los delitos por drogas del departamento de policía de Oakland. PredPol mostró un mapa diario de los posibles “puntos críticos de delitos” donde la policía podía desplegarse, basándose en información sobre dónde la policía había detenido previamente. El programa estaba sugiriendo que los barrios de mayoría negra eran aproximadamente el doble del de los blancos, a pesar de que cuando los estadísticos modelaban el consumo total probable de drogas de la ciudad, basado en las estadísticas nacionales, se distribuía de manera más uniforme.

Como si eso no fuera lo suficientemente malo, los investigadores también simularon lo que ocurriría si la policía hubiera actuado directamente en los puntos calientes de PredPol todos los días y aumentado sus arrestos en consecuencia: el programa entró en un circuito de retroalimentación, prediciendo cada vez más delitos en los barrios donde la policía más visitaba. Eso hizo que más policías fueran enviados. Era un espejo virtual de las críticas del mundo real a iniciativas como la polémica política “stop and frisk” de la ciudad de Nueva York. Al sobrevalorar a los residentes con una característica particular, la policía los arrestaba con una tasa inflada, lo que justificaba la continuación de la vigilancia.

El co-desarrollador de PredPol, el Profesor Jeff Brantingham, reconoció las preocupaciones cuando fue preguntado por el Washington Post. Afirmó que, para combatir los sesgos, las detenciones de drogas y otros delitos que dependen de la discreción de los oficiales no se usaba el software porque a menudo se aplican más fuertemente en las comunidades pobres y de minorías.

Y aunque la mayoría de nosotros no entiende a la programación compleja dentro de programas como PredPol, Hamid Khan, un organizador con Stop LAPD Spying Coalition, un grupo comunitario que se ocupa de la vigilancia policial en Los Ángeles, dice que la gente reconoce a la predicción policial como “otra parte superior En el que la policía sigue siendo la misma: patologizando a comunidades enteras “.

Hay un dicho en informática, algo cercano a una ley informal: basura adentro, basura afuera. Significa que los programas no son mágicos. Si les das información defectuosa, no arreglarán los defectos, sólo procesarán la información. Khan tiene su propio dicho: “Es racismo adentro, racismo afuera.”

No está claro cómo las leyes existentes para protegernos contra la discriminación y regular la toma de decisiones algorítmicas se aplicarán en este nuevo paisaje. A menudo, la tecnología se mueve más rápido que como los gobiernos pueden resolver sus efectos. En 2016, el profesor de la Universidad de Cornell y ex investigador de Microsoft Solon Barocas afirmó que las leyes actuales “en gran medida no abordan la discriminación” cuando se trata de big data y aprendizaje de máquina. Barocas dice que muchos actores tradicionales en derechos civiles, incluyendo la Unión Americana por las Libertades Civiles (ACLU), están tomando el tema en áreas como la vivienda o las prácticas de contratación. Sinyangwe trabajó recientemente con la ACLU para intentar aprobar políticas a nivel de la ciudad que requieran que la policía revele cualquier tecnología que adopten, incluyendo la AI.

Pero el proceso se complica por el hecho de que las instituciones públicas adopaen la tecnología vendida por empresas privadas, cuyo funcionamiento interno puede no ser transparente. “No queremos delegar a estas empresas para que se auto-regulen”, dice Barocas.

En el Reino Unido, existen algunas protecciones existentes. Los servicios gubernamentales y las empresas deben revelar si una decisión ha sido enteramente tercerizada en una computadora y, de ser así, esa decisión puede ser impugnada. Pero Sandra Wachter, académica de derecho en el Instituto Alan Turing de la Universidad de Oxford, dice que las leyes existentes no se corresponden perfectamente con el avance de la tecnología. Hay una variedad de lagunas que podrían permitir el uso no divulgado de los algoritmos. Ella ha pedido un “derecho a la explicación”, que requeriría una divulgación completa, así como un mayor grado de transparencia para cualquier uso de estos programas.

La literatura científica sobre el tema ahora refleja un debate sobre la naturaleza de la “imparcialidad” en sí, y los investigadores están trabajando en todo, desde formas de quitar clasificadores “injustos” de décadas de datos históricos a algoritmos modificadores para rodear a cualquier grupo protegido por Leyes contra la discriminación. Un investigador del Instituto Turing me dijo que el problema era tan difícil porque “cambiar las variables puede introducir un nuevo sesgo, y a veces ni siquiera estamos seguros de cómo influye el sesgo en los datos, o incluso dónde está”.

El instituto ha desarrollado un programa que prueba una serie de proposiciones contrafácticas para rastrear lo que afecta a las decisiones algorítmicas: ¿el resultado sería el mismo si la persona fuera blanca, o mayor, o viviera en otro lugar? Pero hay quienes consideran que es una tarea imposible integrar a las diversas definiciones de equidad adoptadas por la sociedad y los informáticos, y todavía conservan un programa funcional.

“En muchos sentidos, estamos viendo una respuesta al ingenuo optimismo de los días anteriores”, dice Barocas. “Hace dos o tres años tenías artículos que decían: ‘¿No es esto genial? Estas cosas van a eliminar el prejuicio en las decisiones de contratación y todo lo demás “.

Mientras tanto, los informáticos se enfrentan a un desafío desconocido: su trabajo mira necesariamente hacia el futuro, pero al abrazar a las máquinas que aprenden, se encuentran atados a nuestros antiguos problemas del pasado.

Siga al Proyecto Inequidad de the Guardian en Twitter , o escríbannos a:inequality.project@theguardian.com

El gigante de la tecnología, Amazon, se hace cargo de supermercado de lujo Whole Foods ofreciendo Amazon Echo como una “Selección Fresca de la Temporada”

Presentación del Echo de Amazon
Puede ver al video de la presentación en Dailymotion


Geekwire

Nat Levy el 28 de agosto de 2017

Un stand de productos vinculados con Alexa, como Echo y Echo Dot, aparecieron en un Whole Foods Market de Seattle esta mañana, cuando Amazon comienza a implementar cambios – incluyendo precios más bajos – a la cadena de supermercados luego de la finalización de la adquisición por 13.700 millones de dólares

Bajo los carteles de “Farm Fresh” y “Pick of the Season”, displays en varias tiendas de Seattle venden con descuentos a los populares dispositivos de Alexa. The Echo, normalmente con un precio de u$s 179.99, se vende por u$s 99.99, mientras que el Dot de u$s 49.99 tiene un precio de u$s 44.99.

No está claro si y cómo Amazon integrará su nuevo y brillante juguete en Whole Foods con Alexa, el cerebro digital que ejecuta el Echo y otros dispositivos. Tal vez en el futuro, los clientes de Whole Foods podrán ordenar por voz sus comestibles, o incluso obtener sándwiches previamene preparados de la parrilla y dejarlo reservado.

Los empleados de Whole Foods se preparaban para implementar cambios en sus tiendas durante el fin de semana, que Amazon prometió comenzar hoy. Lo más notable de los cambios son los precios más bajos para artículos como plátanos orgánicos, huevos marrones, salmón, carne molida y más.

En el futuro, Amazon planea integrar su programa de fidelidad Prime en el proceso de compras en Whole Foods. Amazon también colocará sus máquinas para que vayan a buscar sus compras Amazon Lockers en algunas tiendas de Whole Foods, y hará que los productos de la marca privada de Whole Foods estén disponibles en su sitio web, en AmazonFresh, en Prime Pantry y Prime Now.


Todo esto tiene que ver con la necesidad de las empresas de tecnología de hacer  más y más vigilancia para obtener más y más datos

Man Yan-Pirated Copy-Copia Pirata

Opciones para descargar el video

No le encontré los subtítulos en ningún idioma. En el video están pegados los subtítulos en inglés, hay un programa para extraer esos subtítulos pero no consigo que funcione!

Sobre la película que es del 2004:

Un retrato de la sociedad china contemporánea basada en un vendedor ilegal de DVDs piratas

Director:

Jianjun He

IMDB

30 de agosto, Cumpleaños de Mary Shelley, autora de Frankenstein


La escena clásica de Frankenstein y la nenita


vlcsnap-2017-08-30-14h46m03s786

De la escena de Frankenstein y la nenita, cuando le da una flor


vlcsnap-2017-08-30-14h48m10s578

Van hacía el lago


Argentina autorizó algodón con tolerancia a glufosinato de amonio y glifosato

Se trata del cuarto evento biotecnológico de algodón aprobado en el país.

Agritotal


Homenaje en la Biblioteca de Londres a Mary Shelley


Profetas de la Ciencia Ficción: Mary Shelley

Macri no pierde ocasión de revalidar la continuidad de las políticas de Estado y por lo tanto, la continuidad de su gobierno con los anteriores de Cristina y Néstor

Macri no pierde ocasión de revalidar la continuidad de las políticas de Estado y por lo tanto, la continuidad de su gobierno con los anteriores de Cristina y Néstor .

Pese a ello y paradójicamente el país está dividido según muestran las elecciones al 50 por ciento por la grieta.

Uno se pregunta ¿cuál es el enfrentamiento?, más allá de la defensa de los corruptos nac and pop, nacionales y populares o la defensa de la nueva oligarquía de Cambiemos…

La gobernanza rige la política Argentina y la gobernanza ha logrado establecer ciertas áreas que no están en discusión, ellas son :la biotecnología, el matrimonio igualitario, la concentración de la población en los conurbanos y el urbanizar las villas, también el extractivismo y la dependencia a China…todo lo demás es hojarasca…

Trinchera Por La Liberación Nacional


Todos los detalles del acuerdo sectorial para la promoción de la biotecnología que firmó Macri

El presidente encabezó la firma del acuerdo sectorial para la promoción y el desarrollo de la biotecnología, que se realizó en la Casa de Gobierno. Implicará inversiones por US$ 670 millones.

Agritotal

La mera idea de que las elecciones son una fiesta de la dirigencia política, lamentablemente nos es ajena

La mera idea de que las elecciones son una fiesta de la dirigencia política, lamentablemente nos es ajena.

Pero lo peor es que la idea de colarse en esa fiesta para arruinarla o para expresar las reivindicaciones populares que carecen de voz, también es ajena al panorama político argentino.

Ni siquiera los más críticos se lo proponen, ni se proponen como vehículos de las reivindicaciones populares, porque en su desenfrenada autovaloración se convencen de tener posibilidades de ganar, aunque luego las PASO los barran de la contienda por su insignificante peso electoral.

Trinchera Por La Liberación Nacional


En un México violento, los zapatistas también renuncian a las armas

El grupo suspende la lucha revolucionaria por ahora y apoyará a un candidato a la presidencia

La Nación