Si los emails de Sergio Massa son espiados, imaginate si estás en una ONG o alguna pequeña agrupación

“Todo empezó cuando tomó la palabra la diputada Graciela Camaño y pidió que se incluyera en el temario de la sesión los proyectos del Frente Renovador para bajar los impuestos a los alimentos, uno de los ejes de la campaña de Sergio Massa y Margarita Stolbizer.

Ese pedido motivó la respuesta de la diputada del PRO, Silvia Lospennato, quien denunció: “Recibí hoy a la mañana un chat que anda dando vuelta por las redes, a los que uno generalmente no les da crédito. Pero la verdad que escuchando a la diputada Camaño uno por uno de los puntos de este supuesto chat que circuló en el bloque del Frente Renovador se cumplen. Este supuesto chat dice: ‘bajemos todos 11.15 para demostrar que en esta caso sin nosotros no se sesiona’. Decía también: ‘cómo hacemos ya que no vamos a ganar la votación, para quedarnos y lograr algo de rédito político de la sesión. Buenos entonces propongamos nuestros ejes de campaña, para que la Cámara hable de los ejes de campaña. Y uno por uno iban pasando lo que decía Camaño. O tenemos un adivino entre las gentes de Internet o realmente se ha filtrado un chat. (…) Vinimos a tratar la expulsión del diputado De Vido”.

Ámbito Financiero


El espacio político que dirige Sergio Massa denunciará en el fuero penal a integrantes de Cambiemos luego de que la diputada Silvia Lospennato leyera en el recinto un mail privado del diputado a cinco colaboradores cercanos.

Massa le envió un mail a las tres de la mañana a su aliada Margarita Stolbizer, a su par de bancada Felipe Solá, a Marco Lavagna y a dos personas encargadas del área de prensa del Frente Renovador.

Tiempo Argentino


No sé como cuidarán sus comunicaciones en el partido de Sergio Massa, supongo que tendrán muchos más recursos que varias ONGs y agrupaciones.

Es obvio que hay todo un aparato de espionaje al servicio del Estado y de las corporaciones privadas.

Estemos atentos a eso, cuidemos nuestras comunicaciones, cuidemos nuestra privacidad también, si usamos Facebook hagámoslo de una forma crítica.

No soy un experto en seguridad informática, desde el Partido Pirata se hacen reuniones sobre cuidados de la privacidad.

No soy un experto en criptografía, intentaré aprender algo…Lo mínimo que les pido es que no expongan mucho sus verdaderos nombres y apellidos.

Ya sé, me dirán: No Tengo Nada Que Ocultar...Todos tenemos algo que ocultar, les recomiendo esta película:



Está por ahí…Luego intento mostrar por dónde anda.

Nuestros Derechos Digitales a la Ciudad

derechosdig


Instituto Oxford de Internet

Autor Autor
Mark Graham
fecha de publicacion
8 de febrero de 2017

El panfleto ‘Nuestros derechos digitales a la ciudad ‘ está ahora en Meatspace Press. Nos complace ofrecerlo para su descarga gratuita (epub, mobi, pdf), (epub, mobi, pdf) , como un libro de bolsillo de bajo costo, y como un pdf para auto-impresión .

‘Nuestros Derechos Digitales a la Ciudad’ es una pequeña colección de artículos sobre tecnología digital, datos y la ciudad. Abarca una serie de temas relacionados con el poder político y económico de las tecnologías que ahora son casi ineludibles dentro del entorno urbano. Esto incluye discusiones en torno a seguridad, mapeo, bienes raíces, aplicaciones de smartphone y la idea más amplia de un “derecho a la ciudad” en un mundo post digital.

¿Debemos alimentar todos los datos de un problema dado a una computadora? ¿Por qué no? Debido a que la máquina sólo utiliza datos basados en preguntas que se pueden responder con un sí o un no. Y el propio ordenador responde con un sí o un no. Además, ¿puede alguien alegar que todos los datos han sido reunidos? ¿Quién va a legitimar este uso de la totalidad? ¿Quién va a demostrar que el “lenguaje de la ciudad”, en la medida en que es una lengua, coincide con ALGOL, Syntol o FORTRAN, los lenguajes de las máquinas, y que esta traducción no es una traición? ¿No se arriesga la máquina a convertirse en un instrumento en manos de grupos de presión y políticos? ¿No es ya un arma para los que están en el poder y para quienes los sirven?

Henri Lefebvre en “La revolución urbana” (1970)

La colección está editada por Joe Shaw Joe Shaw y Mark Graham y los autores que contribuyen en él Jathan SadowskiValentina CarraroBart WissinkDesiree FieldsKurt IvesonTaylor SheltonSophia Drakopoulou y Mark Purcell

Para Su Descarga Gratuita:

.epub (para la mayoría de los e-readers excepto Kindle ): descarga gratuita en SmashWords.

.pdf (para la mayoría de los lectores): descarga gratuita en Internet Archive o leerlo en alta resolución en el navegador en Issuu.

.mobi (para Kindle): descarga gratuita e Internet Archive.

Libro de Bolsillo:

Tenemos un tiraje limitado de sólo 50 copias disponible a través de Big Cartel por £3 cada uno + P&P.

Detalles:

Título: Nuestros derechos digitales a la ciudad
Editado por: Joe Shaw y Mark Graham
Contribuyen, por orden alfabético: Valentina Carraro, Sophia Drakapoulou, Desiree Fields, Mark Graham, Kurt Iveson, Mark Purcell, Jathan Sadowski, Joe Shaw, Taylor Shelton y Bart Wissink.
Diseño: Irene Beltrame
Formatos: Libro de Bolsillo, .epub, .pdf y .mobi
Cantidad de pábinas: 35
Lenguaje: Inglés
Editorial: Meatspace Press (2016)
ISBN (Libro de Bolsillo): 978-0-9955776-0-2
ISBN (e-book): 978-0-9955776-1-9
ISBN (pdf): 978-0-9955776-2-6
Licensia: Creative Commons BY-NC-SA

¿Cómo podemos detener las mentiras de los algoritmos?

The Guardian

Los algoritmos pueden determinar si recibes una hipoteca o cuánto pagarás por un seguro. Pero a veces ellos están equivocados – y a veces inducen al error.

Cathy O’Neil

Domingo 16 julio 2017

Muchos de los algoritmos funcionan mal involuntariamente. Algunos de ellos, sin embargo, se hacen mal a propósito. Los algoritmos son reglas formales, generalmente escritas en programas de computadora, que hacen predicciones sobre eventos futuros basados en patrones históricos. Para entrenar un algoritmo es necesario proporcionarle datos históricos, así como una definición de éxito.

Hemos visto a las finanzas siendo tomadas por los algoritmos en las últimas décadas. Los algoritmos de negociación utilizan datos históricos para predecir movimientos en el mercado. El éxito de ese algoritmo es predecir un movimiento del mercado, y el algoritmo está atento a patrones que históricamente han ocurrido justo antes de ese movimiento. Los modelos de riesgo financiero también usan los cambios históricos del mercado para predecir eventos cataclísmicos en un sentido más global, por lo que no es para un stock individual sino para todo un mercado. El modelo de riesgo para los valores respaldados por hipotecas era malo-intencionalmente – y la confianza en esos modelos puede ser la culpada por gran parte de la escala y consecuente daño causado por la crisis financiera de 2008 .

Desde 2008, hemos escuchado menos de algoritmos en finanzas, y mucho más de algoritmos de big data. El objetivo de esta nueva generación de algoritmos se ha desplazado de los mercados abstractos a los individuos. Sin embargo, la funcionalidad subyacente es la misma: recopilar datos históricos sobre las personas, describir su comportamiento online, ubicación o respuestas a cuestionarios y utilizar ese conjunto de datos masivo para predecir sus compras futuras, comportamiento de voto o ética laboral.

La proliferación reciente de los modelos de big data ha pasado en gran medida inadvertida para la gente comun, pero es seguro decir que los momentos más importantes en los que la gente interactúa con grandes sistemas burocráticos ahora implican a un algoritmo en forma de un sistema de clasificación [scoring]. Entrar en la universidad, conseguir un trabajo, ser evaluado como un trabajador, obtener una tarjeta de crédito o seguro, votar, e incluso ser vigilados por la policía son en muchos casos hechos algorítmicamente. Además, la tecnología introducida en estas decisiones sistemáticas es en gran medida opaca, incluso para sus creadores, y hasta ahora ha escapado en gran medida a una regulación significativa, incluso cuando falla. Eso hace que la cuestión de cuál de estos algoritmos están trabajando en nuestro nombre sean aún más importante y urgente.

Tengo una jerarquía de cuatro capas cuando se trata de malos algoritmos. En la parte superior están los problemas no intencionales que reflejan prejuicios culturales. Por ejemplo, cuando la profesora de Harvard Latanya Sweeney encontró que Google busca nombres que suenan como de personas negras  los anuncios que se generan están asociados con actividades criminales , podemos suponer que no había un ingeniero de Google escribiendo código racista. De hecho, los anuncios fueron entrenados para ser malos por los usuarios anteriores de las búsquedas de Google, que tenían más probabilidades de hacer clic en un anuncio de antecedentes penales cuando buscaban un nombre de que suene como de un negro. Otro ejemplo: el resultado de la búsqueda de imágenes de Google para “pelo no profesional”, devuelve casi exclusivamente a mujeres negras, es similarmente entrenado por las personas que publican o hacen clic en los resultados de búsqueda a lo largo del tiempo.

Una capa más abajo llegamos a algoritmos que funcionan mal por negligencia. Estos incluirían programas que impidan que las personas que trabajan en empleos de salario mínimo lleven una vidas digna. Los algoritmos los tratan como engranajes en una máquina, enviándolos a trabajar en diferentes momentos del día y en diferentes días de la semana, evitando que tengan regularmente cuidado infantil, un segundo trabajo o ir a la escuela nocturna. Son brutalmente eficientes, enormemente escalados, y en gran parte legales, recolectando monedas a los espaldas de los trabajadores. O considere el sistema de Google para etiquetar fotos automáticamente. Tenía un problema consistente en que los negros eran etiquetados como gorilas . Esto representa una negligencia de naturaleza diferente, es decir, la evaluación de la calidad del producto en sí: no comprobaron que funcionara con una amplia variedad de casos de prueba antes de liberar el código.

La tercera capa consiste en algoritmos desagradables pero legales. Por ejemplo, había ejecutivos de Facebook en Australia mostrando a los anunciantes formas de encontrar y dirigirse a adolescentes vulnerables. Horrible pero probablemente no explícitamente ilegal. De hecho, la publicidad online en general se puede ver como un espectro, donde por un lado a los ricos se les presentan artículos de lujo para comprar, pero los pobres y desesperados son presa de los prestamistas de día de pago online. Los algoritmos cobran más por el seguro de automóvil si no pareciera probable que el usuario compare los precios y Uber acaba de detener un algoritmo que estaba utilizando para predecir cuán baja podría ser el ofrecimiento de un pago, reforzando así la brecha salarial de género.

Finalmente, está la capa inferior, que consiste en algoritmos intencionalmente infames y a veces francamente ilegales. Hay cientos de empresas privadas, incluyendo docenas en el Reino Unido, que ofrecen herramientas de vigilancia masiva. Se comercializan como una forma para localizar terroristas o criminales, pero pueden ser utilizadas para atacar y erradicar a los activistas ciudadanos. Y debido a que recogen cantidades masivas de datos, los algoritmos predictivos y los sistemas de puntuación [scoring] se utilizan para filtrar la señal del ruido. La ilegalidad de esta industria está siendo debatida, pero una reciente operación secreta de periodistas de Al Jazeera ha puesto de manifiesto la relativa facilidad con que los intermediarios que representan a los regímenes represivos de Irán y Sudán del Sur han podido comprar a estos sistemas. Para el caso, los observadores han criticado el sistema de [scoring] puntaje de crédito social de China. Llamado “Crédito Sésamo”, es considerado como un puntaje de crédito, pero también puede funcionar como una forma de mantener registros de las opiniones políticas de un individuo, y de esa manera como una forma de obligar a la gente hacia la conformidad.

Más cerca de casa, está “Greyball” de Uber, un algoritmo inventado específicamente para evitar la detección cuando el servicio está funcionando ilegalmente en una ciudad. Utilizó datos para predecir cuáles conductores estaban violando los términos de servicio de Uber, o cuáles conductores eran funcionarios gubernamentales encubiertos. Telltale señala que Greyball inclusive recolectó el uso múltiple de la aplicación en un solo día y el uso de una tarjeta de crédito vinculada a un sindicato de la policía.

El algoritmo malicioso e ilegal más famoso que hemos descubierto hasta ahora es el utilizado por Volkswagen en 11 millones de vehículos en todo el mundo para engañar en los tests de emisiones y en particular para ocultar el hecho de que los vehículos estaban emitiendo óxido de nitrógeno hasta 35 veces superiores a los niveles permitidos por la ley. Y aunque parecía simplemente como un dispositivo tortuoso, esto califica como un algoritmo también. Fue entrenado para identificar y predecir condiciones de tests frente a las condiciones en las calles, y para funcionar de manera diferente dependiendo de ese resultado. Y, como Greyball, fue diseñado para engañar.

Vale la pena considerar el ejemplo de los fabricantes de automóviles porque el mundo de los algoritmos, una industria nueva muy arriesgada y sin medidas de precaución, es más bien como la industria automovilística. Con su fe ingenua y exuberante en su propia tecnología, el mundo de la Inteligencia Artificial [IA] está vendiendo el equivalente de coches sin guardagolpes cuyas ruedas podrían caerse en cualquier momento. Y estoy segura de que esos coches fueron hechos una vez, pero con el tiempo, como vimos más daños por su diseño defectuoso, se hicieron más reglas para proteger a los pasajeros y peatones. Entonces, ¿qué podemos aprender del actual y maduro mundo de los fabricantes de automóviles en el contexto del software ilegal?

En primer lugar, los fabricantes de automóviles están desplegando tipos similares de software que desactivan los controles de emisiones en determinados entornos. En otras palabras, esta no era una situación en la que sólo había un mal actor, sino más bien un procedimiento operativo estándar. Por otra parte, podemos suponer que esto no representa una complicidad, sino más bien un caso simple de incentivos extremos combinados con una baja probabilidad calculada de quedar atrapados de parte de los fabricantes de automóviles. Es razonable esperar, entonces, que haya un montón de otros algoritmos que se usan para zafar de las reglas y regulaciones consideradas demasiado caras, especialmente cuando los constructores de los algoritmos siguen siendo arrogantes acerca de sus posibilidades.

Siguiendo con el tema, la trampa de VW comenzó en 2009, lo que significa que pasó desapercibida durante cinco años. ¿Qué más ha estado pasando en cinco años? Esta línea de pensamiento nos hace empezar a mirar alrededor, preguntándonos qué compañías están actualmente engañando a los reguladores, evadiendo las leyes de privacidad, o cometiendo fraudes algorítmicos con impunidad.

De hecho, puede parecer un modelo de negocio redondo, en términos del análisis de costos-beneficios: engañar hasta que los reguladores nos alcancen, si alguna vez lo hacen, y luego pagar una multa limitada que no hace mucha mella en nuestra ganancias acumuladas. Así es como funcionó después de la crisis financiera, después de todo. En nombre del valor para los accionistas, podríamos estar obligados a hacerlo.

Dicho de otro modo. Todos esperamos que los autos se conduzcan por sí mismos en unos pocos años o en un par de décadas como mucho. Cuando eso suceda, ¿podemos esperar que haya acuerdos internacionales sobre cómo será la ética del coche autodirigido? ¿O los peatones estarán a merced de los fabricantes de automóviles para decidir qué sucede en el caso de un bache inesperado? Si hacemos reglas, ¿las reglas varíaran según el país, o incluso por el país del fabricante?

Si esto suena confuso para algo tan fácil de observar como accidentes automovilísticos, imagine lo que está pasando bajo el capó, en el mundo relativamente oscuro de complejos modelos de “aprendizaje profundo”.

Estamos seguros que las herramientas ya existen. China ha demostrado recientemente cómo la tecnología de reconocimiento facial ya funciona – lo bastante para agarrar a descuidisas y ladrones de papel higiénico . Eso significa que hay un montón de oportunidades para que las empresas realicen trucos tortuosos con los clientes o potenciales contrataciones. Para el caso, los incentivos también están en su lugar. El mes pasado, Google fue multado en 2.400 millones de euros por haber colocado injustamente sus propios resultados en las búsquedas en un lugar más prominente que el de sus competidores. Un reclamo similar fue presentado a Amazon por ProPublica el año pasado con respecto a su algoritmo de precios , a saber, que estaba privilegiando a sus propios productos internos -incluso cuando no eran mejores- sobre aquellos de fuera de su mercado. Si usted piensa en Internet como un lugar donde las compañías de big data compiten por su atención, entonces podemos imaginar más algoritmos como estos en nuestro futuro.

Hay un paralelo final para extraer del escándalo de VW. A saber, la discrepancia en las emisiones fue finalmente descubierta en 2014 por un equipo de profesores y estudiantes de la Universidad de West Virginia , que solicitó y recibió una mísera subvención de 50.000 dólares del Consejo Internacional del Transporte Limpio, una organización independiente sin fines de lucro pagada por los contribuyentes estadounidenses. Gastaron su dinero conduciendo coches alrededor del país y capturando las emisiones, una prueba barata y directa.

¿Qué organización le pondrá fin a la cosecha de algoritmos ilegales? ¿Cuál es el análogo del Consejo Internacional del Transporte Limpio? ¿Existe todavía una organización que tenga la capacidad, el interés y la habilidad para ponerle fin a los algoritmos ilegales, y demostrar que estos algoritmos son perjudiciales? La respuesta es, hasta ahora, no. En cambio, al menos en Estados Unidos, un grupo dispar de agencias federales está a cargo de hacer cumplir las leyes en su industria o dominio, ninguna de los cuales está particularmente en la parte superior del complejo mundo de los grandes algoritmos de datos. En otros lugares, la comisión europea parece estar estudiando la actividad antimonopolio de Google y los problemas de las falsas noticias [fake news] de Facebook, pero eso deja a varias industrias sin ser tocadas para su control.

Aún más sobre este punto, sin embargo, es la pregunta de cuán comprometida la investigación de algoritmos tendría que estar. La naturaleza actual de los algoritmos es de un código secreto, protegidos como una “salsa secreta” de las corporaciones. Son tan secretos que la mayoría de los sistemas de scoring online no son ni siquiera aparentes para las personas que son su objetivo. Eso significa que esas personas tampoco saben la puntuación que se les ha dado, ni pueden quejarse o impugnar esas puntuaciones. Lo más importante, por lo general, no sabrán si les ha sucedido algo injusto.

Teniendo en cuenta todo esto, es difícil imaginar la supervisión de los algoritmos, incluso cuando han funcionado mal y están perjudicando activamente a la gente. Por lo demás, en primer lugar, no todos los tipos de daños son claramente medibles. Se puede argumentar que, con todas las noticias falsas flotando, nuestra democracia ha sido dañada. Pero ¿cómo medir la democracia?

Eso no quiere decir que no haya esperanzas. Después de todo, por definición, un algoritmo ilegal está rompiendo una ley real con la que podemos señalarlo. Hay, en última instancia, alguien que debe ser responsabilizado por esto. El problema sigue siendo, ¿cómo se aplicarán tales leyes?

Ben Shneiderman, profesor de ciencias de la computación en la Universidad de Maryland, propuso el concepto de un Consejo Nacional de Seguridad de Algoritmos, en una charla en el Instituto Alan Turing. De acuerdo con el modelo de la Junta Nacional de Seguridad del Transporte, que investiga los accidentes de tráfico terrestre y aéreo, este organismo también será el encargado de investigar los daños y, específicamente, de decidir quién debe ser considerado responsable del daño algorítmico.

Esta es una buena idea. Debemos investigar los problemas cuando los encontramos, y es bueno tener un proceso formal para hacerlo. Si tiene suficiente poder legal, la junta quizás pueda llegar al fondo de un montón de asuntos de sentido común. Pero no está claro cuan completos podrían ser.

Porque aquí es donde la analogía con los fabricantes de automóviles se rompe: no hay algo equivalente a un desastre de tránsito en el mundo de los algoritmos. La mayor parte del daño les ocurre a individuos aislados, por separado y en silencio. Una proliferación de accidentes automovilísticos silenciosos e indetectables es más difícil de investigar que cuando ocurren a plena vista.

Todavía sostengo que hay esperanzas. Uno de los milagros de ser un escéptico de los datos en una tierra de evangelistas de datos es que la gente está tan impresionada con su tecnología, incluso cuando está creando daños involuntariamente, describiendo abiertamente lo asombroso que es. Y el hecho de que ya hemos encontrado bastantes ejemplos de daño algorítmico significa que, con lo secreto y opacos que son estos algoritmos, finalmente van a a ser descubiertos, a pesar de que han causado muchos problemas.

¿Qué significa esto para el futuro? En primer lugar, tenemos que empezar a mantener el control. Cada algoritmo criminal que descubrimos debe ser visto como un caso de prueba. ¿Se oponen las reglas? ¿Cuánto cuesta? ¿Se aplican las normas y cuál es la sanción? Como aprendimos después de la crisis financiera de 2008, una regla se ignora si la pena por romperla es menor que la ganancia embolsada. Y eso vale doble por una norma rota que sólo se descubre la mitad de las veces.

Incluso una vez que empezamos a construir un historial de cumplimiento, tenemos una carrera de armamentos. Pronto podemos esperar un ejército completo de algoritmos que violen las leyes, que sean sofisticadas y silenciosas, y que buscan evitar normas y regulaciones. Aprenderán de cómo otros fueron atrapados y lo harán mejor la próxima vez. En otras palabras, será cada vez más difícil atraparlos engañando. Nuestras tácticas tienen que mejorar con el tiempo también.

También podemos esperar que se nos diga que las grandes empresas están “luchano contra esto en privado”. Esto ya está ocurriendo con respecto a la lucha contra el terrorismo. No debemos confiar en ellos cuando dicen esto. Necesitamos crear un marco de pruebas estándar – una definición estándar de daños – y requerir que los algoritmos sean sometidos a pruebas. Y tampoco podemos hacer esto solo en “condiciones de laboratorio de prueba”, o estaremos reconstruyendo el escándalo de las emisiones de VW.

Uno de los mayores obstáculos a esto es que Google, Facebook o Amazon no permiten la realización de pruebas de múltiples personajes o perfiles online por parte de investigadores externos. Dado que las empresas ofrecen un servicio a medida e individualizado, la única manera de ver cómo se ve ese servicio sería tomar el perfil de varias personas, pero eso no está permitido. Piense en eso en el contexto de la prueba de VW: sería como decir que los equipos de investigación no podrían tener control de un coche para probar sus emisiones. Necesitamos más acceso y monitoreo continuo, especialmente una vez que los capturamos en actos ilegales. Para el caso, industrias enteras, como algoritmos de seguros y de contratación, deben estar sujetas a estos monitoreos, no sólo a los culpables individuales.

Es hora de prepararnos para una pelea. Con el tiempo será una carrera de armamentos tecnológicos, pero comienza, ahora, como una lucha política. Debemos exigir pruebas de que los algoritmos con el potencial de dañarnos demuestren que actúan de manera justa, legal y consistente. Cuando encontramos problemas, necesitamos hacer cumplir nuestras leyes con multas suficientemente pesadas para que las empresas no encuentran rentable hacer fraude en primer lugar. Este es el momento de empezar a exigir que las máquinas funcionen para nosotros, y no al revés.

Cathy O’Neil es la autora de Armas de destrucción Matemáticas (Allen Lane £ 9.99). Para pedir una copia por £ 8.49, o en  bookshop.theguardian.com o llame al 0330 333 6846


Algo más de Cathy O´Neil en este humilde blog

Sobre la tecnología, los trabajos y la pasividad de algunos periodistas

Juan Dillon en su programa Huevos Revueltos sobre la tecnología, que un taxista lo insulte por elogiar a Uber y algo más:


Si no lo puede escuchar o quiere descargar el archivo de audio: Visite esta página


A Juan Dillon le comentan que es un “gordo barato” por haber elogiado a Uber, a raíz de eso él comienza con la perorata de los empleos que se van a terminar, los robots, etc. etc.. Es una pena que no profundice en toda la precariedad que nos traen estas plataformas.

Tal vez cuando los periodistas sean reemplazados por robots entiendan que ellos también serán afectados!


El famoso Complejo de Borg

Patentemente espeluznante: el plan de Facebook para “leer emociones” a través de tu smartphone

Fuente Russia Today

Facebook es famoso por empujar los límites tecnológicos con sus innovaciones, pero sus últimas innovaciones pueden dejar a los usuarios preocupados presionando el botón no me gusta.

Una patente presentada y aprobada por la Oficina de Patentes y Marcas de los Estados Unidos detalla cómo las emociones de un usuario de Facebook podrían predecirse sobre la base de sus “características de entradas del teclado”. En pocas palabras, la empresa leería las emociones de una persona basándose en la velocidad y la presión de cómo tipean en las teclas.

La patente, , titulada “Aumentar los mensajes de texto con información emocional”, propone que se puedan añadir rasgos a los textos para reflejar los sentimientos del remitente.

593988c2c46188ad2c8b456f

Quizás lo más alarmante de las patentes pendientes de Facebook son las “Técnicas para la detección de emociones y entregas de contenido”. La aplicación detalla el deseo de Facebook de ver a sus usuarios a través de sus cámaras de sus smartphone o webcams.

La presentación esboza el número de artículos caseros y de ocio que ahora contienen cámaras, y continúa con ese estado que “los actuales sistemas de entrega de contenido típicamente no utilizan la información de las imágenes involuntarias”.

“Por lo tanto, existe una necesidad de una solución para quienes proporcionan contenidos para aprovechar los datos de las imágenes involuntarias disponibles para proporcionarle contenidos a un usuario con una relevancia mejorada”, dice la presentación.

593989d1c36188b6328b4573

El sistema propuesto captura la imagen objetivo, identifica la emoción del usuario y almacena los datos. Con base en esto, Facebook podría determinar qué emociones una porción de contenido obtuvo y utilizar esos datos para orientar a sus usuarios.

Otra patente propuesta basada en el reconocimiento facial y publicada el mes pasado se centra en la generación de emojis basados ​​en la expresión facial del usuario. Por ejemplo el usuario puede tomarse un selfie y el sistema produciría un emoji que expresa la misma emoción.

59398d1dc46188b32c8b4576

Otras innovaciones de Facebook que pueden generar cuestionamientos incluyen una solicitud de derechos exclusivos de “un robot con auto-equilibrio” que puede viajar en dos o tres ruedas.

No está claro cómo sería implementado el dispositivo a través de Facebook. Sin embargo, la patente establece que el dispositivo podría incluir una pantalla de visualización, cámara, altavoz y micrófonos.

En 2014, Facebook presentó  una patente para ayudar a los usuarios que deciden no compartir su estado sentimental en su perfil.

Propuso inferir el estatus de alguien basado en sus interacciones con otros usuarios en la red social que habían proporcionado su información personal. El estatus de relación inferida podría entonces ser utilizado por los anunciantes para orientar al usuario con publicaciones, afirma la patente.

“Por ejemplo, un anuncio para un servicio de citas está asociado con criterios de orientación que identifican a los usuarios asociados con un estado de relación de ‘soltero’, y a los usuarios asociados con un estado de relación inferido de ‘soltero’ son identificados como elegibles para ser presentados con el anuncio,” estados presentados.

Facebook presenta docenas de patentes por semana. La primera patente, presentada por Mark Zuckerberg, inicialmente rechazada por la Oficina de Patentes de Estados Unidos por ser “obvia”, fue aprobada en 2012, seis años después de su presentación. Curiosamente, se refirió a un término no mencionado en ninguna de las presentaciones más recientes de Facebook – “privacidad”.

La patente, titulada “Generación dinámica de un resumen de privacidad”, se centró en proteger la forma en que la información de un usuario aparece en la pantalla, incluyendo cómo se ve su configuración de privacidad

Los pueblos nos ponemos de pie frente a la OMC

argentina-mejor-sin-tlc


Las organizaciones y redes sociales, sindicales, de derechos humanos, territoriales, estudiantiles, de mujeres, políticas, campesinas y anti-extractivistas reunidas el 24 de junio en Buenos Aires en el Encuentro Nacional contra la Organización Mundial de Comercio, llamamos a los pueblos del mundo a movilizarse en el marco de la XI° Reunión Ministerial de la OMC, que tendrá lugar en Argentina entre los días 10 y 13 de diciembre de 2017.

Para ello, convocamos a realizar una Cumbre de los Pueblos en la ciudad de Buenos Aires que colabore en la articulación de la resistencia contra el llamado “libre comercio” que sólo genera políticas de explotación y expoliación de nuestros pueblos y de la naturaleza, y que avance en visibilizar y discutir las alternativas a este sistema productivo y comercial.

Entendemos que la lucha contra la OMC es global y lleva una rica historia de movilizaciones y articulaciones, ya que esta institución representa los intereses de las empresas transnacionales y no los derechos ni las necesidades de los pueblos. Un hito en el proceso de descrédito ha sido la movilización de las organizaciones sociales que en 1999 pusieron en evidencia los impactos negativos del proyecto de liberalización comercial durante la reunión de la OMC en Seattle, EEUU, y que inspiró a un amplio movimiento de resistencias anticapitalistas en todo el planeta. Cuatro años después, la gran movilización popular durante la Reunión Ministerial de la OMC en Cancún también significó un avance en la resistencia contra la agenda del gran capital transnacional.

Pretendemos, asimismo, que la lucha contra la OMC adopte un fuerte carácter regional, sumándose en la recuperación de nuestra valiosa historia de organización social y política contra las múltiples formas de dominio que fue adquiriendo el capital en los últimos años. La lucha contra el ALCA fue un proceso destacado de articulación continental, y la Cumbre de los Pueblos de Mar del Plata en 2005 habilitó avances importantes en la discusión de alternativas de integración. Más de diez años después,  es necesario que volvamos a juntar nuestras luchas para movilizarnos contra la libertad corporativa y los privilegios de los inversionistas en la región. La libertad debe ser para las personas: la libertad de movilidad para los trabajadores, y no para los empresarios e inversionistas que especulan con nuestras riquezas sociales y naturales. En este contexto debemos discutir nuevamente la cuestión de las alternativas populares y la urgente necesidad de avanzar en proyectos que construyan nuevas formas de relaciones entre nuestros pueblos, que sean solidarias y complementarias.

Comprendemos también que veinte años de tratados de libre” comercio (TLC) en la región muestran los efectos nefastos de la desregulación y del avance de los privilegios corporativos sobre nuestros pueblos y el medio ambiente.  Frente a esto, es hora de avanzar en las alternativas sociales, políticas, económicas, feministas y ambientalistas que pongan fin a la impunidad corporativa, den primacía a los derechos humanos y garanticen la armonía con el medio ambiente. También es necesario revertir el desguace de las políticas e instituciones, como el ALBA-TCP, el CELAC, la UNASUR, que de diversos modos intentaron favorecer una mayor integración y complementariedad regional. Rechazamos la agenda de “libre” comercio y protección de inversiones en todas sus formas, sea mediante acuerdos bilaterales o inter-regionales (como el tratado entre la UE y el Mercosur, que se intenta cerrar para diciembre de este año) por medio del ámbito multilateral como la OMC o por decisión de grupos como el G-20.

Proponemos avanzar en la re-articulación de las agendas y las campañas de las organizaciones sociales y políticas, tanto en nuestro país como en la región y a nivel global. Es por esto que, desde este Encuentro Nacional, realizamos un llamamiento a todas las organizaciones y pueblos de Argentina y del mundo, a participar activamente en la organización y desarrollo de la Cumbre de los Pueblos en Buenos Aires entre los días 10 y 13 de diciembre de 2017, para oponernos al régimen que la OMC impulsa a nivel global  y pensar y discutir alternativas al capitalismo desde nuestros pueblos. Juntos/as, podemos construir esos otros mundos posibles.

¡La lucha es global!

¡Abajo los tratados de libre comercio que someten a los pueblos!

¡Exigimos acuerdos solidarios para el comercio entre los pueblos!

En 2017, ¡hagamos un nuevo Seattle en Buenos Aires!

Para adhesiones y más informaciones: argentinamejorsintlc@gmail.com o en nuestra página web: mejorsintlc.org

Observatorio Petrolero Sur


Recordemos la película La Batalla de Seattle

Agricultura de Precisión y los datos que se generan y se entregan y ninguna crítica en la Argentina!

¿Qué es la Agricultura de Precisión?

La agricultura de precisión, también llamada agricultura inteligente, está basada en tecnologías de sensores cuyo uso está bien establecido en otras industrias, como telemática para gestión de flotas, monitoreo ambiental, monitoreo remoto de pacientes, gestión de activos físicos, etc.

Como en otras implementaciones del Internet de las Cosas, las soluciones para agricultura de precisión capturan, almacenan, analizan los datos y los presentan de forma que se pueda dar inicio a una respuesta apropiada por parte del usuario final de acuerdo a la información recibida. En el caso de los agricultores, dependiendo del tipo de cultivo involucrado, sensores especiales capturan datos relacionados con el comportamiento del suelo (temperatura, humedad, acidez, etc.) y del cultivo, conducta de animales, estado de maquinaria y tanques de almacenamiento transmitidos desde sitios remotos. Estos datos son enviados a sistemas de información. para monitoreo y análisis. Los resultados de estos análisis son utilizados para responder a lo que está sucediendo en campo tomando las decisiones y acciones apropiadas.

El Internet de Las Cosas y La Agricultura de Precisión


De una publinota al vicepresidente mundial de Monsanto y los datos que van hacía los servidores de la empresa.


En EE.UU la asociación de sojeros se pregunta: ¿qué pasa con todos los datos que les estamos mandando a las grandes empresas, como Monsanto?


En la base del video donde dice CC le activan los subtítulos en español


En la base del video donde dice CC le activan los subtítulos en español


Videos de Mary Kay Thatcher, directora del American Farm Bureau para las relaciones con el Congreso [la lobbysta de los sojeros en el congreso de EE.UU.]


Todo esto ya está en la Argentina, Grobocopatel con INVAP creó la empresa Frontec dedicada a recopilar datos del campo y ahora llega Prescripciones Dekalb la solución de Monsanto para la Agricultura de Precisión que monitoreará todo, todo, todo.


Mientras tanto las Misas Biotecnológicas de los fines de semana alaban la Agricultura de Precisión y no se preguntan quién es el dueño de los datos.


Otra Publinota al vicepresidente mundial de Monsanto y la recopilación masiva de datos del campo


Los sojeros le seguirán creyendo a Monsanto y a sus acólitos de los programas del campo, y cuando tengan problemas irána pedirle una nueva “tecnología” siendo cada vez más y más dependientes, sinceramente, ojalá que los caguen!!!


En el Mundo:


Recordemos que este gobierno no se preocupa mucho por el cuidado de los datos personales así que con los datos del campo.