Necesitamos «resalvajizar» a Internet!

¿Qué es el rewilding o la resalvajización?

La resalvajización de la tierra es un enfoque progresista de la conservación. Se trata de dejar que la naturaleza cuide de sí misma, permitiendo que los procesos naturales den forma a la tierra y al mar, reparen los ecosistemas dañados y restauren los paisajes degradados. Mediante la repoblación forestal, los ritmos naturales de la vida silvestre crean hábitats más salvajes y con mayor biodiversidad.

El rewilding trata de:
  • Los caminos de la naturaleza

  • La naturaleza es la que mejor conoce la supervivencia y el autogobierno.

Podemos echarle una mano creando las condiciones adecuadas: eliminando diques y presas para liberar los ríos, reduciendo la gestión activa de las poblaciones de fauna y flora, permitiendo la regeneración natural de los bosques y reintroduciendo las especies que han desaparecido como consecuencia de la acción del hombre.
 Después, deberíamos dar un paso atrás y dejar que la naturaleza se gestione a sí misma.
La resalvajización forestal consiste en reconectar la sociedad moderna, tanto rural como urbana, con la naturaleza salvaje. Invitamos a la gente a experimentar y vivir en estos nuevos paisajes re-silvestres.

Sigue en: Climaterra


De un artículo de Noemag

Necesitamos resalvajizar a Internet

Internet se ha convertido en un monocultivo extractivo y frágil. Pero podemos revitalizarlo utilizando las lecciones aprendidas por los ecologistas.

“El nombre del mundo es bosque” – Ursula K. Le Guin

A finales del siglo XVIII, los funcionarios de Prusia y Sajonia comenzaron a reorganizar sus complejos y diversos bosques en hileras rectas de árboles de una sola especie. Los bosques habían sido fuente de alimentos, pastos, refugio, medicinas, ropa de cama y más para las personas que vivían en ellos y sus alrededores, pero para el temprano estado moderno, eran simplemente una fuente de madera.La llamada “silvicultura científica” fue el freno al crecimiento de ese siglo. Hizo que el rendimiento de la madera fuera más fácil de contar, predecir y cosechar, y significó que los propietarios ya no dependieran de los silvicultores locales capacitados para gestionar los bosques. Ells fueron reemplazados por trabajadores menos calificados que seguían instrucciones algorítmicas básicas para mantener el monocultivo ordenado y el sotobosque desnudo.

El poder de información y de toma de decisiones ahora fluía directamente hacia arriba Décadas más tarde, cuando se taló la primera cosecha, se hicieron grandes fortunas, árbol por árbol estandarizado. Los bosques talados fueron replantados, con la esperanza de extender el auge. Los lectores del antropólogo político estadounidense de la anarquía y el orden, James C. Scott, saben lo que ocurrió después.

Fue un desastre tan grave que se acuñó una nueva palabra, Waldsterben , o “muerte del bosque”, para describir el resultado. Todos los árboles, de la misma especie y edad, fueron aplastados por las tormentas, devastados por insectos y enfermedades; incluso los supervivientes eran flacos y débiles. Los bosques ahora estaban tan limpios y desnudos que estaban casi muertos. La primera magnífica recompensa no había sido el comienzo de riquezas infinitas, sino una cosecha única de milenios de riqueza del suelo acumulada por la biodiversidad y la simbiosis. La complejidad era la gallina de los huevos de oro y había sido sacrificada.

La historia de la silvicultura científica alemana transmite una verdad eterna: cuando simplificamos sistemas complejos, los destruimos y las devastadoras consecuencias a veces no son obvias hasta que es demasiado tarde.

Ese impulso de eliminar el desorden que hace que la vida sea resiliente es lo que muchos biólogos conservacionistas llaman la “patología del mando y control”. Hoy en día, el mismo impulso por centralizar, controlar y extraer ha llevado a Internet al mismo destino que a los bosques devastados.

La década de 2010 de Internet, sus años de auge, puede haber sido la primera cosecha gloriosa que agotó una antigua bonanza de diversidad. La compleja red de interacciones humanas que prosperó en la diversidad tecnológica inicial de Internet ahora está acorralada en motores de extracción de datos que abarcan todo el mundo y que generan enormes fortunas para unos pocos.

Nuestros espacios en línea no son ecosistemas, aunque a las empresas de tecnología les encanta esa palabra . Son plantaciones; entornos altamente concentrados y controlados, más cercanos a la cría industrial de ganado en corrales de engorde o granjas de pollos en batería que enloquecen a las criaturas atrapadas en su interior.

Todos sabemos esto. Lo vemos cada vez que tomamos nuestros teléfonos. Pero lo que la mayoría de la gente ha pasado por alto es cómo esta concentración llega profundamente a la infraestructura de Internet: las tuberías y los protocolos, los cables y las redes, los motores de búsqueda y los navegadores. Estas estructuras determinan cómo construimos y utilizamos Internet, ahora y en el futuro.

Se han concentrado en una serie de duopolios casi planetarios. Por ejemplo, en abril de 2024, los navegadores de Internet de Google y Apple habían captado casi el 85% de la cuota de mercado mundial, los dos sistemas operativos de escritorio de Microsoft y Apple, más del 80% . Google gestiona el 84% de las búsquedas globales y Microsoft el 3%. Un poco más de la mitad de todos los teléfonos provienen de Apple y Samsung, mientras que más del 99% de los sistemas operativos móviles funcionan con software de Google o Apple. Dos proveedores de computación en la nube, Amazon Web Services y Azure de Microsoft, representan más del 50% del mercado global. Los clientes de correo electrónico de Apple y Google gestionan casi el 90% del correo electrónico mundial. Google y Cloudflare atienden alrededor del 50% de las solicitudes globales del sistema de nombres de dominio.

Dos tipos de todo pueden ser suficientes para llenar un arca ficticia y repoblar un mundo en ruinas, pero no pueden administrar una “red de redes” global y abierta donde todos tengan las mismas oportunidades de innovar y competir. No es de extrañar que la ingeniera de Internet Leslie Daigle denomine la concentración y consolidación de la arquitectura técnica de Internet «‘cambio climático’ del ecosistema de Internet».

Los jardines amurallados tienen raíces profundas

Internet hizo posibles los gigantes tecnológicos. Sus servicios han escalado globalmente, a través de su núcleo abierto e interoperable. Pero durante la última década, también han trabajado para incluir en sus dominios propietarios los servicios variados, competitivos y a menudo de código abierto o proporcionados colectivamente en los que se basa Internet. Aunque esto mejora su eficiencia operativa, también garantiza que los competidores potenciales no repitan las condiciones florecientes de su propio surgimiento. Para los gigantes tecnológicos, el largo período de evolución de una Internet abierta ha terminado. Su Internet no es un ecosistema. Es un zoológico.

Google, Amazon, Microsoft y Meta están consolidando su control profundamente en la infraestructura subyacente a través de adquisiciones, integración vertical, construcción de redes patentadas, creación de puntos de estrangulamiento y concentración de funciones de diferentes capas técnicas en un solo silo de control de arriba hacia abajo. Pueden permitirse el lujo de hacerlo, utilizando la vasta riqueza obtenida en su cosecha única de riqueza colectiva y global.

«Ese impulso de eliminar el desorden que hace que la vida sea resiliente es lo que muchos biólogos conservacionistas llaman la ‘patología del mando y control'».

En conjunto, el cercamiento de la infraestructura y la imposición del monocultivo tecnológico excluyen nuestro futuro. A la gente de Internet le gusta hablar de “la pila”, o la arquitectura en capas de protocolos, software y hardware, operada por diferentes proveedores de servicios que en conjunto ofrece el milagro diario de la conexión. Es un sistema complicado y dinámico con un valor básico integrado en el diseño central: las funciones clave se mantienen separadas para garantizar la resiliencia, la generalidad y crear espacio para la innovación.

Inicialmente financiada por el ejército estadounidense y diseñada por investigadores académicos para funcionar en tiempos de guerra, Internet evolucionó para funcionar en cualquier lugar, en cualquier condición, y ser operada por cualquiera que quisiera conectarse. Pero lo que era un juego de Tetris dinámico y en constante evolución con “ jugadores” y “capas ” distintos se está convirtiendo hoy en un sistema continental de placas tectónicas compactadas. La infraestructura no es sólo lo que vemos en la superficie; son las fuerzas de abajo las que forman montañas y generan tsunamis. Quien controle la infraestructura determina el futuro. Si lo dudas, considera que en Europa todavía utilizamos carreteras y vivimos en pueblos y ciudades que el Imperio Romano trazó hace 2.000 años.

En 2019, algunos ingenieros de Internet del organismo de establecimiento de estándares globales, el Grupo de Trabajo de Ingeniería de Internet, dieron la alarma. Daigle, un respetado ingeniero que anteriormente había presidido su comité de supervisión y su junta de arquitectura de Internet, escribió en un informe de políticas que la consolidación significaba que las estructuras de red se estaban osificando en todo el conjunto, lo que hacía que fuera más difícil desalojar a los titulares y violaba un principio básico de Internet: que no No crear “favoritos permanentes”. La consolidación no sólo elimina la competencia. Reduce los tipos de relaciones posibles entre operadores de diferentes servicios.

Como lo expresó Daigle: “Cuantas más soluciones patentadas se construyan e implementen en lugar de soluciones colaborativas basadas en estándares abiertos, menos sobrevivirá Internet como plataforma para la innovación futura”. La consolidación acaba con la colaboración entre proveedores de servicios a través de la pila al reorganizar una serie de relaciones diferentes (competitivas, colaborativas) en una sola depredadora.

Desde entonces, las organizaciones de desarrollo de estándares iniciaron varias iniciativas para nombrar y abordar la consolidación de infraestructura, pero fracasaron. Atascados en minucias técnicas, incapaces de separarse de los intereses de sus empleadores y de los valores profesionales profundamente arraigados de simplificación y control , la mayoría de los ingenieros de Internet simplemente no podían ver el bosque por los árboles.

De cerca, la concentración de Internet parece demasiado intrincada para desentrañarla; Desde lejos, parece demasiado difícil de abordar. Pero ¿qué pasaría si pensáramos en Internet no como un “ hiperobjeto ” apocalíptico, sino como un ecosistema dañado y en dificultades que se enfrenta a la destrucción? ¿Qué pasaría si lo miráramos no con horror impotente ante la extraña invasión de sus actuales controladores, sino con compasión, constructividad y esperanza?

Los tecnólogos son excelentes para realizar soluciones incrementales, pero para regenerar hábitats enteros, necesitamos aprender de los ecólogos que adoptan una visión de sistemas completos. Los ecologistas también saben cómo seguir adelante cuando otros primero los ignoran y luego dicen que es demasiado tarde, cómo movilizarse y trabajar colectivamente, y cómo construir focos de diversidad y resiliencia que los sobrevivirán, creando posibilidades para un futuro abundante que puedan imaginar pero nunca controlar. No necesitamos reparar la infraestructura de Internet. Necesitamos reconstruirlo.

¿Qué es la reconstrucción?

La reconstrucción “tiene como objetivo restaurar ecosistemas saludables mediante la creación de espacios silvestres y biodiversos”, según la Unión Internacional para la Conservación de la Naturaleza. Más ambiciosa y tolerante al riesgo que la conservación tradicional, se centra en ecosistemas enteros para crear espacio para redes alimentarias complejas y el surgimiento de relaciones inesperadas entre especies. Está menos interesado en salvar especies específicas en peligro de extinción. Las especies individuales son sólo componentes del ecosistema, y ​​centrarse en los componentes pierde de vista el conjunto. Los ecosistemas prosperan a través de múltiples puntos de contacto entre sus numerosos elementos, al igual que las redes informáticas. Y al igual que en las redes informáticas, las interacciones entre ecosistemas son multifacéticas y generativas.

Rewilding tiene mucho que ofrecer a las personas que se preocupan por Internet. Como escribieron Paul Jepson y Cain Blythe en su libro “Rewilding: The Radical New Science of Ecoological Recovery”, la reconstrucción presta atención “a las propiedades emergentes de las interacciones entre ‘cosas’ en los ecosistemas… un paso del pensamiento lineal al pensamiento sistémico”.

Es un enfoque fundamentalmente alegre y profesional de lo que puede parecer insoluble. No microgestiona. Crea espacio para “procesos ecológicos [que] fomentan ecosistemas complejos y autoorganizados”. Rewilding pone en práctica lo que todo buen gerente sabe: contratar a las mejores personas que pueda, brindarles lo que necesitan para prosperar y luego apartarse del camino. Es lo opuesto al comando y control.

«La compleja red de interacciones humanas que prosperó en la diversidad tecnológica inicial de Internet ahora está acorralada en motores de extracción de datos que abarcan todo el mundo y que generan enormes fortunas para unos pocos».

Reconstruir Internet es más que una metáfora. Es un marco y un plan. Nos da una visión nueva del perverso problema de la extracción y el control, y nuevos medios y aliados para solucionarlo. Reconoce que acabar con los monopolios de Internet no es sólo un problema intelectual. Es emocional. Responde a preguntas como: ¿Cómo podemos seguir adelante cuando los monopolios tienen más dinero y poder? ¿Cómo actuamos colectivamente cuando sobornan nuestros espacios, financiación y redes comunitarias? ¿Y cómo comunicamos a nuestros aliados cómo se verá y se sentirá solucionarlo?

Rewilding es una visión positiva de las redes en las que queremos vivir y una historia compartida sobre cómo llegar allí. Injerta un nuevo árbol en el viejo y cansado material de la tecnología.

Lo que la ecología sabe

La ecología sabe mucho sobre sistemas complejos de los que los tecnólogos pueden beneficiarse. En primer lugar, sabe que los cambios en las líneas de base son reales.

Si naciste alrededor de la década de 1970, probablemente recuerdes muchos más insectos muertos en el parabrisas del coche de tus padres que en el tuyo propio. Las poblaciones mundiales de insectos terrestres están cayendo aproximadamente un 9% por década. Si eres un geek, probablemente hayas programado tu propia computadora para crear juegos básicos. Seguro que recuerdas una web con más para leer que las mismas cinco webs. Es posible que incluso hayas escrito tu propio blog.

Pero muchas personas nacidas después del año 2000 probablemente piensen que es normal un mundo con pocos insectos, poco ruido ambiental proveniente de los cantos de los pájaros, donde regularmente se usan solo unas pocas redes sociales y aplicaciones de mensajería (en lugar de toda una web ). Como escribieron Jepson y Blythe, las líneas de base cambiantes son “donde cada generación asume que la naturaleza que experimentó en su juventud es normal y, sin saberlo, acepta los declives y los daños de las generaciones anteriores”. El daño ya está asentado. Incluso parece natural.

La ecología sabe que los cambios en las líneas de base reducen la urgencia colectiva y profundizan las divisiones generacionales. A las personas que se preocupan por la monocultura y el control de Internet a menudo se les dice que son nostálgicos que se remontan a una era pionera. Es endiabladamente difícil regenerar una infraestructura abierta y competitiva para las generaciones más jóvenes, que han sido criadas para asumir que dos o tres plataformas, dos tiendas de aplicaciones, dos sistemas operativos, dos navegadores, una nube/megatienda y un único motor de búsqueda para el mundo comprende Internet . Si Internet para ti es el enorme silo rascacielos en el que vives y lo único que puedes ver afuera es el otro enorme silo rascacielos, entonces, ¿cómo puedes imaginar algo más?

El poder digital concentrado produce los mismos síntomas que el comando y control produce en los ecosistemas biológicos; angustia aguda marcada por colapsos repentinos una vez que se alcanzan los puntos de inflexión. ¿Qué escala se necesita para que la reconstrucción tenga éxito? Una cosa es reintroducir lobos en los 3.472 kilómetros cuadrados de Yellowstone y otra muy distinta acordonar unos 20 kilómetros cuadrados de un pólder (tierra ganada a una masa de agua) conocido como Oostvaardersplassen cerca de Amsterdam. Es probable que Yellowstone, grande y diverso, sea lo suficientemente complejo como para adaptarse al cambio, pero Oostvaardersplassen ha tenido dificultades .

“Nuestros espacios en línea no son ecosistemas, aunque a las empresas de tecnología les encanta esa palabra. Son plantaciones; entornos altamente concentrados y controlados… que enloquecen a las criaturas atrapadas en su interior”.

En la década de 1980, el gobierno holandés intentó regenerar una sección del Oostvaardersplassen, cubierto de maleza. Un ecologista gubernamental de mentalidad independiente, Frans Vera, dijo que los juncos y los matorrales dominarían a menos que los herbívoros ahora extintos los pastaran. En lugar de los antiguos uros, la agencia estatal de gestión forestal introdujo el famoso y malhumorado ganado Heck alemán y, en lugar de un extinto pony estepario, una raza semisalvaje polaca.

Unos 30 años después, sin depredadores naturales, y después de que los planes para un corredor de vida silvestre hacia otra reserva fracasaran, había muchos más animales de los que la limitada vegetación invernal podía sustentar. La gente estaba horrorizada por las vacas y los ponis hambrientos y, a partir de 2018, las agencias gubernamentales instituyeron controles y sacrificios de bienestar animal.

Retroceder el reloj fue insuficiente. El segmento de Oostvaardersplassen era demasiado pequeño y demasiado desconectado para reconstruirlo. Como los animales no tenían otro lugar adonde ir, el pastoreo excesivo y el colapso eran inevitables, una lección embarazosa pero necesaria. La reconstrucción es un trabajo en progreso. No se trata de intentar revertir los ecosistemas a un Edén mítico. En cambio, los rewilders buscan reconstruir la resiliencia restaurando procesos naturales autónomos y permitiéndoles operar a escala para generar complejidad. Pero la reconstrucción, en sí misma una intervención humana, puede requerir varias vueltas para lograrlo.

Hagamos lo que hagamos, Internet no volverá a las interfaces de la vieja escuela que entonces eran comunes, como FTP y Gopher, ni a las organizaciones que operan sus propios servidores de correo nuevamente en lugar de soluciones disponibles en el mercado como G-Suite. Pero algo de lo que necesitamos ya está aquí, especialmente en la web. Observemos el resurgimiento de los feeds RSS, los boletines informativos por correo electrónico y los blogs, a medida que descubrimos (una vez más) que depender de una aplicación para albergar conversaciones globales crea un punto único de falla y control. Están creciendo nuevos sistemas, como Fediverse con sus islas federadas, o Bluesky con elección algorítmica y moderación componible .

No sabemos lo que nos depara el futuro. Nuestro trabajo es mantener abiertas tantas oportunidades como podamos, confiando en que los que vengan después las aprovecharán. En lugar de establecer pruebas de pureza para determinar qué tipo de Internet se parece más al original, podemos probar los cambios con respecto a los valores del diseño original. ¿Protegen los nuevos estándares la “generalidad” de la red, es decir, su capacidad para soportar usos múltiples, o su funcionalidad está limitada para optimizar la eficiencia para las empresas tecnológicas más grandes?

Ya en 1985, los ecologistas vegetales Steward TA Pickett y Peter S. White escribieron en “The Ecology of Natural Disturbance and Patch Dynamics” que una “paradoja esencial de la conservación de la naturaleza es que buscamos preservar lo que debe cambiar”. Algunos ingenieros de Internet lo saben. David Clark, profesor del Instituto de Tecnología de Massachusetts que trabajó en algunos de los primeros protocolos de Internet, escribió un libro completo sobre otras arquitecturas de red que podrían haberse construido si los creadores de Internet hubieran priorizado valores diferentes, como la seguridad o la gestión centralizada.

Pero nuestra Internet despegó porque fue diseñada como una red de propósito general, creada para conectar a cualquier persona.

Nuestra Internet fue construida para ser compleja e incontrolable, para hacer cosas que aún no podemos imaginar. Cuando entrevistamos a Clark, nos dijo que “’complejo’ implica un sistema en el que tienes un comportamiento emergente, un sistema en el que no puedes modelar los resultados. Tus intuiciones pueden estar equivocadas. Pero un sistema demasiado simple significa pérdida de oportunidades”. Todo lo que hacemos colectivamente y que vale la pena es complejo y, por lo tanto, un poco más complicado. Por las grietas es por donde entran nuevas personas e ideas.

La infraestructura de Internet es un ecosistema degradado, pero también es un entorno construido, como una ciudad. Su imprevisibilidad lo hace generativo, valioso y profundamente humano. En 1961, Jane Jacobs, una activista estadounidense-canadiense y autora de “La muerte y la vida de las grandes ciudades estadounidenses”, argumentó que los vecindarios de uso mixto eran más seguros, más felices, más prósperos y más habitables que los diseños estériles y altamente controladores de las ciudades. planificadores urbanos como Robert Moses de Nueva York.

«Como entorno construido de arriba hacia abajo, Internet se ha convertido en algo que nos hacen a nosotros, no en algo que rehacemos colectivamente todos los días».

Al igual que las torres tipo Corbusier plagadas de crimen en las que Moisés apretujó a la gente cuando demolió vecindarios de uso mixto y construyó carreteras a través de ellos, la Internet concentrada y vertical de hoy es, para muchos, un lugar desagradable y dañino. Sus propietarios son difíciles de eliminar y sus intereses no se alinean con los nuestros.

Como escribió Jacobs: “Como en todas las utopías, el derecho a tener planes de importancia pertenecía únicamente a los planificadores a cargo”. Como entorno construido de arriba hacia abajo, Internet se ha convertido en algo que nos hacen a nosotros, no en algo que rehacemos colectivamente todos los días.

Los ecosistemas perduran porque las especies actúan como controles y equilibrios entre sí. Tienen diferentes modos de interacción, no sólo extracción, sino mutualismo, comensalismo, competencia y depredación. En los ecosistemas florecientes, los depredadores están sujetos a límites . Son sólo una parte de una compleja red que transmite calorías, no un billete de ida al final de la evolución.

Los ecologistas saben que la diversidad es resiliencia.

El 18 de julio de 2001, 11 vagones de un tren de carga de 60 vagones descarrilaron en el túnel de Howard Street debajo de Mid-Town Belvedere, un vecindario justo al norte del centro de Baltimore. En cuestión de minutos, un vagón que contenía una sustancia química altamente inflamable resultó perforado. El producto químico que se escapaba se encendió y pronto los vagones adyacentes se incendiaron en un incendio que tardó unos cinco días en apagarse. El desastre se multiplicó y se extendió. Las gruesas paredes de ladrillo del túnel actuaron como un horno y las temperaturas subieron a casi 2000 grados Fahrenheit. Una tubería de agua de más de un metro de ancho sobre los túneles explotó, inundando el túnel con millones de galones en cuestión de horas. Sólo se enfrió un poco. Tres semanas después, una explosión relacionada con el combustible químico voló las tapas de las alcantarillas ubicadas a una distancia de hasta dos millas.

WorldCom, entonces la segunda compañía telefónica de larga distancia más grande de EE. UU., tenía cables de fibra óptica en el túnel que transportaban grandes volúmenes de tráfico telefónico e Internet. Sin embargo, según Clark, profesor del MIT, la planificación de resiliencia de WorldCom significó que el tráfico se distribuyera a través de diferentes redes de fibra en previsión de este tipo de evento.

Sobre el papel, WorldCom tenía redundancia de red. Pero casi de inmediato, el tráfico de Internet en Estados Unidos se desaceleró y las líneas telefónicas transatlánticas y de la costa este de WorldCom se cayeron. La estrecha topografía física de la región había concentrado todas esas diferentes redes de fibra en un único punto de estrangulamiento, el túnel de Howard Street. La resiliencia de WorldCom quedó, literalmente, incinerada. Tenía redundancia tecnológica, pero no diversidad. A veces no notamos la concentración hasta que ya es demasiado tarde.

Clark cuenta la historia del incendio del túnel de Howard Street para mostrar que los cuellos de botella no siempre son obvios, especialmente a nivel operativo, y que sistemas enormes que parecen seguros, debido a su tamaño y recursos, pueden desmoronarse inesperadamente.

En la Internet actual, gran parte del tráfico pasa a través de las redes privadas de las empresas tecnológicas, por ejemplo, los propios cables submarinos de Google y Meta. Gran parte del tráfico de Internet proviene de unas pocas redes de distribución de contenido dominantes, como Cloudflare y Akamai, que administran sus propias redes de servidores proxy y centros de datos. De manera similar, ese tráfico pasa por un número cada vez menor de solucionadores de sistemas de nombres de dominio (DNS), que funcionan como guías telefónicas para Internet, vinculando los nombres de los sitios web a sus direcciones numéricas.

Todo esto mejora la velocidad y la eficiencia de la red, pero crea cuellos de botella nuevos y no obvios, como el túnel de Howard Street. Los proveedores de servicios centralizados dicen que cuentan con mejores recursos y habilidades para enfrentar ataques y fallas, pero también son objetivos grandes y atractivos para los atacantes y posibles puntos únicos de falla del sistema.

El 21 de octubre de 2016, decenas de importantes sitios web estadounidenses dejaron de funcionar repentinamente. Los nombres de dominio pertenecientes a Airbnb, Amazon, PayPal, CNN y The New York Times simplemente no se resolvieron. Todos eran clientes del proveedor comercial de servicios DNS Dyn, que había sido víctima de un ciberataque. Los piratas informáticos infectaron decenas de miles de dispositivos con acceso a Internet con software malicioso, creando una red de dispositivos secuestrados, o una botnet, que utilizaron para bombardear a Dyn con consultas hasta que colapsó. Las marcas de Internet más importantes de Estados Unidos fueron derribadas por nada más que una red de monitores para bebés , cámaras web de seguridad y otros dispositivos de consumo. Aunque probablemente todos contaban con planificación de resiliencia y redundancias, fracasaron porque falló un único punto de estrangulamiento (en una capa crucial de la infraestructura).

“Los accidentes, los incendios y las inundaciones pueden ser simplemente entropía en acción, pero las infraestructuras sistémicamente concentradas y riesgosas son opciones que se manifiestan, y podemos tomar mejores”.

Las interrupciones generalizadas debidas a puntos de estrangulamiento centralizados se han vuelto tan comunes que los inversores incluso los utilizan para identificar oportunidades. Cuando una falla del proveedor de la nube Fastly dejó fuera de línea sitios web de alto perfil en 2021, el precio de sus acciones se disparó . Los inversores quedaron encantados con los titulares que les informaban sobre un oscuro proveedor de servicios técnicos con un aparente bloqueo en un servicio esencial. Para los inversores, esta falla crítica de la infraestructura no parece fragilidad sino una oportunidad de obtener ganancias.

El resultado de la estrechez infraestructural es una fragilidad interna que sólo notamos después de una avería. Pero el monocultivo también es muy visible en nuestras herramientas de búsqueda y navegación. La búsqueda, la navegación y las redes sociales son la forma en que encontramos y compartimos conocimientos y cómo nos comunicamos. Son una infraestructura epistémica y democrática crítica, global, controlada por sólo unas pocas empresas estadounidenses. Los accidentes, los incendios y las inundaciones pueden ser simplemente entropía en acción, pero las infraestructuras sistémicamente concentradas y riesgosas son opciones que se manifiestan, y podemos tomar mejores decisiones.

La apariencia de una Internet renovada

Una Internet renovada tendrá muchas más opciones de servicios. Algunos servicios como búsqueda y redes sociales se dividirán, como finalmente lo hizo AT&T . En lugar de que las empresas de tecnología extraigan y vendan los datos personales de las personas, diferentes modelos de pago financiarán la infraestructura que necesitamos. En este momento, hay pocas provisiones explícitas para bienes públicos como protocolos de Internet y navegadores, esenciales para que Internet funcione. Las mayores empresas tecnológicas las subsidian e influyen profundamente en ellas.

Parte de la reconstrucción significa recuperar lo que se ha incorporado a la gran pila tecnológica y pagar los verdaderos costos de la conectividad. Algunas cosas, como la conectividad básica, las seguiremos pagando directamente y otras, como los navegadores, las admitiremos de forma indirecta pero transparente, como se describe a continuación. La Internet renovada tendrá una gran cantidad de formas de conectarse y relacionarse entre sí. No habrá solo uno o dos números a los que llamar si los líderes de un golpe político deciden cerrar Internet en medio de la noche, como ha sucedido en lugares como Egipto y Myanmar . Ninguna entidad estará permanentemente en la cima. Una Internet renovada será un lugar más interesante, utilizable, estable y agradable.

A través de una extensa investigación, la economista ganadora del Nobel Elinor Ostrom descubrió que “cuando las personas están bien informadas sobre el problema que enfrentan y sobre quiénes más están involucrados, y pueden crear entornos donde la confianza y la reciprocidad puedan surgir, crecer y mantenerse en el tiempo, los costos son costosos”. y con frecuencia se toman medidas positivas sin esperar a que una autoridad externa imponga reglas, supervise el cumplimiento y evalúe sanciones”. Ostrom encontró gente que se organizaba espontáneamente para gestionar los recursos naturales, desde la cooperación de las empresas de agua en California hasta los pescadores de langosta de Maine que se organizaban para evitar la sobrepesca.

La autoorganización también existe como parte de una función clave de Internet: la coordinación del tráfico. Los puntos de intercambio de Internet ( IXP ) son un ejemplo de gestión de recursos de uso común, donde los proveedores de servicios de Internet (ISP) acuerdan colectivamente transportar los datos de los demás a bajo costo o sin costo alguno. Los operadores de redes de todo tipo (compañías de telecomunicaciones, grandes empresas tecnológicas, universidades, gobiernos y emisoras) necesitan enviar grandes cantidades de datos a través de las redes de otros ISP para que lleguen a su destino.

Si gestionaran esto por separado mediante contratos individuales, gastarían mucho más tiempo y dinero. En cambio, a menudo forman IXP, generalmente como asociaciones independientes sin fines de lucro. Además de gestionar el tráfico, los IXP han formado, en muchos países (y especialmente en los países en desarrollo), la columna vertebral de una floreciente comunidad técnica que impulsa aún más el desarrollo económico.

Tanto entre personas como en Internet, las conexiones son generativas. Desde estándares técnicos hasta gestión de recursos de uso común e incluso redes de banda ancha más localizadas conocidas como “altnets”, la reconstrucción de Internet ya cuenta con una amplia caja de herramientas de acción colectiva lista para ser implementada.

El nuevo impulso hacia la antimonopolio y la competencia

La lista de infraestructuras a diversificar es larga. Además de canales y protocolos, existen sistemas operativos, navegadores, motores de búsqueda, el sistema de nombres de dominio, redes sociales, publicidad, proveedores de nube, tiendas de aplicaciones, empresas de inteligencia artificial y más. Y estas tecnologías también se entrelazaron.

Pero mostrar lo que se puede hacer en un área crea oportunidades en otras. Primero, comencemos con la regulación.

No siempre se necesita una gran idea nueva, como la reconstrucción, para enmarcar y motivar un cambio estructural importante. A veces basta con revivir una vieja idea. La “ Orden Ejecutiva sobre la Promoción de la Competencia en la Economía Estadounidense” de 2021 del presidente Biden revivió el alcance y la urgencia originales, favorables a los trabajadores y anti-confianzas del activista legal de principios del siglo XX y juez de la Corte Suprema Louis D. Brandeis, junto con reglas y marcos. que se remontan a antes del New Deal de la década de 1930.

“Reconstruir un entorno ya construido no es simplemente sentarse y ver qué ser tierno y vivo puede abrirse camino a través del concreto. Está arrasando las estructuras que bloquean la luz para todos los que no son lo suficientemente ricos como para vivir en el último piso”.

La ley antimonopolio estadounidense fue creada para quebrar el poder de los oligarcas en el petróleo, el acero y los ferrocarriles que amenazaban la joven democracia estadounidense. Dio a los trabajadores protecciones básicas y consideró que la igualdad de oportunidades económicas era esencial para la libertad. Esta visión de la competencia como esencial fue debilitada por las políticas económicas de la Escuela de Chicago en la década de 1970 y los fallos de los tribunales de jueces de la era Reagan a lo largo de décadas. Creían que la intervención sólo debería permitirse cuando el poder monopólico provoca un aumento de los precios al consumidor. Desde entonces, el monocultivo intelectual de ese umbral de daño al consumidor se ha extendido globalmente.

Es por eso que los gobiernos simplemente se mantuvieron al margen mientras las empresas tecnológicas del siglo XXI se convertían en oligopolios. Si el único criterio de acción de un regulador es asegurarse de que los consumidores no paguen ni un centavo más, entonces los servicios gratuitos o subsidiados por datos de las plataformas tecnológicas ni siquiera se registran. (Por supuesto, los consumidores pagan de otras maneras, ya que estos gigantes tecnológicos explotan su información personal para obtener ganancias). Este enfoque de laissez-faire permitió a las empresas más grandes ahogar la competencia adquiriendo a sus competidores e integrando verticalmente a los proveedores de servicios, creando los problemas que tenemos. hoy.

Los reguladores y autoridades en Washington y Bruselas dicen ahora que han aprendido esa lección y no permitirán que la IA domine como ocurrió con la concentración de Internet. La presidenta de la Comisión Federal de Comercio, Lina Khan, y el responsable antimonopolio del Departamento de Justicia de EE. UU. , Jonathan Kanter, están identificando puntos críticos en la “ pila ” de IA (concentración en el control de chips de procesamiento, conjuntos de datos, capacidad informática, innovación de algoritmos, plataformas de distribución e interfaces de usuario) y analizando para ver si afectan la competencia sistémica. Esta es una buena noticia potencial para las personas que quieren evitar que el dominio actual de los gigantes tecnológicos se extienda a nuestro futuro de IA.

En su firma de la orden ejecutiva sobre competencia en 2021, el presidente Biden dijo : “El capitalismo sin competencia no es capitalismo; es explotación”. Los ejecutores de Biden están cambiando los tipos de casos que abordan y ampliando las teorías legales aplicables sobre el daño que causan a los jueces. En lugar del enfoque tradicionalmente limitado a los precios al consumidor, los casos actuales argumentan que los daños económicos perpetrados por las empresas dominantes incluyen los sufridos por sus trabajadores, las pequeñas empresas y el mercado en su conjunto.

Khan y Kanter han abandonado los modelos estrechos y abstrusos de comportamiento del mercado en favor de experiencias del mundo real de trabajadores de la salud, agricultores y escritores. Entienden que cerrar oportunidades económicas alimenta el extremismo de extrema derecha. Han hecho que la aplicación de las leyes antimonopolio y las políticas de competencia sean explícitamente una cuestión de coerción versus elección, poder versus democracia. Kanter dijo en una conferencia reciente en Bruselas que «la concentración excesiva de poder es una amenaza… no se trata sólo de precios o producción, sino de libertad, libertad y oportunidades».

Los encargados de hacer cumplir la ley en Washington y Bruselas están comenzando a impedir de manera preventiva que las empresas tecnológicas utilicen su dominio en un ámbito para apoderarse de otro. Después del escrutinio de la FTC de Estados Unidos y de la Comisión Europea, Amazon abandonó recientemente su plan de adquirir el fabricante de electrodomésticos iRobot. Los reguladores a ambos lados del Atlántico también han tomado medidas para impedir que Apple utilice su dominio en la plataforma iPhone para exprimir la competencia en las tiendas de aplicaciones y dominar mercados futuros, por ejemplo, impulsando el uso de CarPlay entre los fabricantes de automóviles y limitando el acceso a su sistema de pago mediante toque. billetera digital en el sector de servicios financieros.

Aún así, hasta ahora, sus acciones de aplicación de la ley se han centrado en las partes altamente visibles y de cara al consumidor de la Internet explotadora y propietaria de los gigantes tecnológicos. Las pocas y limitadas medidas de la orden ejecutiva de 2021 que apuntan a reducir los monopolios basados ​​en infraestructura solo previenen abusos futuros como el acaparamiento del espectro radioeléctrico, no los que ya están bloqueados . Claro, la mejor manera de lidiar con los monopolios es, en primer lugar, evitar que se produzcan. Pero a menos que los reguladores y las autoridades erradiquen el actual dominio de estos gigantes, viviremos en el actual monopolio de infraestructura durante décadas, tal vez incluso un siglo.

Incluso los reguladores activistas han evitado aplicar los remedios más duros para la concentración en mercados consolidados desde hace mucho tiempo, como requisitos de no discriminación, interoperabilidad funcional y separaciones estructurales, es decir, dividir empresas. Y declarar que los monopolios de las búsquedas y de las redes sociales son en realidad servicios públicos (y obligarlos a actuar como transportistas públicos abiertos a todos) sigue siendo demasiado extremo para la mayoría.

Pero reconstruir un entorno construido no es simplemente sentarse y ver qué ser tierno y vivo puede abrirse camino a través del concreto. Está arrasando las estructuras que bloquean la luz para todos los que no son lo suficientemente ricos como para vivir en el último piso.

“Los ecologistas han reorientado su campo como una ‘disciplina de crisis’, un campo de estudio que no se trata sólo de aprender cosas sino de salvarlas. Nosotros, los tecnólogos, debemos hacer lo mismo”.

Cuando el escritor y activista Cory Doctorow escribió sobre cómo liberarnos de las garras de las grandes empresas tecnológicas, dijo que aunque desmantelar las grandes empresas probablemente llevará décadas, proporcionar una interoperabilidad fuerte y obligatoria abriría un espacio innovador y ralentizaría el flujo de dinero hacia las empresas más grandes: dinero que de otro modo utilizarían para profundizar sus fosos.

Doctorow describe el «comcom», o compatibilidad competitiva, como una especie de «interoperabilidad de guerrilla, lograda mediante ingeniería inversa, bots, scraping y otras tácticas sin permiso». Antes de que surgiera una maraña de leyes invasivas para estrangularlo, las comunicaciones eran la forma en que la gente descubría cómo reparar automóviles y tractores o reescribir software. Comcom impulsa el comportamiento de probar todas las tácticas hasta que una funcione que se ve en un ecosistema floreciente.

En un ecosistema, la diversidad de especies es otra forma de decir “diversidad de tácticas”, ya que cada nueva táctica exitosa crea un nuevo nicho que ocupar. Ya sea un pulpo que se camufla como una serpiente marina, un cuco que introduce de contrabando a sus polluelos en el nido de otro pájaro, orquídeas que producen flores que se parecen a una abeja hembra o parásitos que influyen en los huéspedes roedores para que asuman riesgos que pongan fin a sus vidas, cada micronicho evolutivo es creado por una táctica exitosa. Comcom es simplemente diversidad táctica; así es como los organismos interactúan en sistemas complejos y dinámicos. Y los humanos han demostrado la personificación del pensamiento a corto plazo al permitir que los oligarcas que intentan ponerle fin.

Se están realizando esfuerzos. La UE ya tiene varios años de experiencia con mandatos de interoperabilidad y conocimientos valiosos sobre cómo trabajan las empresas decididas para eludir dichas leyes. Sin embargo, Estados Unidos todavía está en sus primeros días en cuanto a garantizar la interoperabilidad del software, por ejemplo, para videoconferencias .

Quizás una forma de motivar y alentar a los reguladores y encargados de hacer cumplir la ley en todas partes sea explicar que la arquitectura subterránea de Internet se ha convertido en una tierra de sombras donde la evolución prácticamente se ha detenido. Los esfuerzos de los reguladores para hacer competitiva la Internet visible lograrán poco a menos que también afronten la devastación que hay debajo.

Próximos pasos

Gran parte de lo que necesitamos ya está aquí. Más allá de que los reguladores busquen coraje, visión y nuevas estrategias de litigio audaces, necesitamos políticas gubernamentales vigorosas y procompetitivas en materia de adquisiciones, inversiones e infraestructura física. Las universidades deben rechazar la financiación de la investigación por parte de las empresas tecnológicas porque siempre viene con condiciones, tanto habladas como tácitas .

En cambio, necesitamos más investigación tecnológica financiada con fondos públicos y resultados publicados públicamente. Dicha investigación debería investigar la concentración de poder en el ecosistema de Internet y las alternativas prácticas a ella. Necesitamos reconocer que gran parte de la infraestructura de Internet es una utilidad de facto sobre la que debemos recuperar el control.

Debemos garantizar incentivos regulatorios y financieros y apoyo a alternativas que incluyan la gestión de recursos de uso común, redes comunitarias y la miríada de otros mecanismos de colaboración que la gente ha utilizado para proporcionar bienes públicos esenciales como carreteras, defensa y agua potable.

Todo esto requiere dinero. Los gobiernos se ven privados de ingresos fiscales debido a las ganancias inesperadas que alguna vez en la historia obtuvieron los gigantes tecnológicos de hoy, por lo que está claro dónde está el dinero. Necesitamos recuperarlo.

Sabemos todo esto, pero todavía nos resulta muy difícil actuar colectivamente. ¿Por qué?

Agrupados en rígidas plantaciones tecnológicas en lugar de ecosistemas diversos y funcionales, es difícil imaginar alternativas. Incluso aquellos que pueden ver con claridad pueden sentirse impotentes y solos. Rewilding une todo lo que sabemos que debemos hacer y trae consigo una caja de herramientas y una visión completamente nuevas.

Los ecologistas se enfrentan a los mismos sistemas de explotación y se están organizando con urgencia, a escala y en todos los ámbitos. Ven claramente que los problemas no son aislados sino que son ejemplos de la misma patología de mando y control, extracción y dominación que el antropólogo político Scott notó por primera vez en la silvicultura científica. Las soluciones son las mismas en ecología y tecnología: utilizar agresivamente el estado de derecho para nivelar el capital y el poder desiguales, y luego apresurarse a llenar los vacíos con mejores formas de hacer las cosas.

Mantenga Internet, Internet

Susan Leigh Star, socióloga y teórica de la infraestructura y las redes, escribió en su influyente artículo de 1999, “La etnografía de la infraestructura”:

“Estudiar una ciudad y descuidar sus alcantarillados y suministros de energía (como muchos lo han hecho), y se pierden aspectos esenciales de la justicia distributiva y el poder de planificación. Si se estudia un sistema de información y se descuidan sus estándares, conexiones y entornos, se pierden aspectos igualmente esenciales de la estética, la justicia y el cambio”.

Los protocolos y estándares técnicos que subyacen a la infraestructura de Internet se desarrollan aparentemente en organizaciones de desarrollo de estándares (SDO, por sus siglas en inglés) abiertas y colaborativas, pero también están cada vez más bajo el control de unas pocas empresas. Lo que parecen ser estándares “voluntarios” son a menudo decisiones comerciales de las empresas más grandes.

El dominio de las SDO por parte de las grandes empresas también da forma a lo que no se estandariza: por ejemplo, la búsqueda, que es efectivamente un monopolio global. Si bien dentro de las SDO se han planteado repetidamente esfuerzos para abordar directamente la consolidación de Internet , se ha logrado poco progreso. Esto está dañando la credibilidad de los SDO, especialmente fuera de Estados Unidos. Los SDO deben cambiar radicalmente o perderán su mandato global implícito de administrar el futuro de Internet.

Necesitamos que los estándares de Internet sean globales, abiertos y generativos. Son los modelos de cables que dan a Internet su forma planetaria, los hilos finos como una gasa pero fuertes como el acero que mantienen unida su interoperabilidad contra la fragmentación y el dominio permanente.

Haga que las leyes y los estándares funcionen juntos

En 2018, un pequeño grupo de californianos logró que la Legislatura aprobara la Ley de Privacidad del Consumidor de California . En el estatuto figuraba una disposición sencilla: el “derecho a optar por no vender o compartir” su información personal a través de un “control de privacidad global habilitado por el usuario” o una señal GPC que crearía un método automatizado para hacerlo. La ley no definía cómo funcionaría GPC. Como se necesitaba un estándar técnico para que navegadores, empresas y proveedores hablaran el mismo idioma, los detalles de la señal se delegaron a un grupo de expertos.

En julio de 2021, el fiscal general de California ordenó que todas las empresas utilizaran el GPC recién creado para los consumidores con sede en California que visitan sus sitios web. El grupo de expertos está ahora guiando la especificación técnica a través del desarrollo de estándares web globales en el World Wide Web Consortium. Para los residentes de California, GPC automatiza la solicitud de «aceptar» o «rechazar» las ventas de sus datos, como el seguimiento basado en cookies, en sus sitios web. Sin embargo, aún no es compatible con los principales navegadores predeterminados como Chrome y Safari. La adopción amplia llevará tiempo, pero es un pequeño paso para cambiar los resultados del mundo real al impulsar las prácticas antimonopolio profundamente en la pila de estándares, y ya se está adoptando en otros lugares.

GPC no es el primer estándar abierto obligatorio legalmente, pero fue diseñado deliberadamente desde el primer día para unir la formulación de políticas y el establecimiento de estándares. La idea está ganando terreno. Un informe reciente del Consejo de Derechos Humanos de las Naciones Unidas recomienda que los estados deleguen “funciones regulatorias a organizaciones que establecen estándares”.

Hacer que los proveedores de servicios, no los usuarios, sean transparentes

La Internet actual ofrece una transparencia mínima de los principales proveedores de infraestructura de Internet. Por ejemplo, los navegadores son piezas de infraestructura muy complejas que determinan cómo miles de millones de personas utilizan la web y, sin embargo, se proporcionan de forma gratuita. Esto se debe a que los motores de búsqueda más utilizados celebran acuerdos financieros opacos con los navegadores, pagándoles para que los establezcan como predeterminados. Dado que pocas personas cambian su motor de búsqueda predeterminado, navegadores como Safari y Firefox ganan dinero colocando la barra de búsqueda predeterminada en Google, asegurando su dominio incluso cuando la calidad de los resultados del motor de búsqueda disminuye .

Esto crea un dilema. Si las autoridades antimonopolio impusieran competencia, los navegadores perderían su principal fuente de ingresos. La infraestructura requiere dinero, pero la naturaleza planetaria de Internet desafía nuestro modelo de financiación pública, dejando la puerta abierta a la captura privada. Sin embargo, si vemos el opaco sistema actual como lo que es, una especie de tributación no estatal, entonces podemos diseñar una alternativa.

Los motores de búsqueda son un lugar lógico para que los gobiernos exijan la recaudación de un impuesto que respalde los navegadores y otras infraestructuras clave de Internet, que podría financiarse de forma transparente bajo una supervisión abierta, transnacional y de múltiples partes interesadas.

Haga espacio para crecer

Necesitamos dejar de pensar que la infraestructura de Internet es demasiado difícil de arreglar. Es el sistema subyacente que utilizamos para casi todo lo que hacemos. El ex primer ministro de Suecia, Carl Bildt, y el ex viceministro de Asuntos Exteriores canadiense, Gordon Smith, escribieron en 2016 que Internet se estaba convirtiendo en “la infraestructura de todas las infraestructuras”. Así es como organizamos, conectamos y construimos conocimiento, incluso –tal vez– inteligencia planetaria. En este momento, está concentrado, frágil y completamente tóxico.

Los ecologistas han reorientado su campo como una “ disciplina de crisis ”, un campo de estudio que no se trata sólo de aprender cosas sino de salvarlas. Nosotros, los tecnólogos, debemos hacer lo mismo. Reconstruir Internet conecta y hace crecer lo que la gente está haciendo a través de la regulación, el establecimiento de estándares y nuevas formas de organizar y construir infraestructura, para contar una historia compartida de hacia dónde queremos llegar. Es una visión compartida con muchas estrategias. Los instrumentos que necesitamos para alejarnos de los monocultivos tecnológicos extractivos están disponibles o listos para ser construidos.

a

Noemag


Resalvajizar al Homo Sapiens


«Afortunadamente existen algunos brotes verdes en las generaciones actuales que podrían enmendar todo este desastre ecológico que hemos causado, entre ellos la idea del Rewilding o “Resalvajización” parece ser una de las más sensatas. Esta idea de volver a ser salvaje no se refiere a reconvertirnos nuevamente en pequeños grupos de cazadores recolectores que forman una especie más de la biodiversidad de los ecosistemas, sino más bien en utilizar las soluciones basadas en la naturaleza que disponemos para no solo disminuir el impacto que como especie ejercemos en el planeta, sino que volver a regenerar lo que alguna vez fue.

Si bien nunca volveremos a interactuar con esa fauna extinta milenios atrás, ni recuperar ecosistemas perdidos, es posible acoplarse y ser parte de ese cambio continuo del planeta y la vida que ocurre en él, ejerciendo la oportunidad y el derecho de la naturaleza a recomponerse y con ello también beneficiarnos como especie en esta resalvajización.»

El Desconcierto (Chile)

Deja un comentario