Internet, del reduccionismo a las soluciones adecuadas

Javier Pallero

Pensar la relación entre Internet, Estado y democracia es una tarea compleja, atravesada por diversos tipos de sesgos. Entre ellos se destacan dos, que nos servirán para estructurar las reflexiones de este artículo. 

El primero es el llamado “tecnosolucionismo” o “excepcionalidad de Internet”. Es el que se expresa en las opiniones que ven en Internet una herramienta extraordinaria, sin dificultades ni defectos. Piensan que esta tecnología puede, por sí misma, transformar la lógica de los mercados, la realidad política y el modo en que se organizan los movimientos sociales.

En la década de 1990, las políticas del gobierno estadounidense promovieron la masificación de Internet para fines comerciales,1 lo cual llevó a una lucrativa industria de páginas web.

Esto dio lugar a un crecimiento económico espectacular, pero la realidad no tardaría en imponerse: la sobrestimación del valor de las empresas “punto com” terminó por precipitar una crisis cerca del año 2000, en la que las principales empresas de aquel entonces perdieron mucho valor y otras desaparecieron.

Fue una de las primeras advertencias, y fomentó una visión más pesimista sobre las nuevas tecnologías, más “distópica” o “catastrófica”. En pocos años, además, se generó una concentración de mercado que erigió a algunas empresas en “puntos de control” (gatekeepers) de la experiencia digital para un alto porcentaje de usuarios.

Más allá de lo económico, entre los “distópicos” están quienes culpan a Internet por la decadencia de las instituciones democráticas y el deterioro de las relaciones sociales. Este posicionamiento suele llevar a decisiones y propuestas regulatorias que alejan a las comunidades de los beneficios de la digitalización. Y en otros casos derivan en censura, vigilancia y otros atropellos a los derechos fundamentales.2

Ambos sesgos son las caras de una misma moneda: el reduccionismo. Analizan un fenómeno complejo y sin precedentes en base a posicionamientos casi emocionales de aceptación o rechazo. Como en una especie de evolución, se parte de una etapa de asombro (optimista) a otra de desengaño (pesimista). La propuesta de este artículo es llegar a una tercera etapa, la de madurez, en la que seamos capaces de sopesar los beneficios y los riesgos de Internet y de las tecnologías digitales con ecuanimidad. Nos enfocaremos en algunos aspectos muchas veces señalados como ejemplares, por las teorías optimistas y por las pesimistas: la gestión del Estado y la participación política.

Gestión del Estado:¿eficiencia tecnocrática o totalitarismo digital?

En la visión utópica el flujo y la acumulación de información se volvieron un fin en sí mismo. Hay ejemplos históricos de herramientas tecnológicas para la recolección y gestión estatal, como Cybersyn, un proyecto planificado entre 1971 y 1973 en Chile durante el gobierno de Salvador Allende, que consistía en una red de comunicaciones que uniría lugares clave para la gestión social, política y económica con un centro de mando en el que funcionarios tomarían decisiones en tiempo real. Nunca llegó a concretarse, pero es un posible antecedente de las llamadas “ciudades inteligentes”.

La idea de que acumular información sobre los ciudadanos es siempre beneficioso para el Estado es engañosa: conlleva riesgos para la privacidad, desafíos de eficiencia y puede poner en peligro la disponibilidad de servicios públicos.

Así, se han propuesto ideas de ciudades “monitoreadas”, para que todas las actividades situadas en ellas generen información que mejore la planificación urbana. Y también, claro, la seguridad. En contextos como el latinoamericano es imposible obviar la presentación excesivamente optimista del uso de cámaras de vigilancia, control y seguimiento de patentes de automóviles, y reconocimiento facial en lugares públicos. 

Aquí la visión crítica de la tecnología se impone. Los actores políticos no tuvieron en cuenta (o eligieron obviar) el mencionado peligro para la privacidad que genera la recolección y el uso de toda esa información.3

La “ciudad inteligente” encarna el fetichismo por los datos. La información sobre el tránsito, el uso de los servicios y espacios públicos es información sobre las personas, sobre sus hábitos, bienes, trabajos y relaciones sociales, detalles íntimos que pueden asociarse a una identidad concreta. Los países que más experimentan con diseños urbanísticos de este estilo suelen ser los que menos importancia dan a los derechos de sus ciudadanos.4

Estas ideas cuentan con defensores en América Latina y en nuestro país. La Argentina tiene, tristemente, demasiados ejemplos de violaciones y negligencias respecto a la privacidad en pos de cumplir con los fines del Estado.5

Esto es causa de preocupación a la hora de gestionar bases de información sensible. Además, se hace difícil proteger cantidades cada vez mayores de información cuando la regla es la recolección más allá de las necesidades concretas.

Transformación política: utopías participativas y elecciones manipuladas

La aparición de las plataformas digitales (servicios que organizan información e interacción de usuarios) también trajo novedades para la política. En el caso de las redes sociales, surgieron movimientos que lograron reunir a personas bajo grupos de interés, intercambiar información clave y organizar intervenciones en la “vida real”.

La llamada “Primavera Árabe” es un ejemplo: surgida en Túnez en 2010, se trató de una serie de movimientos revolucionarios a favor de la democracia que ocurrieron en varios países de Medio Oriente. Se adjudica a las redes sociales un rol preponderante en la organización de sus manifestaciones. Internet se volvía así una herramienta de empoderamiento en pos de la libertad.

Entre los optimistas, era común ubicarse en una postura liberal clásica que da a la información y su libre flujo un valor en sí mismo. No es casual que la “Primavera Árabe” surgiera en países donde la censura era moneda corriente. 

Pero la transformación se vio complementada por nuevos problemas traídos por las plataformas. El carácter oligopólico de los principales actores (Facebook, Twitter), y monopólico en el caso del principal motor de búsqueda (Google), facilitó prácticas que ponen en peligro la deliberación pública. Por ejemplo, mediante la influencia opaca que gobiernos como el de los Estados Unidos tienen en la política de moderación de contenidos de esas empresas. O bien las propias decisiones de carácter empresarial que determinan el grado de aceptación o visibilidad de discursos y comunidades enteras. 

La forma en que las redes sociales fueron diseñadas (al menos en sus comienzos), maximizando la interacción para generar atención y datos personales con fines publicitarios, contribuyó negativamente a la calidad de las conversaciones. 

Algunos activistas comenzaron a sospechar de la posibilidad de manipular elecciones mediante supuestos efectos de dirección del comportamiento de los usuarios al cambiar su dieta informativa. Esto es lo que prometía la empresa “Cambridge Analytica”, según se reveló en 2018, y que dejó en claro que, más allá de su presunta eficacia (de la que dudamos),6 gobiernos y candidatos políticos se convirtieron en sus principales clientes.

Justamente esta capacidad de crear comunidades afines, estimular la atención mediante contenidos extremos y promoverlos algorítmicamente es lo que hace a las redes sociales el lugar de elección para gobiernos autoritarios que intentan crear división en países enemigos7 o contra su propia población.8

Este panorama de abuso estatal y privado pinta una noción muy diferente del ágora ateniense digital que muchos imaginaban en los albores de las redes sociales y de los mecanismos de participación para la mejoría de la calidad de la discusión política.

Hacia una visión integradora

A futuro, es urgente llegar a un entendimiento y una praxis respecto a la tecnología que no ignore los riesgos pero tampoco los beneficios y que atienda los problemas sin exagerarlos y generar pánico, de manera consciente y responsable. 

Para esto, existen ideas y valores clave que deberían aplicarse en la respuesta estatal y en la praxis empresarial para lograr la Internet que necesitamos para el siglo XXI. Valores e ideas que podrán implementarse mediante diversas herramientas como la autorregulación, la corregulación y la regulación directa, según cada caso, y en virtud del carácter dinámico de las tecnologías digitales.

Partir de un diagnóstico adecuado

El primer paso es ofrecer un diagnóstico adecuado. Por ejemplo: la desinformación, el alcance de las burbujas ideológicas y la radicalización política son importantes y tienen impacto en la vida pública, pero están lejos de ser tan determinantes como algunos políticos, activistas y medios de comunicación aseguran.9

Un correcto diagnóstico informará políticas públicas más eficientes y que generen menores daños a derechos en colisión a la hora de regular. Al mismo tiempo, permitirá responder de manera coordinada a los diversos aspectos sociales, económicos, educativos y culturales que están en juego. 

Se necesitan regulaciones que aseguren el acceso a datos para la investigación independiente de plataformas y tecnologías de Internet. Así como financiar y equipar a organismos de estudio y regulación que tengan capacidad de acción y sean independientes del poder político y económico.

Por otra parte, el conocimiento técnico permitirá encontrar soluciones adecuadas al contexto social y político en que vivimos. Muchos de los debates sobre los problemas de Internet están fuertemente influenciados por casos de otros países, como los Estados Unidos, o lugares con conflictos sociales, religiosos o políticos que nos son ajenos, como Birmania.

Por último, nada estimula tanto el consenso informado como el debate participativo. Es necesario habilitar mecanismos de consulta y decisión que incorporen las visiones de expertos temáticos, usuarios afectados y la comunidad técnica. El Comité Gestor de Internet de Brasil es un buen ejemplo en este sentido: mediante una estructura multiparticipativa, brinda directrices estratégicas y técnicas para el funcionamiento de Internet en Brasil que van desde la administración de direcciones IP y el dominio .br a insumos para la regulación y seguridad de Internet.

Proteger la descentralización en Internet

Uno de los aspectos fundamentales de la practicidad, utilidad y potencial creativo de Internet es su carácter descentralizado, que permite a cualquiera que cumpla con los requisitos técnicos conectarse a la red.

Pero este carácter libre y abierto está amenazado. La concentración económica ha puesto en pocas empresas la operación de servicios esenciales para el funcionamiento de Internet.

Por otra parte, en el mundo de las aplicaciones y plataformas la concentración es tal que puede resultar antieconómico no participar de las plataformas dominantes, donde están las audiencias que se busca alcanzar. Esto trae añadido que las reglas de interacción son dictadas unilateralmente por el jugador dominante, dejando al usuario a merced de prácticas generalmente abusivas.

En consecuencia, la regulación antimonopolio y la protección de los modelos descentralizados de conectividad, o de plataformas descentralizadas como Wikipedia, son factores ineludibles en cualquier respuesta de política pública. Lamentablemente, la insistencia en la unicausalidad de los problemas lleva a pensar en posibles soluciones solo con los “gigantes” en mente y a obviar el impacto negativo para los modelos alternativos, que luchan por sobrevivir en un ambiente de gran concentración.

Implementar un enfoque de derechos humanos

Es necesario que las soluciones estén basadas en derechos humanos. No solo en las regulaciones de los Estados, que como firmantes de tratados internacionales están obligados a protegerlos, sino también en las empresas. Aunque no estén formalmente obligadas, tienen la responsabilidad de prevenir, atender y remediar las violaciones a esos derechos fundamentales.10

La protección de los derechos humanos en el ambiente digital implica un complejo equilibrio de prerrogativas que a veces pueden colisionar y que deben resolverse democráticamente. Por ejemplo, la garantía del libre acceso a la información puede estar en tensión con la privacidad. Y a su vez esta puede ser incompatible con ciertas medidas de seguridad urbana.

Pero en todos los casos hay derechos que resultan directamente aplicables, y que sirven de guía para las decisiones estatales y empresariales. 

La Internet que queremos debería enfocarse en la privacidad. Asistimos a una comoditización de los datos personales, que son utilizados no solo para la publicidad personalizada por parte de empresas privadas, sino que se está volviendo moneda de cambio para acceder a bienes elementales como las ayudas sociales estatales o la documentación.11

Por su parte, el respeto a la libertad de expresión es incompatible con medidas legislativas y empresariales que apunten a la censura directa o indirecta de usuarios, especialmente de grupos vulnerables. En su lugar, deberían actualizarse los mecanismos de responsabilidad y prevención de daños por contenidos en las plataformas digitales, conservando la regla de la responsabilidad limitada por contenidos de terceros pero con una carga mayor respecto de sus propios sistemas de recomendación. También es importante establecer reglas democráticas que obliguen a transparentar la moderación y recomendación de contenidos y que ofrezcan garantías mínimas de debido proceso cuando se trate de su remoción o limitación. 

Es necesaria una visión integradora, seria e informada. Que proteja los mejores aspectos de las tecnologías de Internet, asigne responsabilidades de modo progresivo y ponga los derechos de las personas en el centro: ese es el camino hacia una tecnología más democrática que sirva a sus usuarios como ciudadanos comprometidos y no como meros consumidores. 

1. Ver https://icannwiki.org/Bill_Clinton, mayo de 2021 [última consulta: 12 de mayo de 2023]

2. “Día aciago para la libertad de expresión en Internet” al aprobarse la nueva “ley de desinformación”. Amnistia Internacional. Disponible en https://www.es.amnesty.org/en-que-estamos/noticias/noticia/articulo/turquia-dia-aciago-para-la-libertad-de-expresion-en-internet-al-aprobarse-la-nueva-ley-de-desinformacion/, octubre de 2022 [última consulta: 8 de mayo de 2023].

3. Vicent, J. “Google ya no construirá la ciudad inteligente de Toronto”. Trecebits, mayo de 2020. Disponible en https://www.trecebits.com/google-ya-no-construira-la-ciudad-inteligente-de-toronto-por-culpa-del-covid-19/ [última consulta: 8 de mayo de 2023].

4. Wakefield, J. “Las grandes ambiciones de China se están haciendo realidad pero ¿a qué costo?”, BBC, enero de 2020. Disponible en https://www.bbc.com/mundo/noticias-50986739 [última consulta: 8 de mayo de 2023].

5. Brodersen, J. y Blanco, P. “Filtración del Renaper: difunden datos sensibles de 60.000 argentinos y piden cerca de 17 mil dólares por todos los DNI”. Clarín. Disponible en https://www.clarin.com/tecnologia/filtracion-renaper-difunden-datos-sensibles-60-000-argentinos-piden-cerca-17-mil-dolares-dni_0_2eE_kXXBo.html, octubre de 2021 [última consulta: 8 de mayo de 2023].

6. Leites, P. “¿Es posible influir en el voto desde las redes?”, La Voz del Interior, agosto de 2019. Disponible en https://www.lavoz.com.ar/politica/es-posible-influir-en-voto-desde-redes/ [última consulta: 8 de mayo de 2023].

7. Ver los casos de difusión de noticias falsas desde el gobierno ruso en Newman, L. “The Russian Disinfo Operation You Never Heard About”, Wired, junio de 2020. Disponible en https://www.wired.com/story/russia-secondary-infektion-disinformation/ [última consulta: 8 de mayo de 2023].

 

8. Para el caso de la dictadura birmana usando Facebook para organizar agresiones a la minoría en Rohingya, ver Mozur, P. “A Genocide Incited on Facebook, With Posts From Myanmar’s Military”. The New York Times, octubre de 2018. Disponible en https://www.nytimes.com/2018/10/15/technology/myanmar-facebook-genocide.html [última consulta: 8 de mayo de 2023].

9. Lewis-Kraus, G. “How Harmful Is Social Media?”, The New Yorker, junio de 2022. Disponible en https://www.newyorker.com/culture/annals-of-inquiry/we-know-less-about-social-media-than-we-think?utm_source=twitter&utm_medium=social&utm_campaign=onsite-share&utm_brand=the-new-yorker&utm_social-type=earned [última consulta: 8 de mayo de 2023].

10. Carel, I. “¿Cuáles son los principios rectores sobre empresas y derechos humanos?”, Panorama, noviembre de 2015. Disponible en https://panorama.ridh.org/que-son-los-principios-rectores-sobre-empresas-y-derechos-humanos/ [última consulta: 8 de mayo de 2023].

11. Aquino, G. “Personas expertas de todo el mundo alertan sobre riesgos de los sistemas de identificación biométrica digital”, R3D, noviembre de 2021. Disponible en https://r3d.mx/2021/11/25/personas-expertas-de-todo-el-mundo-alertan-sobre-riesgos-de-los-sistemas-de-identificacion-biometrica-digital/ [última consulta: 8 de mayo de 2023].

NIC Argentina
Secretaría Legal y Técnica
Scroll al inicio