Estimados Blogueros:
Históricamente, las plataformas tecnológicas han tenido como política fundamental posibilitar que cualquier persona publique sobre cualquier tópico, es decir sobre lo que se le ocurra.
Sin embargo, el aumento del uso de estas plataformas por parte de sus usuarios (incluidos Estados) para manipular la opinión publica vía creación y distribución de noticias falsas o de acoso constante sobre ciertas personas o ideas, ha puesto en cuestión esas políticas iniciales.
La idea ahora parece ser buscar instrumentos de regulación de la información que permitan mayor claridad y/o veracidad. Por ahora, son las propias plataformas tecnológicas quienes están planteando y utilizando mecanismos de control interno, aunque ya hay en agenda de varios Estados la heteroregulación.
De esta autorregulación (por ahora revisión profunda de sus políticas sobre lo que las personas pueden decir en línea y cómo puede decirlo) es materia de un interesante artículo de Farhad Manjoo (destacado periodista, graduado en Cornell University) aparecido en el New York Times (30.07.2018) bajo el título de “Los riesgos de que Facebook y Twitter pongan límites”.
El señor Manjoo advierte los límites de esa autorregulación, especialmente si tomamos en cuenta que: (i) la estrategia de crecimiento de dichas plataformas se basó en una casi nula intervención, pues ello permite tener una escala mundial sin asumir los costos sociales de su ascenso, (ii) el efecto búmeran que puede producirse: con mejor supervisión del contenido podría incrementarse el poder de las plataformas tecnológicas para moldear nuestras vidas.
Transcribo a continuación el artículo. Creo que es de lectura obligada. Disfrútenlo..
Por: Farhad Manjoo
Desde sus primeros días, Silicon Valley ha sido apuntalado por una manera casi absolutista de pensar en la libertad de expresión. Fuera de excepciones por fraude, pornografía o amenazas específicas, la opinión prevaleciente entre muchas plataformas tecnológicas ha sido permitir que prácticamente cualquiera publique casi cualquier cosa. Estas sensibilidades incluso están consagradas en algunas leyes; la estadounidense les da a esas empresas una amplia inmunidad a que se les someta a un proceso judicial con base en lo publicado por sus usuarios.
Sin embargo, y con buena razón, los valores absolutistas han terminado.
En los últimos dos años, las plataformas tecnológicas —ante presión de legisladores y los medios debido al daño ocasionado por la desinformación, la propaganda patrocinada por Estados y el acoso— han comenzado una revisión profunda de sus opiniones acerca de lo que la gente puede decir en línea y cómo puede decirlo.
A mediados de julio, Facebook anunció un nuevo plan para eliminar la desinformación que podría causar un daño inminente. WhatsApp, la subsidiaria de mensajería de Facebook, mencionó que limitará cuán ampliamente se pueden reenviar los mensajes en el servicio a fin de disminuir los rumores virales, algunos de los cuales han originado situaciones violentas en países como India.
Las nuevas políticas forman parte de un cambio más grande. Los servicios en línea —no solo Facebook, sino también Google, Twitter, Reddit e incluso aquellos que están lejos de las noticias y la política, como Spotify— están replanteando su relación con el mundo físico al hacerse una pregunta básica: ¿dónde comienza y termina nuestra responsabilidad?
Esto es muy importante y las empresas tecnológicas ya se habían tardado en tomar una postura más firme contra las mentiras y el acoso. Aun así, mientras forcejean con la cuestión de la responsabilidad y dónde establecer sus límites respecto a ciertos tipos de contenido, todos deberíamos prepararnos para que el camino sea bastante accidentado.
Esta es la razón: una estrategia en la que la intervención es casi nula ha sido central para el crecimiento de las plataformas tecnológicas, ya que les permite tener una escala mundial sin asumir los costos sociales de su ascenso. No obstante, como su influencia es tan grande —Facebook por sí solo tiene más de dos mil millones de usuarios— y han penetrado tan profundamente en nuestras vidas, una estrategia de mayor involucramiento para vigilar el contenido podría propagarse en todo el mundo y con ello alterar las políticas públicas, a los medios y a casi todo en la sociedad.
Es decir, podría tener el efecto opuesto a lo que los críticos de estas empresas buscan: con una mejor supervisión de su propio contenido podría, de hecho, aumentar el poder que tienen las plataformas tecnológicas para moldear nuestras vidas.
Resulta bastante bueno que los gigantes tecnológicos por fin se estén percatando de sus efectos en el mundo real, pero hay un enorme margen de error en su enfoque para revisar el contenido. Es muy probable que muchas cosas salgan mal —ya sea por vigilar demasiado o muy poco— y tal vez no puedan explicar de manera satisfactoria por qué tomaron ciertas decisiones, lo cual levantará sospechas en todos los bandos.
Recientemente llamé la atención a Facebook por la complejidad de sus políticas de contenido más nuevas, que enaltecen las virtudes de la libre expresión a la vez que le dan mucho margen a la empresa para eliminar o reducir la distribución de ciertas publicaciones por una gran variedad de motivos.
Las políticas de Facebook no son las únicas difíciles de entender; las reglas de Twitter también provocan el mismo mareo.
Tras hablar con estas y otras empresas, entendí por qué nos cuesta trabajo entender los esfuerzos que hacen para resolver sus problemas. Las plataformas tecnológicas dicen que no quieren ser imprudentes: todas buscan la contribución de muchas partes involucradas sobre cómo desarrollar políticas de contenido. También les preocupa enormemente la libre expresión y todavía se inclinan a darle a la gente la libertad de publicar lo que quiera.
En lugar de prohibir el discurso, suelen tratar de mitigar sus efectos negativos con metodologías técnicas, como contener la divulgación de ciertos mensajes al alterar los algoritmos de recomendación o al imponer límites a su diseminación viral.
“Por algo hay políticas matizadas”, comentó Monika Bickert, directora de políticas de Facebook. “Parte de esto es muy complicado y, cuando estas políticas se diseñan, no hay un grupo de gente sentada en Menlo Park, California, diciendo dónde pensamos que debería estar el límite”.
Bickert comentó que ha organizado reuniones frecuentes con diversos expertos para debatir cómo es que Facebook debería establecer los límites en un sinfín de discursos. En general, la empresa elimina contenido que es ilegal, peligroso, fraudulento o que es falso o basura. No obstante, en el caso de áreas que son más difusas, como la desinformación, adopta un enfoque distinto.
“Reducimos la distribución de información que es inexacta e informamos a la gente con más contexto y perspectiva”, comentó Tessa Lyons, gerente de producto que encabeza el esfuerzo de Facebook para frenar la desinformación en el muro de Noticias (News Feed).
Para ello, Facebook se ha asociado con decenas de organizaciones de todo el mundo que verifican información. Así limita la diseminación de noticias que sean consideradas falsas, al mostrar esas publicaciones con menor frecuencia en los muros de Noticias de los usuarios y también muestra artículos más veraces como alternativa a los que no son exactos.
Andrew McLaughlin, exdirector de políticas en Google y quien ahora dirige una incubadora cuya finalidad es construir tecnología para movimientos políticos progresistas, comentó que le impresionaban los esfuerzos de Facebook.
“Creo que hablo por un grupo de personas que alguna vez se enorgullecieron bastante de la solidez de nuestro compromiso con la libertad de expresión en las plataformas de internet”, dijo. “No obstante, mis posturas ciertamente han cambiado tras un crisol de experiencias: ahora me siento feliz de que las plataformas como Facebook concentren sus recursos y energía en [combatir] propaganda maliciosa y manipuladora”. (McLaughlin también fue previamente consultor de Facebook, pero ya no trabaja para esa empresa).
Sin embargo, yo soy menos optimista, porque todavía no sabemos muchas cosas sobre estas políticas y sus efectos. Facebook es una corporación con fines de lucro que, tanto por motivos regulatorios como de imagen de marca, quiere parecer políticamente imparcial. No obstante, si determina que algunos actores políticos —digamos la extrema derecha en Estados Unidos o los dictadores autoritarios en otras partes— han impulsado más noticias falsas que sus opositores, ¿cómo podemos confiar en que hará algo al respecto?
La misma sospecha aplica a otras plataformas: aunque el presidente estadounidense, Donald Trump, probablemente viole las políticas de contenido de Twitter, se le ha permitido seguir publicando en la plataforma. Aunque imaginen la indignación si lo bloquearan.
Esto nos lleva al tema más amplio de la transparencia. Aunque las políticas escritas de Facebook son claras, la manera en que las aplica no lo es tanto. Poco se sabe, por ejemplo, sobre el ejército de trabajadores bajo contrato que la empresa emplea para revisar contenido peligroso; es decir, la gente que realmente toma las decisiones (Facebook dice que se les capacita extensamente y que sus acciones son auditadas). Además, dado que casi todo en Facebook es personalizado y que muchas de sus reglas se aplican a través de ajustes leves en su algoritmo de clasificación, el efecto general de sus políticas de contenido puede ser muy difícil de determinar para los externos.
Este problema también se da en otras plataformas. Twitter, por ejemplo, tiene un filtro de contenido que regula qué tuits se muestran en tu línea de tiempo y en resultados de búsquedas. No obstante, las prioridades del filtro son necesariamente secretas, porque si Twitter hace público qué indicadores busca para clasificar los tuits, la gente buscaría la forma de burlarlos.
“La gente trata de burlar todos los sistemas que hay”, me dijo David Gasca, gerente de producto de Twitter.
Todos estos problemas tienen solución. Las compañías tecnológicas están gastando enormes cantidades de dinero para mejorar y con el tiempo bien podrían tener ideas innovadoras para vigilar el contenido. Por ejemplo, la decisión reciente de Facebook de liberar sus datos a un grupo de investigadores académicos podría permitirnos determinar algún día, de manera empírica, qué efectos están teniendo sus políticas de contenido en el mundo.
A pesar de todo eso, estamos ante una encrucijada. Incluso si están trabajando con externos para crear estas políticas, cuanto más hagan estas empresas para moderar qué sucede en sus páginas, más importante se vuelven sus políticas para el discurso mundial.
A mucha gente le preocupa que Mark Zuckerberg ya sea demasiado poderoso. El peligro es que todavía no hemos visto nada.
Deja un comentario