Algoritmos que definen nuestra convivencia
3:00 p.m. | 28 feb 20 (RM).- Nuestra inserción en toda comunidad depende en gran medida de las perspectivas y el conocimiento que tengamos de la realidad: ¿Cuánto puede esto distorsionarse por los buscadores de información en Internet, las plataformas de contenidos en línea y las redes sociales? Los sitios de la red emplean algoritmos para ofrecernos principalmente lo que nos gusta y emociona, afectando nuestras opciones de elegir e impactando críticamente en la manera como nos relacionamos y nos vinculamos con la información.
Reproducimos esta reflexión de Enzo Abbagliati y Alejandro Barros publicado en la revista Mensaje, a propósito del evento que se viene realizando en el Vaticano: “¿El buen algoritmo? Inteligencia artificial: ética, leyes y salud”. Este reúne la participación de especialistas internacionales como el presidente de Microsoft, Brad Smith, y el vicepresidente ejecutivo de IBM, John Kelly III, entre otros.
——————————————————————————————–
A fines de octubre de 2016, cuando faltaban menos de dos semanas para las elecciones presidenciales en Estados Unidos y prácticamente todos los estudios de opinión daban mayores probabilidades de triunfo a Hillary Clinton, MogIA, un sistema de inteligencia artificial creado en 2004, predijo el triunfo de Donald Trump. El sistema, que también había anticipado las victorias de Barack Obama en 2008 y 2012, llegó a su predicción basado en el análisis de más de veinte millones de datos generados a partir de interacciones de usuarios de Google, Facebook, Twitter y YouTube con contenidos de ambas candidaturas, concluyendo que los contenidos que favorecían a Trump tenían mayor viralidad que aquellos que promovían a Clinton(1).
En los meses previos, otros dos eventos electorales tuvieron resultados inesperados: la victoria de la postura partidaria de abandonar la Unión Europea en el referéndum del Brexit en el Reino Unido (junio de 2016) y la victoria de quienes rechazaban los acuerdos de paz entre el gobierno colombiano y la FARC (octubre de 2016). Tal como pasaría en las presidenciales de Estados Unidos, las encuestas pronosticaban ciertos resultados, pero en las redes sociales los números eran otros.
¿Por qué los buscadores de información en Internet, las plataformas de publicación en contenido en línea y las redes sociales se están convirtiendo en un mejor predictor de nuestro comportamiento? ¿Qué saben de nosotros, que les permite tener tanto poder?
La historia es corta pero intensa. SixDegrees, la primera red social como las que conocemos hoy, fue creada en 1997. Un año después, Google fue lanzado en Internet. En 2005, YouTube vio la luz, la misma época en que Facebook dejaba de ser un emergente sitio de estudiantes de universidades norteamericanas para convertirse en lo que es hoy: el gigante de los medios sociales en la red.
De manera rápida, estas plataformas comenzaron a ser los espacios preferentes donde desarrollamos multiplicidad de acciones cotidianas, cambiando nuestros hábitos de producción, difusión y, sobre todo, consumo de contenidos. Si inicialmente eran servicios que utilizábamos para mantener contacto con familiares y amigos, buscar entretención o ayudarnos a buscar información en la crecientemente compleja red, a los pocos años se habían convertido en los espacios donde contrastamos datos sobre los productos que queremos comprar o sobre las ideas de las candidaturas que compiten por nuestro voto, o bien los comenzamos a emplear para obtener información para las grandes decisiones en nuestras vidas.
Este desarrollo particular se inserta, además, en el proceso más amplio del impacto de la tecnología, en general, en nuestro bienestar. Un reciente y pionero estudio de la OCDE lo analiza desde once dimensiones, llegando a la conclusión de que lograr minimizar los riesgos que la digitalización tiene en nuestras vidas implica promover la equidad en el acceso a las oportunidades digitales, masivas alfabetizaciones y una potente seguridad para las personas y sus datos en entornos digitales(2).
Cada vez confiamos más en estas plataformas, porque sus respuestas y los contenidos que nos ofrecen son cada vez más interesantes para nosotros. Google, Facebook y YouTube comparten en sus diseños un elemento central: algoritmos que, a partir de lo que hacemos mientras estamos conectados a sus servicios, van aprendiendo de nosotros, de lo que nos gusta, nos emociona, nos moviliza.
Un algoritmo es un conjunto predefinido de instrucciones y/o reglas definidas, ordenadas y finitas que permiten llevar a cabo una actividad mediante una secuencia y que no generen dudas a quien deba hacer dicha actividad.
A partir de las búsquedas que realizamos, los me gusta que ponemos en una foto o los videos que vemos, los algoritmos van construyendo un perfil de gran exactitud de nosotros y nos ofrecen una parrilla de contenidos de gran pertinencia para nuestros gustos, intereses y opiniones. Cada clic es un dato que registra, procesa e integra a la identidad digital que tienen de nosotros, perfilando como nunca antes en la historia de la Humanidad a miles de millones de personas.
Estas plataformas usan algoritmos para ofrecernos ciertos contenidos y no otros, pues tratan de resolver un problema básico que tenemos en una realidad hiperconectada y con sobreabundancia de información: nuestro escaso tiempo. Herbert Simon, economista, politólogo y psicólogo norteamericano desarrolló a comienzos de la década de 1970 el concepto de la economía de la atención, planteando que desde un mundo donde había pobreza de información (por la falta de recursos y/o la dificultad de acceder a ellos), estábamos avanzando a un mundo rico en información. El problema, indicó Simon, reside en que nuestra capacidad de atención viviría el proceso inverso: del mucho tiempo disponible para los pocos recursos existentes, pasaríamos a escaso tiempo para los casi infinitos recursos que tendríamos al alcance(3).
Llevada a la práctica, la economía de la atención es la lógica que opera cuando el algoritmo de Google decide qué contenidos desplegar en la primera página de resultados, algo relevante ya que cerca del 60% de los usuarios del buscador hacen clic en alguno de los tres primeros resultados y aproximadamente el 95% no avanza más allá de los diez resultados que están en esa primera página. Por su parte, en el caso de Facebook, un usuario promedio, dada la cantidad de «amigos» que tiene en esa red y las páginas que sigue, puede potencialmente acceder a 1.500 contenidos diarios, pero solo tiene capacidad real para consumir 250, por lo que el algoritmo de la plataforma debe decidir cuáles son los contenidos que le ofrece en su muro.
No podemos evaluar todos los resultados de una búsqueda ni revisar todos los contenidos que publican nuestros contactos en una red social, pero tanto Google como Facebook esperan que usemos cada vez más sus servicios. Para ello, utilizando nuestros patrones de búsqueda y relacionamiento con contenidos, sus algoritmos construyen una parrilla de contenidos que nos engancha.
En este escenario, es fundamental preguntarnos cómo impactan los algoritmos en nuestra vida cotidiana. Cuatro respuestas nos parecen relevantes para comprender las dinámicas que están desatando en nuestra convivencia social.
Algoritmos, capturando la atención
Los algoritmos, al ser parte de un modelo de negocio que busca capturar nuestra atención y que nuestro tiempo de conexión se lo dediquemos a ciertas plataformas y no a su competencia, promueven la homofilia, término que en el análisis de redes sociales se refiere a la atracción que sentimos por personas con las que compartimos intereses, gustos y/o posturas ideológicas.
La homofilia está en la base del fenómeno de las burbujas de Internet, fenómeno descrito hace ya unos años por Eli Parisier(4), a través del cual se han ido configurando clusters de usuarios y comunidades muy similares entre sí y que no se intersectan. Este comportamiento, según el mismo Pariser, haría desaparecer el efecto serendipia(5).
Así, los algoritmos, con sus resultados hiperpersonalizados, están disminuyendo nuestra exposición a la divergencia y nos conectan con nuestros iguales, caldo de cultivo para la diseminación de noticias falsas a partir de nuestros propios sesgos y prejuicios(6). Twitter, por ejemplo, nos recomienda seguir a cuentas que hablan de los temas sobre los cuales nosotros publicamos tweets o cuentas que se parecen a las que ya seguimos, profundizando el filtro que nos separa de la diversidad de la realidad.
Algoritmos, una forma de alterar las emociones
Un segundo elemento es el rol de las emociones. La pertinencia de los contenidos que nos entregan estas plataformas se verifica en el momento que hacemos clic en uno de sus enlaces. Y muchos de esos clics ocurren por un proceso de interpelación a nuestras emociones. Marco Guerini y Jacopo Staiano, dos investigadores italianos, concluyeron en 2015 que la viralidad de Internet tenía una relación cercana con las emociones, específicamente con la ubicación de la emoción que nos genera un contenido en la triada valencia-activación-dominancia(7).
Tendemos a compartir con otros usuarios (broadcasting) aquellos contenidos que nos generan emociones que controlamos más, mientras que los contenidos que nos provocan emociones que controlamos menos tendemos a comentarlos, pero no los compartimos (narrowcasting). La valencia de la emoción (positiva/negativa) no es relevante, según las conclusiones de esta investigación. Aplicado en el terreno de la comunicación política, compartimos los contenidos con los que más nos identificamos (republicando en nuestro muro de Facebook un meme afín a nuestras ideas, por ejemplo), pero al relacionarnos con contenidos que no nos representan, le dejamos un comentario (una ácida crítica a un político que no nos representa).
Algoritmos y sus sesgos
La tercera respuesta relevante sobre cómo afectan los algoritmos nuestra convivencia se relaciona con los sesgos en los propios algoritmos. En un reciente artículo, Ricardo Baeza-Yates y Karma Peiró describieron de manera detallada los múltiples sesgos que existen en la manera en que decodificamos la realidad, partiendo por los tres más clásicos: estadísticos, culturales y cognitivos(8). Quienes diseñan algoritmos son personas con sesgos y estos son transmitidos, de manera involuntaria, al conjunto de atributos que fundamentan cómo seleccionan contenidos para nosotros.
Hace pocas semanas, Facebook liberó un estudio en el cual se hizo cargo de críticas, encabezadas por Donald Trump, que lo acusaban de tener un sesgo anticonservador, concluyendo que sus políticas para combatir la desinformación habían silenciado a usuarios conservadores en su plataforma, es decir, que el algoritmo había invisibilizado sus contenidos(9). Meses antes, se supo que Twitter había decidido no eliminar contenido neonazi, ya que de hacerlo el algoritmo afectaría a representantes del Partido Republicano(10).
El modelo de negocio de los algoritmos
La cuarta respuesta, posiblemente la más importante y la más compleja de enfrentar, es el modelo de negocios de estas plataformas, construido sobre tres componentes: 1) apelar a las emociones de los usuarios, que los llevan a interactuar con los contenidos (engagement como motor de la fidelización); 2) la captura de los datos que esas interacciones generan (perfilamiento); y 3) la declaración de propiedad sobre esos mismos datos (a través de términos y condiciones de uso que les dan amplias atribuciones a las plataformas para administrar nuestros contenidos).
Estos perfiles de nosotros son los que, posteriormente, las plataformas ofrecen a terceras partes (empresas, movimientos políticos, etc.) para que nos hagan llegar, a través de sistemas publicitarios escasamente auditados, contenidos promocionados que parecen diseñados para cada uno de nosotros y ante los que, de manera compulsiva, reaccionamos haciendo clic en el enlace. Eso fue lo que pasó con Cambridge Analytica, la empresa que tuvo acceso a millones de datos de votantes norteamericanos a través de Facebook, los cuales puso al servicio de la campaña de Trump para que este les hiciera llegar mensajes personalizados.
Definitivamente, los algoritmos están impactando en la manera en que nos relacionamos entre nosotros y nos vinculamos con la información. La gravedad de la situación ha llevado al Congreso de Estados Unidos, a la Unión Europea y a diversos estados a comenzar a evaluar cómo fiscalizar a estas plataformas y sus empresas propietarias, las que, por su creciente y enorme poder económico, tienen amplias capacidades de lobby sobre sistemas y representantes políticos(11).
La algoritmificación de la vida cotidiana ha llevado incluso al creador de la World Wide Web, Sir Tim Berners-Lee, a levantar la alerta, indicando que para poder salvarla y mantener su espíritu libertario inicial en favor de la Humanidad, hay tres cambios urgentes a realizar: recuperar el control sobre nuestros datos; combatir la desinformación y las noticias falsas, y demandar mayor transparencia en la operación de los algoritmos(12).
Conclusiones
Estamos insertos en un mundo donde los algoritmos forman parte de nuestra vida diaria, en diferentes ámbitos, desde nuestras decisiones de consumo hasta decisiones mucho más profundas. Este proceso de algoritmificación solo va a aumentar en el futuro, como lo evidencia la creciente industria en torno al concepto de smart city (ciudad inteligente) y el uso intensivo de la tecnología 5G. En ambos casos, nuestros datos alimentarán, paso a paso, modelos predictivos basados en algoritmos que implicarán un creciente control sobre nuestras vidas.
En este contexto, surgen preguntas que requieren de urgentes respuestas. En primer lugar, ¿cómo identificamos el nivel de sesgo que estos algoritmos generan o profundizan en nuestras vidas? Por otra parte, ¿cómo diseñamos políticas públicas globales que apunten a dotar de un marco regulatorio mínimo para hacer más transparente el funcionamiento de los algoritmos, traspasarnos a los usuarios un mayor control sobre ellos y así minimizar su impacto en nuestras vidas?
Estamos a meses de iniciar un nuevo ciclo de decisiones cruciales para Chile. Entre 2020 y 2021 enfrentaremos nuevos procesos eleccionarios (municipales, regionales, parlamentarias y presidenciales), con definiciones frente a desafíos en nuestra sociedad, en diversas áreas tales como el cambio climático, el modelo de desarrollo y varias reformas muy relevantes para Chile y la sociedad que queremos construir. En este período, como ha ocurrido crecientemente en el pasado reciente, recurriremos a buscadores y redes sociales para informarnos y decidir nuestros votos, sin darnos cuenta de que, en la mayor parte de los casos, nos entregarán contenidos que solo confirmarán nuestras opiniones, afectando nuestra capacidad de deliberar. Y detrás de esos contenidos que consumiremos habrá estrategias cuidadosamente diseñadas para, aprovechando los algoritmos, influir en nuestras decisiones.
¿Existe alguna solución de corto plazo? Ninguna, salvo que cada uno de nosotros tome conciencia de la realidad en la que vivimos y no perdamos nuestra capacidad de discernimiento y cuestionamiento, ya que, tal como lo vimos con múltiples ejemplos, no todo lo que está en Internet es cierto. Lo que Internet nos muestra es, cada vez más, el resultado de algoritmos a los que, clic a clic, entrenamos para que nos muestren, cual caverna platónica, la burbuja en que vivimos.
Referencias:
(1) Trump will win the election and is more popular than Obama in 2008, AI system finds, CNBC, 28-oct-2016 – (Enlace)
(2) How’s Life in the Digital Age? – Opportunities and Risks of the Digital Transformation for People’s Well-being, OECD, 26-feb-2019 – (Enlace)
(3) Designing Organizations for an Information-Rich World, Herbert Simon et Al., 1971 – (Enlace)
(4) Sabías que tus búsquedas en la web no son neutras, Alejandro Barros, 14-febrero-2012 – (Enlace)
(5) Una serendipia es un descubrimiento o un hallazgo afortunado, valioso e inesperado que se produce de manera accidental o casual.
(6) Noticias falsas. Es complicado, Claire Wardle, First Draft, 14-marzo-2017 – (Enlace)
(7) Deep Feelings: A Massive Cross-Lingual Study on the Relation between Emotions and Virality, Marco Guerini y Jacopo Staiano, ACM, 18-mayo-2015 – (Enlace)
(8) ¿Es posible acabar con los sesgos de los algoritmos?, Ricardo Baeza-Yates y Karma Peiró, 15-julio-2019 – (Enlace)
(9) Facebook commissioned a study of alleged anti-conservative bias. Here’s what it found, Kerry Flynn, CNN Business, 20-agosto-2019 – (Enlace)
(10) Twitter won’t autoban neo-Nazis because the filters may ban GOP politicians – (Enlace)
(11) Demasiado grande para confiar: Facebook puede influir sobre el voto y nadie lo controla, Lucía Velasco y Daniel Rubio, Agenda Pública, El País, 24-junio-2019 – (Enlace)
(12) Tim Berners-Lee: I invented the web. Here are three things we need to change to save it, Tim Berners-Lee, The Guardian, 12-marzo-2017 – (Enlace)
Fuentes:
Revista Mensaje / Imagen: University of Oxford