Argentina | Netflix | redes sociales | Google

El problema del sesgo en el reinado de los algoritmos

Lo que vemos, pensamos y hacemos puede estar muy influido por el modelo de inteligencia artificial que utilizan buscadores, la plataformas de comercio, de entretenimiento y sobre todo las redes sociales. Pero un estudio sostiene que creemos que nuestro pensamiento es independiente y forjado por nuestra razón, únicamente. ¿Cómo salir de la matrix?

En la era de la información, paradójicamente vivimos en un tupper. Un tupper customizado, personalizado, que no elegimos. Si hacemos una búsqueda en Google y le pedimos a un amigo que haga lo mismo, tendremos resultados completamente distintos. ¿El motivo? El triunfo de los algoritmos en nuestra vida. Google ya había lanzado en 2009 la nueva personalización en los buscadores: 57 indicadores que estiman cómo eres y qué te gusta y con todo ello, te arroja la información más acorde a tus gustos.

Esto tiene ventajas, no se discute: nos ayudan a seleccionar información en el mar de datos en el que nos encontramos. Pero también fuertes desventajas, porque los algoritmos también presentan muchos inconvenientes que afectan a nuestro día a día aunque no nos demos ni cuenta.

El buscador de Google no es el único, ni mucho menos. Instagram, Tik Tok, Facebook o YouTube te van a mostrar los anuncios que más encajan a tu perfil. En el caso de Netflix, por ejemplo, el 60% de las propuestas que te sugieren son en base a conjeturas personalizadas acerca de tus gustos.

El 60% de las propuestas que nos sugiere Netflix son en base a conjeturas personalizadas acerca de nuestros gustos. El 60% de las propuestas que nos sugiere Netflix son en base a conjeturas personalizadas acerca de nuestros gustos.

El 60% de las propuestas que nos sugiere Netflix son en base a conjeturas personalizadas acerca de nuestros gustos.

Las dos caras de la inteligencia algorítmica

Así pues, los algoritmos piensan por nosotros y nos hacen la vida más fácil, pero también más irreal y filtrada. Esto es lo que algunos teóricos denominan la “burbuja de filtros”, que altera nuestra manera de encontrar ideas e información.

Recordemos lo que ocurrió con las noticias falsas o “fake news” en 2016, cuando ganó Trump las presidenciales de Estados Unidos. Mientras que jóvenes de Macedonía llegaban a facturar más de mil dólares por cada noticia inventada que lograba efecto, los algoritmos las ponían en la mesa de los potenciales votantes a Trump gracias a todos los cálculos de audiencia que hacían día tras día. Y aquí lo estremecedor: nadie es insensible a este tipo de información. En efecto, aunque el 60% de los humanos creamos que podemos distinguir entre la verdad y lo inventado, se ha comprobado que el 86% nos equivocamos, como se desprende de un estudio realizado por la Universidad de Complutense de Madrid el año pasado denominado “Lo que creemos sobre lo que creemos”.

Sucede que accedemos a una información permanentemente filtrada y sesgada y tomamos decisiones políticas, sociales o emocionales en base a ello. Y por si todo lo anterior fuera poco, además, creamos colmenas de pensamiento en grupos de Whatsapp o de amigos, en los que repetimos la misma argumentación una y otra vez, confirmando que tenemos razón.

Ideas para salir del tupper

Ante esto, ¿Qué podemos hacer? Lo primero de todo, sería intentar rodarse de “raros”, una manera jocosa de decir gente diferente a nosotros. Buscar gente diversa, que haga cuestionarnos constantemente lo que pensamos. Lo políticos necesitan aduladores, pero necesitan más a los fieles que les dicen cosas diferentes a las que piensan. Lo mismo pasa con cada uno de nosotros y los algoritmos.

Si nuestro entorno y los queridos algoritmos nos dan la razón, tenemos poco margen de maniobra para ver el mundo desde otros ojos. Seguir a personas con criterios diferentes en las redes sociales, acercarnos a gente que sea muy distinta y, simplemente, escuchar.

Segundo. Sería bueno apoyarnos en fuentes fiables. Las noticias sensacionalistas tienen más posibilidades de correr como la pólvora por las redes sociales pero pueden estar flojitas de fuentes. Marc Amorós García recoge en su libro “Fake News” un vaticinio que las ciencias sociales ya había vertido: en 2025 la mitad de las noticias que leamos serán inventadas. Así pues, para prepararnos para una emocionante escalada de información ruidosa necesitamos apoyarnos en fuentes serias y rigurosas. No por casualidad veremos en Linkedin o Glassdoor que ya no se piden periodistas, sino “content managers”, es decir, creadores de contenido para la industria del marketing.

Tercero, podría ser útil convertirnos en “buscadores de arrugas”. Los algoritmos y el pensamiento colmena tienden a forzarnos a un pensamiento único. Un buen objetivo sería salirnos de ahí. Al igual que el Photoshop crea rostros perfectos, sin imperfecciones o arrugas y alejados de la realidad, necesitamos buscar lo diferente y disfrutar de ello. Solo así conseguiremos -si es que podemos- entrenar esa mirada distinta y más amplia.

Dejá tu comentario