Los algoritmos utilizados por los sitios web y las redes sociales internautas destacan con frecuencia informaciones falsas y manipuladas, con peligrosas consecuencias.
Estos programas informáticos, que toman decisiones de forma autónoma, ocupan un lugar esencial pero invisible en la red, influyendo así en la vida diaria de sus usuarios.
Su habilidad para filtrar y establecer conexiones entre una masa gigantesca de datos los dota de una inteligencia artificial que les permite realizar todo tipo de operaciones, como calcular de forma personalizada el costo de un seguro o establecer un diagnóstico médico.
En los motores de búsqueda, los medios y las redes sociales, los algoritmos clasifican las informaciones, gestionan el hilo de actualidad, por ejemplo, de Facebook, censuran contenidos indeseables (racismo, pornografía, violencia…), recomiendan videos y artículos, etc.
“Los algoritmos nos pueden guiar a través de la masa de información disponible en internet”, señaló el mes pasado Margrethe Vestager, comisaria europea de Competencia. Pero “el riesgo es que sólo veamos lo que estos programas -y las empresas que los utilizan- eligen mostrarnos”, resumió.
Al reorganizar los contenidos en línea, los algoritmos crean “burbujas de filtros” homogéneas, donde las opiniones divergentes desaparecen.
Los algoritmos también tienden a hacer “más visibles que nunca” las opiniones extremas, según Lorena Jaume-Palasi, fundadora de la ONG Algorithm Watch. No obstante, sus efectos en la opinión de los lectores son difíciles de medir. Por ejemplo -explica- no se puede atribuir únicamente a los algoritmos el auge de los nacionalismos en Europa.
Los algoritmos de las redes sociales tienen como misión principal hacer circular los contenidos más populares, independientemente de su veracidad. Por lo tanto contribuyen a difundir las noticias falsas.
Principalmente en YouTube, miles de videos que defienden tesis complotistas son mucho más “recomendados” por los usuarios que los contenidos verificados, según Guillaume Chaslot, un exingeniero de la plataforma. Así, los videos que reivindican que el hombre nunca pisó la Luna o niegan el cambio climático captan más la atención de los algoritmos y por ello se difunden durante más tiempo, en detrimento de los medios tradicionales.
Pero los algoritmos también pueden ser reprogramados “al servicio de la libertad humana”, según algunos observadores.
Las ONG reclaman ante todo más transparencia.
“Coca-cola no revela su fórmula pero los efectos de sus productos en la salud son examinados”, ilustra Jaume-Palasi, pidiendo una mayor regulación.
Una comisión francesa recomendó en 2017 un mayor control estatal de los algoritmos, pero también una verdadera educación de los usuarios para que comprendan su funcionamiento.
El nuevo reglamento europeo sobre protección de datos permite impugnar la decisión de un algoritmo y “obtener una intervención humana” en caso de conflicto.
Las grandes plataformas de la web también empezaron a tomar medidas: Facebook se esfuerza por detectar y etiquetar automáticamente las noticias dudosas, mientras que YouTube reforzó el control humano de los videos para niño difundidos.
Pero algunos “arrepentidos” de Silicon Valley, reunidos en la ONG Center for Humane Technology, subrayan que no es de esperar que el cambio venga de las empresas que se basan en la “economía de la atención”, como YouTube, Facebook, Snapchat, y Twitter, puesto que “va en contra de su modelo económico”.
Con información de: Taimaz SZIRNIKS © Agence France-Presse