Más de veinticinco mil páginas de
documentación interna proporcionadas por una exempleada arrepentida, sumado a
más de sesenta entrevistas que incluyen a los más altos ejecutivos, constituyen
la robusta base documental del libro que narra con exquisito detalle el
escándalo conocido como “Papeles de Facebook”.
Código roto es el nombre de la obra y el autor es Jeff Horwitz,
el mismo periodista que publicara la investigación allá por octubre de 2021 en
el The Wall Street Journal con unas derivaciones inquietantes. Es que no
solo se repasa el modo en que los usuarios de Facebook se encuentran a merced
de una real experimentación de ingeniería social que es planificada y, a la
vez, peligrosamente improvisada; sino que también se expone el modo en que, una
y otra vez, Facebook fue, como mínimo, negligente, al momento de enfrentar las
consecuencias de su dinámica expansiva.
El origen de la investigación de
Horwitz probablemente haya sido una pregunta que todos nos hemos hecho alguna
vez: ¿cómo determinan los algoritmos qué mensajes priorizar o qué nuevos
perfiles de usuarios agregar? Aleatorio no es. Entonces, ¿quién lo decide y con
qué fines? Por último, ¿tienen razón aquellos que acusan a Facebook de fomentar
la polarización de nuestras sociedades? En otras palabras, ¿es Facebook un
simple canal neutral de comunicación entre personas donde se expone lo mejor y
lo peor de la naturaleza humana o hay algo inherente al diseño y al plan de
negocios de la compañía que estimula determinadas pasiones?
Con la intención de responder a
esos interrogantes digamos, por lo pronto, que la filtración arrojó, entre
otras cosas, que a través de la plataforma se facilitó el tráfico de mujeres
con fines laborales y/o sexuales en el Golfo Pérsico; se promovió la limpieza
étnica contra musulmanes tanto en Birmania como en la India y se desinformó
acerca de la vacuna contra la covid-19, entre otras cosas.
Una vez más, este listado puede
hablar simplemente de la naturaleza humana y del uso de una herramienta. Sin
embargo, la conclusión del libro es clara: Facebook conocía perfectamente estos
hechos y actuó con mayor o menor énfasis para dar cuenta de ello siempre y
cuando esas acciones no afectaran la dinámica expansiva de la plataforma.
Como se ve, la investigación
tiene muchas aristas, pero Horwitz hace especial hincapié en XCheck, un
programa de Facebook a través del cual se le daba un trato preferencial a
usuarios VIP de todo el mundo. Se trataba de una salida para un gran dilema: Mark
Zuckerberg quiso ser siempre un paladín de la libertad de expresión, pero
sucesos como los de la India o Birmania lo hicieron tomar conciencia de que, a
veces, era necesario bloquear contenido. Efectivamente, las redes sociales
podían generar una revolución liberal como la primavera árabe pero también ser
el canal a través del cual se difundieran bulos para legitimar genocidios.
Entonces era necesario actuar. Por ello se establecieron criterios razonables para
impedir contenido que fomentara la violencia, el racismo, la trata de personas,
la pornografía infantil, etc. Sin embargo, como no se disponía de recursos
técnicos ni humanos para controlar todas las publicaciones y, al mismo tiempo,
se generaría gran escándalo en caso de que se censuraran cuentas con muchos
seguidores, se decidió que unas siete millones de personas en el mundo,
políticos, influencers, famosos, etc., serían inmunes a la censura que le
cabría a cualquier usuario que incumpliera las normas. “Facebook Casta” podría
haber sido el nombre del nuevo programa.
Pero esto es menor al lado del modo
en que se descubrió que Facebook modificó el algoritmo de modo tal que acabó
fomentando la proliferación de opciones radicales y violentas.
Efectivamente, ahora se animaba a
los usuarios a hacer clic sobre contenido de gente que no conocen, como así
también se les sugería formar parte de grupos con presuntos intereses comunes. Ya
en 2016 Facebook sabía que esto generaba interacciones y más usuarios pero era,
a su vez, echar fuego hacia grupos fanáticos proclives a difundir noticias
falsas. Sin embargo, en 2020, hicieron muy poco para impedir que Facebook
sugiriera participar en algunos de los grupos de QAnon, aquellos que estuvieron
implicados en la toma del Capitolio. Para tener una idea de lo que la plataforma
permite, un solo usuario envió, a lo largo de seis meses, cuatrocientas mil invitaciones
a participar en esos grupos. Aunque la violencia, el odio y la información
falsa podrían haberse mitigado restringiendo las posibilidades de compartir
contenido mediante enlaces, como sucede en Instagram, Facebook, al igual que
Bartleby, prefirió no hacerlo.
En esta misma línea, los
esfuerzos fueron escasos para revertir aquello que denunciara Eli Pariser en
una ya mítica charla TED que resultó viral y luego devino libro. Lo que el
autor advierte es que Facebook está sesgando la información que recibimos. Por
ejemplo, si eres progresista, el algoritmo te muestra las noticias que
coinciden con ese ideario y suprime las entradas de signo contrario.
Para reforzar este punto, Pariser
hizo una prueba bastante simple, pero, en este caso, con Google. Le pidió a dos
amigos que escriban “Egipto” en el motor de búsqueda. Frente a la opinión
intuitiva que suponía que el resultado sería el mismo para los dos, el
algoritmo había filtrado automáticamente las noticias que, presumía, podían
interesarle más a cada uno. Así, a uno de ellos, activista, le ofreció
información sobre las últimas protestas en aquel país, pero, al otro, mucho
menos politizado, le ofreció paquetes turísticos para visitar las pirámides. La
prueba estaba a la vista: los algoritmos, en su afán de generar interacciones,
Me gustas y dopamina, nos conectan con audiencias redundantes que se
retroalimentan. Nada bueno puede salir de allí.
Al condicionamiento del negocio
se le debe agregar, a su vez, la ya mencionada improvisación negligente. Para
graficarlo con algunos números, antes de bloquear a los ciento cincuenta mil
usuarios que desinformaban sobre la vacuna contra la covid-19, notaron que el
5% generaba la mitad de las publicaciones y que solamente mil cuatrocientos
eran responsables de invitar a la mitad de los miembros de esos grupos. De
haber actuado de otra manera se hubiera evitado que los usuarios de lengua
inglesa recibieran unas setecientas setenta y cinco millones de veces al día
comentarios escépticos respecto a la efectividad de la vacuna; algo similar
sucedió respecto a la incidencia de los rusos, especialmente en el marco de las
elecciones de 2016, a pesar de que estos últimos hicieron ciento veintiséis
millones de publicaciones.
En esta misma línea, tragicómico es lo sucedido en Birmania: no pudieron
hacer nada para frenar la espiral genocida porque no contrataron a nadie que
hablara la lengua local, de modo que los mensajes de odio o los llamados a
masacres no fueron detectados porque el algoritmo es bueno para vender cosas y generar
cámaras de eco que confirman nuestros prejuicios, pero no es políglota. Por
último, una empresa que para 2022 había llegado a un pico de más de ochenta mil
empleados, solo tenía un equipo de seis personas en todo el mundo dedicado a
controlar la compra y venta de personas a través de su plataforma con fines de
explotación laboral y/o sexual, o, incluso, la venta de órganos.
Para que se comprenda la magnitud
del problema que Facebook no quiere/no puede controlar, tengamos en cuenta
algunos números más: la desnudez prohibida solo abarca el 0,05% de las
publicaciones visualizadas y los discursos de odio el 0,2. Sin embargo, si se
incluyen casos fronterizos, el número sube a 10% y si se agregan ciberanzuelos,
e información falsa y engañosa, el número escala a cerca del 20%, es decir, una
de cada cinco publicaciones es mierda. Una verdadera cloaca.
Como les indicaba al principio,
el libro de Horwitz tuvo como principal protagonista a una exempleada, Frances
Haugen, que se ocupó durante meses de copiar todos los documentos posibles con
el fin de denunciar lo que ocurría dentro de la empresa.
Curiosamente, en la última
búsqueda de información que hizo antes de renunciar, escribió “No odio a
Facebook. Me encanta Facebook. Quiero salvarlo”. Luego pulsó “Enter” y apagó el
ordenador.
No hay comentarios:
Publicar un comentario