Varios son los libros que en el
último lustro han reflexionado acerca de la Inteligencia artificial (IA) y el
modo en que los algoritmos, de una u otra manera, están silenciosamente
determinando nuestras vidas.
Cada vez que recibimos publicidad
en nuestro móvil, cuando queremos ver una película o se nos aparece en una red
social la publicación de un amigo en detrimento de otro, hay detrás un
algoritmo. También lo hay cuando buscamos información en Google, se nos
destacan determinadas noticias, le hablamos a Alexa en nuestra casa inteligente
o le pedimos al ChatGPT que nos ayude a escribir algo.
Pero esto no se queda aquí: ya existen
Estados que usan los algoritmos para diseñar políticas públicas, sistemas de
vigilancia o predecir comportamientos delictivos. Todo en menos de una década y
en pleno proceso de aceleración. Salir de ese control y de esa continua cesión
voluntaria de datos resulta imposible para cualquiera que pretenda una vida en
sociedad. Eso es, al menos, lo que parece, y sobre lo que quiere advertirnos la
periodista Laura G. de Rivera en un libro que acaba de publicar Debate y cuyo
título es, justamente, Esclavos del
algoritmo.
Lo más original del libro parece ser
un diálogo tácito con las más recientes publicaciones entre las que podríamos nombrar
textos como ¿Ética o ideología de la
inteligencia artificial? de Adela Cortina o Nexus de Yuval Harari, ambos comentados en este mismo espacio.
Dicho de otra manera: en el
diagnóstico hay más o menos coincidencia en cualquiera que se adentre en la
materia porque la evidencia es abrumadora, pero más allá de las críticas que
podamos dirigir al oligopolio de las grandes empresas tecnológicas, hay debates
más controversiales con final abierto.
Si tomamos el mencionado libro de
Harari, por ejemplo, allí hay una lectura bastante alarmista respecto a la
posibilidad de una IA capaz de autonomizarse y dominar a los humanos reeditando
algunos clásicos de la literatura y hasta viejas leyendas como las del Golem de
Praga.
Sin embargo, de Rivera se
posiciona en otro lugar:
“No es la IA, son las personas.
Son humanos como tú y como yo los que están detrás de los algoritmos de las
grandes plataformas, de las redes sociales, de los sistemas financieros
automatizados de la bolsa, de los coches autónomos”.
Podría decirse, entonces, que el
libro llama a una suerte de desenmascaramiento, un correr el velo para mostrar
que el rey está desnudo, o que, en todo caso, se trata de los mismos de siempre
exacerbando las injusticias pretéritas. Algo así como la última novedad del
poder para imponerse por consenso presentándose como una tecnocracia necesaria,
neutral y objetiva.
De Rivera llega a esa conclusión
a través de denuncias varias contra las grandes empresas tecnológicas por la
silenciosa contribución a la contaminación ambiental, las condiciones de
semiesclavitud a la que someten a empleados del tercer mundo o el modo en que lanzan
productos al mercado de manera improvisada con los usuarios como conejillos de
indias. Asimismo, se hace referencia a la destrucción de la privacidad que
supone el extractivismo de datos que, en el mejor de los casos, está al
servicio de la cultura del consumo hedonista y, en el peor, es material
esencial para el control de los ya mencionados sistemas de vigilancia llevados
adelante por los Estados especialmente después de la pandemia.
A propósito de ello, en el libro
se menciona, por caso, el ejemplo de John Sudworth, un periodista de la BBC que
hizo un experimento en colaboración con la policía de Guiyang, una ciudad china
de más de 3 millones de habitantes. Los agentes solo tenían su foto, no sabían
a dónde se dirigía y el experimento consistía en averiguar cuánto tiempo
tardaría el sistema de vigilancia en encontrarlo. Fueron solo 7 minutos. Sí,
tan sorprendente y atemorizante como el resultado de un trabajo realizado por
Michal Kosinski con 58000 voluntarios. En este caso, se comprobó que con solo
68 Likes que una persona brinde en
alguna red social, el programa diseñado por el investigador era capaz de
describir la personalidad del voluntario con bastante éxito, pero también el
color de piel (95% de aciertos), la inclinación sexual (88%) y hasta su
filiación política (85%).
También se mencionan, claro está,
el caso de manipulación política de Cambridge Analytica aunque se agradece el
reconocimiento de que no se trata de un caso único. De hecho, de Rivera
menciona un informe del Programa para la Democracia y la Tecnología del Oxford
Internet Institute que indica que solo en el año 2020 hubo acciones de
desinformación y manipulación a gran escala en 81 países, esto es, no solamente
en aquellos donde ganan autócratas o los candidatos que no nos gustan.
A propósito de desinformación, se
menciona el curioso caso de las deepfakes
que, dicho de manera poco técnica, refiere a una manipulación de imágenes o
audios con un nivel de realismo escalofriante. Ya ha ocurrido, y ocurrirá cada
vez más a menudo, toparnos con campañas en las que se pone en boca de un
candidato cosas que no dijo o se lo hace aparecer en un lugar que nunca estuvo.
Sin embargo, a juzgar por los números, parece que, por ahora, quienes deben
estar más preocupadas son las mujeres famosas. Es que, según un estudio
realizado en 2019 por la compañía de ciberseguridad DeepTrace, alrededor del
96% de los deepfakes que se generan
en el mundo son de contenido pornográfico. Pareciera, entonces, que el onanismo
es más fuerte que el deseo de llegar al gobierno.
Sin embargo, como comentábamos al
inicio, el eje del libro apunta a dejar ver los hilos y a desacralizar las
fantasías del solucionismo tecnológico.
De aquí que buena parte del texto
apunte a exponer los sesgos existentes detrás de los algoritmos y la IA.
“Tenemos demasiado inculcada la
creencia de que un puñado de unos y ceros será, sin duda, más racional,
efectivo e infalible que un humano. Pero si creemos eso es porque olvidamos que
ese código informático ha sido entrenado con datos del pasado, de cientos de
miles de decisiones y valoraciones hechas por personas. Con sus propios
prejuicios, sus errores y su forma subjetiva de ver el mundo. Por eso, por muy
sofisticado y excelente que sea, todo lo que puede llegar a hacer el machine learning es replicar los
prejuicios con los que haya sido entrenado”.
En la misma línea, el libro
apunta a aquellos que se maravillan con las posibilidades literarias de la IA y
hasta hablan de máquinas sintientes,
eventuales personas con derechos.
Frente a ello, de Rivera aclara que una IA podrá escribir un libro, pero no entiende
lo que dice ni lo que le preguntas. Es solo un modelo matemático
ultrasofisticado que en tiempo récord calcula la probabilidad de que una
palabra venga después de otra.
Donde quizás el libro se hace más
débil es en la parte final cuando se interroga acerca del qué hacer. Más allá
de analizar y valorar el esfuerzo de los legisladores de la UE, aun con su
sesgo proempresas, la autora considera que además de una buena legislación, es
necesario recuperar nuestra capacidad de decisión sin aceptar por defecto
cualquier producto tecnológico, educar a la población y establecer algo así
como una ética. Este último aspecto no aparece del todo bien desarrollado en
comparación con textos como el ya mencionado de Cortina y el resto oscila entre
el voluntarismo y la romantización de una presunta libertad individual opuesta
a una deshumanizadora tecnología:
“El verdadero progreso es el que
nace del interior de las personas. Del florecimiento de nuestras capacidades.
No te dejes engañar por los que repiten que la tecnología es el futuro (…) El
futuro está en ti, persona de carne y hueso. (…) La resignación es el pan de
los esclavos. Atrévete a librepensar”.
Aun así, se podría rescatar la
intención de señalar que, detrás de la pretendida neutralidad de las secuencias
de unos y ceros programados según leyes de la estadística, hay intereses y hay
beneficiarios, lo cual significa que los algoritmos son productos históricos y
contingentes. Este punto no es para nada menor y asumirlo como tal podría ser revolucionario
por el simple hecho de que permitiría abrir la posibilidad a que aquello que
nos presentan como dado, pueda ser pensado de otra manera.
No hay comentarios:
Publicar un comentario