sábado, 1 de febrero de 2025

Los esclavos (y los dueños) del algoritmo [publicado el 17.1.25 en www.theobjective.com)

 

Varios son los libros que en el último lustro han reflexionado acerca de la Inteligencia artificial (IA) y el modo en que los algoritmos, de una u otra manera, están silenciosamente determinando nuestras vidas.

Cada vez que recibimos publicidad en nuestro móvil, cuando queremos ver una película o se nos aparece en una red social la publicación de un amigo en detrimento de otro, hay detrás un algoritmo. También lo hay cuando buscamos información en Google, se nos destacan determinadas noticias, le hablamos a Alexa en nuestra casa inteligente o le pedimos al ChatGPT que nos ayude a escribir algo.

Pero esto no se queda aquí: ya existen Estados que usan los algoritmos para diseñar políticas públicas, sistemas de vigilancia o predecir comportamientos delictivos. Todo en menos de una década y en pleno proceso de aceleración. Salir de ese control y de esa continua cesión voluntaria de datos resulta imposible para cualquiera que pretenda una vida en sociedad. Eso es, al menos, lo que parece, y sobre lo que quiere advertirnos la periodista Laura G. de Rivera en un libro que acaba de publicar Debate y cuyo título es, justamente, Esclavos del algoritmo.  

Lo más original del libro parece ser un diálogo tácito con las más recientes publicaciones entre las que podríamos nombrar textos como ¿Ética o ideología de la inteligencia artificial? de Adela Cortina o Nexus de Yuval Harari, ambos comentados en este mismo espacio.

Dicho de otra manera: en el diagnóstico hay más o menos coincidencia en cualquiera que se adentre en la materia porque la evidencia es abrumadora, pero más allá de las críticas que podamos dirigir al oligopolio de las grandes empresas tecnológicas, hay debates más controversiales con final abierto.

Si tomamos el mencionado libro de Harari, por ejemplo, allí hay una lectura bastante alarmista respecto a la posibilidad de una IA capaz de autonomizarse y dominar a los humanos reeditando algunos clásicos de la literatura y hasta viejas leyendas como las del Golem de Praga.

Sin embargo, de Rivera se posiciona en otro lugar:

“No es la IA, son las personas. Son humanos como tú y como yo los que están detrás de los algoritmos de las grandes plataformas, de las redes sociales, de los sistemas financieros automatizados de la bolsa, de los coches autónomos”.

Podría decirse, entonces, que el libro llama a una suerte de desenmascaramiento, un correr el velo para mostrar que el rey está desnudo, o que, en todo caso, se trata de los mismos de siempre exacerbando las injusticias pretéritas. Algo así como la última novedad del poder para imponerse por consenso presentándose como una tecnocracia necesaria, neutral y objetiva.   

De Rivera llega a esa conclusión a través de denuncias varias contra las grandes empresas tecnológicas por la silenciosa contribución a la contaminación ambiental, las condiciones de semiesclavitud a la que someten a empleados del tercer mundo o el modo en que lanzan productos al mercado de manera improvisada con los usuarios como conejillos de indias. Asimismo, se hace referencia a la destrucción de la privacidad que supone el extractivismo de datos que, en el mejor de los casos, está al servicio de la cultura del consumo hedonista y, en el peor, es material esencial para el control de los ya mencionados sistemas de vigilancia llevados adelante por los Estados especialmente después de la pandemia.

A propósito de ello, en el libro se menciona, por caso, el ejemplo de John Sudworth, un periodista de la BBC que hizo un experimento en colaboración con la policía de Guiyang, una ciudad china de más de 3 millones de habitantes. Los agentes solo tenían su foto, no sabían a dónde se dirigía y el experimento consistía en averiguar cuánto tiempo tardaría el sistema de vigilancia en encontrarlo. Fueron solo 7 minutos. Sí, tan sorprendente y atemorizante como el resultado de un trabajo realizado por Michal Kosinski con 58000 voluntarios. En este caso, se comprobó que con solo 68 Likes que una persona brinde en alguna red social, el programa diseñado por el investigador era capaz de describir la personalidad del voluntario con bastante éxito, pero también el color de piel (95% de aciertos), la inclinación sexual (88%) y hasta su filiación política (85%).

También se mencionan, claro está, el caso de manipulación política de Cambridge Analytica aunque se agradece el reconocimiento de que no se trata de un caso único. De hecho, de Rivera menciona un informe del Programa para la Democracia y la Tecnología del Oxford Internet Institute que indica que solo en el año 2020 hubo acciones de desinformación y manipulación a gran escala en 81 países, esto es, no solamente en aquellos donde ganan autócratas o los candidatos que no nos gustan. 

A propósito de desinformación, se menciona el curioso caso de las deepfakes que, dicho de manera poco técnica, refiere a una manipulación de imágenes o audios con un nivel de realismo escalofriante. Ya ha ocurrido, y ocurrirá cada vez más a menudo, toparnos con campañas en las que se pone en boca de un candidato cosas que no dijo o se lo hace aparecer en un lugar que nunca estuvo. Sin embargo, a juzgar por los números, parece que, por ahora, quienes deben estar más preocupadas son las mujeres famosas. Es que, según un estudio realizado en 2019 por la compañía de ciberseguridad DeepTrace, alrededor del 96% de los deepfakes que se generan en el mundo son de contenido pornográfico. Pareciera, entonces, que el onanismo es más fuerte que el deseo de llegar al gobierno.

Sin embargo, como comentábamos al inicio, el eje del libro apunta a dejar ver los hilos y a desacralizar las fantasías del solucionismo tecnológico.

De aquí que buena parte del texto apunte a exponer los sesgos existentes detrás de los algoritmos y la IA. 

“Tenemos demasiado inculcada la creencia de que un puñado de unos y ceros será, sin duda, más racional, efectivo e infalible que un humano. Pero si creemos eso es porque olvidamos que ese código informático ha sido entrenado con datos del pasado, de cientos de miles de decisiones y valoraciones hechas por personas. Con sus propios prejuicios, sus errores y su forma subjetiva de ver el mundo. Por eso, por muy sofisticado y excelente que sea, todo lo que puede llegar a hacer el machine learning es replicar los prejuicios con los que haya sido entrenado”.

En la misma línea, el libro apunta a aquellos que se maravillan con las posibilidades literarias de la IA y hasta hablan de máquinas sintientes, eventuales personas con derechos. Frente a ello, de Rivera aclara que una IA podrá escribir un libro, pero no entiende lo que dice ni lo que le preguntas. Es solo un modelo matemático ultrasofisticado que en tiempo récord calcula la probabilidad de que una palabra venga después de otra.  

Donde quizás el libro se hace más débil es en la parte final cuando se interroga acerca del qué hacer. Más allá de analizar y valorar el esfuerzo de los legisladores de la UE, aun con su sesgo proempresas, la autora considera que además de una buena legislación, es necesario recuperar nuestra capacidad de decisión sin aceptar por defecto cualquier producto tecnológico, educar a la población y establecer algo así como una ética. Este último aspecto no aparece del todo bien desarrollado en comparación con textos como el ya mencionado de Cortina y el resto oscila entre el voluntarismo y la romantización de una presunta libertad individual opuesta a una deshumanizadora tecnología:

“El verdadero progreso es el que nace del interior de las personas. Del florecimiento de nuestras capacidades. No te dejes engañar por los que repiten que la tecnología es el futuro (…) El futuro está en ti, persona de carne y hueso. (…) La resignación es el pan de los esclavos. Atrévete a librepensar”.    

Aun así, se podría rescatar la intención de señalar que, detrás de la pretendida neutralidad de las secuencias de unos y ceros programados según leyes de la estadística, hay intereses y hay beneficiarios, lo cual significa que los algoritmos son productos históricos y contingentes. Este punto no es para nada menor y asumirlo como tal podría ser revolucionario por el simple hecho de que permitiría abrir la posibilidad a que aquello que nos presentan como dado, pueda ser pensado de otra manera.  

 

 

 


No hay comentarios: