El impacto de Nexus, el nuevo libro del
historiador israelí Yuval Harari, el cual incluye un pronóstico apocalíptico
respecto a las posibles consecuencias del uso de la Inteligencia artificial
(IA) sobre nuestras vidas, ha contribuido a reflotar, en los últimos días, un
debate que al público en general le resulta lejano cuando no directamente
incomprensible.
Mientras tanto, las compañías que se
disputan el mercado de la IA avanzan enloquecidamente ofreciendo, en el mejor
de los casos, la dádiva de comités de ética internos como estrategia de
marketing de cara a la sociedad, y los gobiernos y las instituciones
supranacionales nombran a sus propios expertos con rostros
adustos, apasionados por una protocolización de la vida que habla más de
sus ideologías que de su rigor técnico.
El aspecto más polémico del libro de Harari
es aquel que indica que la potencial autonomía de la IA supone una amenaza para
la democracia y para la supervivencia humana.
En el fondo de este tipo de afirmaciones
está ese temor que es un clásico de mitos, leyendas y cuentos acerca de la
posibilidad de que una creación humana devenga contra sus propios creadores.
Frankestein, el Gólem de Praga y una lista infinita de casos sirven de ejemplo
para graficar un terror humano, demasiado humano, que recae sobre los Hombres
cuando "juegan a ser Dios".
Sin embargo, lo que permanecía en el
terreno de la fantasía, parece acercarse cada vez más al terreno de lo posible.
De hecho, para Harari, justamente, la gran novedad de esta tecnología es su
capacidad para autonomizarse. Este es su diferencial y lo que la hace tan
peligrosa porque hasta ahora, incluso el uso de energía atómica para crear una
bomba y lanzarla, dependía, en última instancia, de una decisión humana. Pero
el gran interrogante es qué sucedería si una inteligencia artificial, es decir,
no humana, pudiera tomar esa decisión por sí sola.
Ahora bien, si no queremos ir tan lejos
como Harari, aun a riesgo de vender menos libros, claro, podríamos posarnos en
las preguntas que la IA plantea para la democracia. Allí no hace falta
profetizar tanto porque los resultados ya son palpables. Me refiero al modo en
que los algoritmos promueven visiones parciales, burbujas que hacen que
acabemos rodeados de aquello que confirma nuestros prejuicios mientras
suponemos estar ante una muestra representativa de la complejidad de la
realidad.
Aquí mencionamos el libro de Harari pero
donde mejor se explica esto es en el libro Código roto de Jeff Horwitz, el
periodista que publicó el escándalo conocido como "Los papeles de
Facebook". Se trata de una investigación esclarecedora porque allí se
expone el modo en que la empresa de Mark Zuckerberg diseñó algoritmos con el
fin de lograr que los usuarios pasen más tiempo navegando en la plataforma. El
punto es que una inteligencia artificial que sólo sabe cumplir objetivos,
observó que los usuarios se sienten más atraídos por publicaciones, amistades o
grupos cuyos posteos fomentan la polémica, las conspiraciones, las fake news y
el odio.
Lo interesante del libro de Horwitz y la
investigación que allí se revela como producto de una filtración, es que
Facebook lo sabía y que todas las medidas que tomaron se realizaron siempre y
cuando no afectaran al negocio. Pero sobre todo, algo quizás más preocupante,
es que los ingenieros aceptaron que los algoritmos tomaban decisiones que eran
completamente imprevisibles. Es decir, los algoritmos habían devenido
incontrolables.
Sirviéndose de ejemplos como este, Harari
plantea un escenario donde habría algo así como dos grandes corrientes
dominando la discusión pública en torno a qué hacer. Se trata de un planteo
simplista y falaz cuya única intención es posarse en un pretendido lugar de neutralidad
que no es tal.
Pero lo cierto es que él distingue entre
una mirada que sería propia de Silicon Valley y que él denomina "visión
ingenua" que considera que, a más información, más cerca se estará de la
Verdad y de la democratización de la palabra; y una mirada populista, la cual
consideraría que la verdad es relativa y que las instituciones occidentales son
solo una mascarada de legitimación del poder de turno.
La falta de precisión de Harari en este
aspecto es espeluznante pero el punto es que él construye estos hombres de paja
para justificar su posición, la misma que sostienen los grandes organismos
supranacionales, esto es, fortalecer instituciones del statu quo y generar
acuerdos globales en nombre de una buena gobernanza, llámese Agenda 2030, Pacto
del futuro o el nombre que la burocracia de turno proponga. Es decir: está el
cuco de los empresarios libertarios de Silicon Valley, prepotentes opositores a
cualquier intervención estatal, y luego está el cuco de los Bolsonaro y los
Trump que creen que no hay Verdad y entonces se benefician de los bulos porque
la gente que los vota a ellos es idiota y manipulable. En el medio está Harari
y toda la vieja burocracia que necesita de un nuevo apocalipsis siempre a punto
de llegar para poder legitimar su existencia.
Ahora bien, lo que Harari no menciona es
que esas instituciones cuya legitimidad está puesta en cuestión, no sólo por
una serie de forajidos conspiranoicos sino por su propia incapacidad,
arbitrariedad y sesgo, al igual que los ingenieros de las compañías, tampoco
saben bien qué hacer con la IA. Es decir, los encargados de controlar a los
diseñadores que impulsan las fantasías tecnocráticas de manual con argumentos
de un iluminismo ramplón y adolescente que, por favorecer su negocio, han sido
funcionales a la proliferación de conspiraciones, falsedades y delirios, no
tienen para ofrecer más respuestas que una maraña de normas de control siempre
obsoletas y el sostenimiento de una casta de burócratas solventados con dineros
públicos.
Son los mismos que ensalzaban las redes
cuando años atrás favorecían su agenda y ahora las denuncian porque, más allá
de que efectivamente son espacio para todo tipo de material cloacal, son
también el único canal desde el cual se pueden alzar voces contra la hegemonía
cultural progresista.
Sin saber verdaderamente qué hacer,
demostrando su incapacidad una vez más, el accionar de esta burocracia obedece
más a razones ideológicas y a un temor que se evidencia en la creación de
diversos dispositivos que garanticen nuevas y sofisticadas formas de
control.
Si el fanatismo tecnocrático del espíritu
emprendedorista de Silicon Valley lleva al mismo descontrol desregulador que un
supuesto populismo relativista para el cual los bulos y la Verdad son solo
distintas formas igualmente válidas de hacerse con el poder, las actuales
instituciones que proponen regulaciones carecen de legitimidad por su propia
incapacidad y por los demostrados sesgos de sus intervenciones pretéritas.
Digamos, entonces que, más allá de los
peligros de una tecnología capaz de autonomizarse, un problema más urgente es
esta crisis de legitimidad de las instituciones que pretenden limitar dicha
tecnología.
Por ello, es necesario concluir afirmando
que nuevas instituciones con visiones más equilibradas y mayor eficiencia
técnica no serán suficiente para detener todos los eventuales peligros de la
IA, pero serán, sin duda, una condición necesaria.
No hay comentarios:
Publicar un comentario