Existe un amplio consenso respecto
a que el avance de la inteligencia artificial (IA) es imposible de detener. El
proceso es veloz y ni los pronósticos más conspirativos ni la certeza de que
los propios impulsores de este tipo de tecnologías desconocen las consecuencias
de sus desarrollos, son capaces de frenar una marcha que parece inexorable.
De aquí que las discusiones se
posen, en todo caso, en el cómo y el hacia dónde, y que en el marco de las
mismas se abra una serie gigantesca de interrogantes que incluye repensar qué es
lo humano y cómo serán los humanos del futuro.
Un aporte en este sentido es el
nuevo libro de Adela Cortina, ¿Ética o
ideología de la inteligencia artificial?, publicado por Paidós, texto en el
que, desde su clásico posicionamiento, el universalismo cosmopolita kantiano y
la ética del discurso de Habermas, la filósofa aporta categorías desde la cual
reflexionar y establecer criterios básicos para futuras regulaciones en materia
de IA.
Son varias las preguntas que
Cortina realiza a lo largo del libro y, si partimos de la más básica,
deberíamos comenzar interrogándonos acerca de qué entendemos cuando hablamos de
la necesidad de una ética de la IA. ¿Se trata de pensar qué tipo de valores
morales deberían tener las máquinas en el hipotético caso de que éstas pudieran
poseerlos o más bien nos referimos a cuál debería ser la ética con la que los
seres humanos deberíamos servirnos de la IA? Tal distinción no es para nada
menor, por cierto, pero muchas veces las dos preguntas se confunden.
Un segundo interrogante refiere a
si vamos a adoptar estos sistemas inteligentes como instrumentos o como
sustitutos de los seres humanos. Esta pregunta es central para el mundo del
trabajo, pero incluso también para el espacio de nuestras relaciones con “los
otros” en un contexto en el que, pospandemia, han crecido exponencialmente los
casos de seres humanos que intentan suplir los vacíos de la soledad
relacionándose con máquinas, bots y algoritmos.
Profundizando algo más en el
terreno filosófico, Cortina también pretende advertir acerca de esta suerte de
aceptación acrítica que tenemos de la “determinación algorítmica”. ¿Qué lugar
queda para la libertad en un mundo gobernado por una matemática indescifrable y
unos criterios opacos? Un ingeniero programa un algoritmo de modo tal que ni él
mismo puede explicar las decisiones que éste adopta y los usuarios nos
resignamos a esta supuesta superioridad “matemática” o “científica”. Abundan,
en este sentido, ejemplos de fantasías tecnocráticas donde hasta hay quienes se
imaginan computadoras gobernando países de manera “neutral” o, para no irnos
tan lejos, empresas que ya están usando algoritmos para seleccionar su
personal.
Otro aspecto central de la
discusión actual, la cual nos remite a los debates de las últimas décadas en
torno al estatus jurídico de los animales y las acusaciones de especismo para
cualquiera que plantee algún diferencial propio de lo humano, gira en torno al lugar
de las máquinas. ¿Qué sucedería si las máquinas tuvieran conciencia, sentido
moral y autoconciencia? ¿Y si pudieran sufrir? ¿Deberíamos considerarlas
“personas no humanas/no biológicas”? Si ese fuera el caso, ¿parte de sus
derechos y responsabilidades implicarían que formen parte de la comunidad
política pudiendo votar u ocupar cargos públicos? Hemos conocido caballos
senadores y políticos que responden a la prensa como robots, pero reconozcamos
que no es fácil imaginarlo, aunque puede que no estemos tan lejos. De hecho,
Cortina menciona el antecedente de Michihito Matsuda, el androide que, en 2018,
se presentara a las elecciones en Tama, un distrito de Tokio que cuenta con
150.000 habitantes, y obtuviera el tercer puesto con más de 4000 votos, a menos
de 400 votos del segundo. Matsuda prometía acabar con la corrupción y dar
oportunidades justas y equilibradas como hacen todos los políticos, por cierto.
Este punto es por demás
interesante y nos lleva a otro de los interrogantes que plantea Cortina: ¿aun
en el caso de que fuera posible que las máquinas adoptaran una ética, qué tipo
de ética sería? ¿No es demasiado ingenua la idea de que una inteligencia no
humana se sirva de la matemática para establecer criterios justos cuando,
justamente, no existe acuerdo acerca de qué es y qué no es justo? Por ejemplo: ¿se
debe redistribuir la riqueza? ¿Cuánto? ¿Es correcto que algunos tengan más que
otros y que exista gente pobre? ¿Acaso todos deben ganar y tener lo mismo?
¿Cómo programar algoritmos de derecha y de izquierda cuando ya nadie sabe qué
es de derecha y de izquierda?
Como les indicaba al principio,
fiel a su pensamiento kantiano, Cortina se opone a todo tipo de lógica
instrumental defendiendo la dignidad y la autonomía de los seres humanos como
un diferencial. Esto supone distinguirlos de las máquinas, pero también, para
horror de los animalistas, separarlos de los animales, los cuales tienen un
valor pero no alcanzan el mismo estatus que un humano por las mismas razones
que ya expuso Kant y que establecían las características únicas de la
racionalidad humana.
Luego acusa al transhumanismo,
con su promesa de utilización de la tecnología para transformar y “superar” la
especie humana, de estar guiado más por un tipo particular de ideología
individualista que por razones científicas, estableciendo una distinción
tajante entre ideología y ciencia que es, como mínimo, discutible y que pasa
por alto que muchas de las aplicaciones de la tecnología sobre la vida humana
no son meras especulaciones, sino que ya ofrecen resultados concretos.
Por último, siempre desde su
ética dialógica, arremete contra el wokismo
por su tribalización y su cultura de la victimización, aspectos que promueven
una ruptura en la comunidad de hablantes, y contra aquellos que refieren a la
posibilidad de una autonomización total de la IA y confunden una “autonomía de
funciones” con una “autonomía ontológica” como la que posee todo ser humano en
tanto tal:
“La diferencia esencial es que
los seres humanos pueden reflexionar sobre su conducta (…) y entablar un
diálogo con gentes cercanas a través del que pueden descubrir los móviles de su
acción en el intercambio de argumentos. Con las máquinas es imposible (…) La
atribución de responsabilidad exigiría que pudieran actuar según el deber y por
mor del deber, cosa que no pueden hacer porque carecen de autonomía, voluntad
libre y conciencia”.
Además, los algoritmos no tienen
libre albedrío ni entienden lo que dicen. El Chat GPT, o cualquiera de los
instrumentos que se utilizan cada vez más, incluso para consultas complejas o
hasta para elaborar textos y pedir ayuda con ideas, no entienden lo que producen:
solo usan modelos de lenguaje que calculan las probabilidades de que después de
una palabra venga otra y nada más. ¿Se les pueden insertar valores morales? Sí,
claro, pero estos serían los valores que desean sus ingenieros y no unos
valores propios de una suerte de moralidad autónoma de las máquinas.
En síntesis, ¿Ética o ideología de la inteligencia artificial?, toma posición
sobre buena parte de los dilemas urgentes que enfrentan gobiernos, ingenieros y
propulsores del avance tecnológico advirtiendo sobre la necesidad de recuperar
valores universales y una discusión pública de reconocimiento intersubjetivo
donde la verdad y la veracidad resultan centrales en tiempos de posverdad y bulos.
Naturalmente, quienes no comulgan con los presupuestos de esta tradición
cosmopolita inaugurada por Kant hace ya más de 200 años, tendrán objeciones
atendibles para realizar y probablemente respondan de otra manera a las
preguntas realizadas por Cortina.
Sin embargo, el solo hecho de
plantear esas preguntas con la precisión técnica y analítica de Cortina, es ya
una buena razón para leer el libro.
No hay comentarios:
Publicar un comentario