DANIEL INNERARITY Catedrático de Filosofía Política, investigador “Ikerbasque” en la Universidad del País Vasco y titular de la cátedra de Inteligencia Artificial del Instituto Europeo de Florencia
Habló el pasado 17 de abril en el Instituto Plaza de la Cruz, invitado por el Foro Gogoa, sobre el tema: “¿Sobrevivirá la democracia a la inteligencia artificial?”
Isidoro Parra
PAMPLONA | 27·04·24 | 15:18
Daniel Innerarity nos ofrece su visión personal, realista y ponderada de la realidad de la mal llamada inteligencia artificial y de las relaciones de ésta con los humanos y la supervivencia de la democracia, al tiempo que valora la inteligencia y capacidad creativa de los humanos, sin abandonar la esperanza en el futuro.
Daniel, en los últimos tiempos, tenemos una tendencia a considerar como negativo todo lo que haga referencia a la inteligencia artificial. ¿Hemos que verlo necesariamente así?
Desde luego, como decía Norbert Wiener, uno de sus fundadores, no va a ser una confortable hamaca en la que podamos tumbarnos para que nos atiendan nuestros robots esclavos. La IA no va a ser un humilde servidor, pero tampoco va a ser un enemigo, sino algo que nos va a estar continuamente desafiando, mostrándonos que muchas de las cosas que estamos haciendo pueden hacerse mejor, que hay que ir avanzando. Nos vamos a tener que preguntar si en este contexto lo que estamos haciendo realmente vale la pena, si es inteligente, si no lo puede hacer una máquina mejor que nosotros y, por tanto, va a ser una lucha cada vez más exigente contra las limitaciones de nuestra inteligencia. Una parte que es muy positiva y otra parte que es muy desafiante.
En la primera parte de su conferencia nos habló de la situación actual de la inteligencia artificial. ¿Podría resumirnos un poco esa situación? Creo recordar que lo llamó “histeria digital”.
No estamos delante de una tecnología propiamente, sino de un conjunto de tecnologías que están experimentando unos avances espectaculares. Ante este desarrollo, lo que está pasando es que se están generando lo que se llaman los inviernos y las primaveras tecnológicas. Hay inviernos en la historia de la tecnología y la inteligencia artificial en los que no se ha avanzado nada o que se han iniciado caminos y se han acabado, pero hay otros periodos, como ahora, en los que más bien hay una burbuja, una primavera espectacular, los grandes modelos de lenguaje generativos en los cuales parece que todo es posible, incluido lo peor.
¿Cuál cree que ha sido realmente el descubrimiento que ha hecho evolucionar estas tecnologías?
En los años 60 del siglo pasado inventamos una cosa cuyo significado todavía está por desentrañar. Es lo que llamamos “machine learning”, máquinas que aprenden. Estamos ante máquinas que no son instrumentos dóciles, como puede ser una rueda o el mundo de la mecánica. Un portugués experto en estos temas hablaba de que hemos entrado en el mundo de la post-programación, es decir, programamos máquinas que de alguna manera se auto-programan. Los diseñadores de estas máquinas las diseñan, pero esas máquinas tienen un desarrollo en buena parte emancipado de las intenciones del actor.
“Hay una asimetría estructural entre la velocidad de la tecnología y la de quienes hacen las normas, políticos, juristas, etc.”
Creo que acaba de citar un aspecto que es el que nos inquieta.
Esto es escalofriante o, según se mire, fascinante también, porque una máquina puede ser más lista que nosotros, puede aprender cosas que nosotros no le hemos enseñado a aprender. Por tanto, no es una cuestión solo de diseño, es una cuestión de la vida propia que adquiere ese algoritmo cuando entra en contacto con la ciudadanía y es utilizado por toda una sociedad enorme y con un desarrollo en el tiempo. No es algo que esté absolutamente en nuestras manos. La gran cuestión es qué porcentaje de control sobre esa tecnología estamos dispuestos a realizar o, dicho de otra forma, ¿somos capaces de desarrollar unas regulaciones que no arruinen las virtualidades de esa tecnología?
En su conferencia, resumió esta situación en un par de ideas concretas. ¿Podría recordarlas?
Creo que dije que hay un factor sorpresa en estas tecnologías: las máquinas inteligentes que tenemos, los aviones, los coches, los algoritmos que utilizamos en buena medida saben más que nosotros de una cierta parte del mundo. Por otra parte, cuando hablamos de que esto hay que controlarlo, tengamos mucho cuidado, porque el tipo de control que podemos ejercer sobre una tecnología tan compleja no es exactamente el tipo de control que uno puede ejercer sobre una bicicleta. Me estoy refiriendo a mundos con diferentes velocidades.
¿Podría ponernos un ejemplo concreto?
Por supuesto. Se acaba de aprobar en el Parlamento Europeo el Acta de la Inteligencia Artificial. Yo participé en los trabajos previos y por tanto la crítica que hago ahora también me la dirijo a mí mismo. Hace seis meses, en el proyecto de ley no aparecía nada del ChatGPT ni de los grandes modelos de lenguaje. Estaban haciendo una ley y no sabían que en la habitación de al lado había unos tecnólogos haciendo una cosa que iba a ser mucho más disruptiva, los grandes modelos de lenguaje. Esto nos indica que hay un retraso estructural entre quienes hacen la tecnología, que van a toda velocidad, y quienes hacen las leyes que se han tomado cuatro años para discutir. Hay una asimetría estructural entre la velocidad de la tecnología y la de quienes hacen las normas, los políticos, los juristas, etc.
En el segundo bloque de su conferencia se planteaba la pregunta de si es tan inteligente la inteligencia artificial. ¿Qué nos puede decir sobre este tema?
Hay muchos gurús por ahí diciendo que va a llegar un momento en el que la inteligencia artificial va a ser más inteligente que nosotros. Esa es una fecha que se va retrasando a medida que pasa el tiempo.
¿Y qué piensa sobre esas afirmaciones?
Creo que es una afirmación que no tiene ningún sentido porque no estamos en la misma carrera. Es como comparar peras con manzanas. La inteligencia artificial hace una cosa y la hace muy bien. Los humanos hacemos otro tipo de cosas que las hacemos muy bien. Me parece que esto es importante, porque muchas veces detrás de esa idea del reemplazamiento está lo de “nos van a quitar el puesto de trabajo, van a decidir por nosotros”.
¿Cree que existe algún peligro de ese tipo?
Depende. Si hacemos lo mismo, sí. Si no hacemos lo mismo, no. Claro que nos van a quitar tareas, no puestos de trabajo, porque tareas y puestos de trabajo son dos cosas distintas. De hecho, toda la tecnología nos está quitando tareas pesadas y no nos parece mal, aunque si lo miramos en la evolución histórica, eso puso en marcha muchos conflictos sociales. Pero ahora no estamos hablando de la automatización del trabajo exactamente, sino de una cosa que se puede configurar en términos de ecosistema de colaboración entre unas máquinas y unos humanos que, bien organizados, pueden hacer que aumente nuestra inteligencia, no que sea reemplazada por ellas, porque ellas tienen una inteligencia distinta, no comparable con la nuestra. Puede darse una colaboración.
“Una democracia necesita que haya una conversación de calidad, donde se sopesen razones, argumentos, se respete al otro”
Entonces, ¿podemos confiar en que la inteligencia humana sobrevivirá?
Creo que sí. Para mí, el núcleo de la diferencia y de la especificidad de la inteligencia humana en relación con la inteligencia de las máquinas o de los algoritmos, tiene que ver con cosas muy simples y muy sencillas para nosotros y muy complicadas para ellas, como tener sentido común. Captar el contexto. A los humanos nos cuesta poco el hacernos cargo de una situación. Los humanos tenemos una enorme capacidad de hacernos cargo de una situación con gran rapidez y pocos datos.
Hablamos, por tanto, de dos tipos de inteligencia, ¿no es así?
Hay que hacerse valer como inteligencias, mejorables, pero inteligencias y, concretamente, los seres humanos manejamos bastante bien problemas poco o mal estructurados, mientras que las máquinas lo hacen mejor cuando se trata de problemas bien estructurados. Por supuesto que cabe preguntarse si las máquinas son mejores que nosotros. En los problemas que están bien estructurados y son muy claros, cuando hay opciones binarias y tenemos los datos correspondientes, las máquinas lo hacen muy bien, pero no es menos cierto que los humanos reconocemos cosas con bastante rapidez y tenemos la capacidad de hacerlo sin necesidad de mirar mucho, en situaciones de incertidumbre o ambigüedad.
Siguiendo sus palabras, siento que nos llega un poco de autoestima, pero, si no le importa, hablemos un poco de democracia.
La democracia tiene dos grandes asuntos: conversación y decisión. Una democracia necesita que haya una conversación de calidad, que la conversación pública, la conversación de la calle, la conversación en el parlamento, sea una conversación de calidad donde se sopesen razones, argumentos, se respete al otro.
Sin duda, podemos estar de acuerdo, pero ¿qué nos está pasando en la realidad?
Lo que nos ha pasado en estos últimos años es que Internet ha producido una horizontalización de la conversación pública, hasta el punto de que cualquiera puede intervenir, decirle cualquier cosa a cualquiera. Entonces, mucha gente pensó que Internet iba a mejorar nuestra democracia casi de manera automática.
¿Es así de simple?, ¿no hay más?
No, hay más. Al mismo tiempo, nos hemos encontrado con dos tipos de problemas desde el punto vista de la conversación. El primer problema es que estas plataformas sobre las cuales conversamos no son públicas, son privadas y obedecen a intereses de diverso tipo. Uno de ellos, el interés de que estemos mucho tiempo allí porque estamos suministrándole datos a una gran empresa, con lo cual hará luego otros negocios. Los algoritmos no están pensados para prestarnos un servicio, o no solo para eso, también para el beneficio de sus dueños.
“Cada vez hay más decisiones que no las estamos tomando los humanos, sino que las están tomando algoritmos”.
¿Y el segundo?
El otro asunto es que a medida que hay más opiniones, más libertad de opinar, la opinión está menos estructurada, hay menos intermediaciones, como podía ser la de un periódico, una radio, una televisión. Ganamos en diversidad, ganamos en profusión de noticias, en accesibilidad, pero perdemos en criterio, en orientación. Es muy difícil discriminar una opinión fiable de la basura, de la contaminación, incluso de la falsedad.
Aceptamos esta realidad, pero la democracia tiene otros cometidos, más allá del lenguaje y la conversación, ¿no es así?
Así es, la democracia es una forma de decidir, de tomar decisiones. Por tanto, junto a la conversación hay un conjunto de decisiones que tenemos que tomar. Y lo que está ocurriendo es que cada vez hay más decisiones que no las estamos tomando los humanos, sino que las están tomando algoritmos. Esto no es que sea bueno o malo, es que es inevitable. El mundo se nos ha complicado muchísimo. Necesitamos la colaboración de las máquinas. El problema es que estas máquinas ofrecen objetividad, datos desideologizados, en parte. La discusión objetiviza las cosas, pero una democracia es un gobierno del pueblo, es un autogobierno. ¿Y hasta qué punto es compatible este principio con un entramado en el cual cada vez va a haber más decisiones que las va a tomar un sistema automático?
Lo siento, Daniel, pero debo pedirle de nuevo su opinión sobre este paisaje de dudas.
No tengo una respuesta satisfactoria, exacta, matemática. Simplemente llamo la atención sobre el hecho de que hay partes del proceso político cuyo nivel decisional habrá que confiar a instrumentos muy sofisticados de los cuales tenemos poco control directo, porque si tuviéramos mucho control, entonces no funcionarían bien. Y hay otras partes que nos las tenemos que reservar.
Vamos llegando al final y se hace necesario volver al enunciado de su conferencia: ¿Sobrevivirá la democracia a la inteligencia artificial?
Ya hemos visto que la inteligencia va a sobrevivir a la inteligencia artificial porque son dos cosas en buena parte distintas. Yo creo que estaremos de acuerdo en que el problema que tenemos con la democracia, sintetizándolo mucho, es un problema de ignorancia, de desconocimiento. Quienes tenemos que decidir somos cada uno de nosotros, pero ¿quién conoce a todas las personas que se presentan al Parlamento Foral cada cuatro años? ¿Quién se ha leído todos los programas electorales? Nadie. Una ignorancia. Otra ignorancia. Decimos que los políticos, en el fondo, no saben lo que queremos o no nos conocen bien. Otras veces, lo que nos pasa es que, de vez en cuando, los políticos saben lo que quieren, lo que queremos, porque hay elecciones y entonces aparece la fotografía del mundo real, pasan muchas cosas, se olvidan, modifican aquello y al final, incluso nos traicionan.
Esa es, en parte, la sensación. ¿Y, entonces, cuáles son las alternativas?
Podríamos proponer quitar las urnas y sustituirlas por los datos. Es decir, cada uno de nosotros emitimos una serie de datos todo el día, con nuestras compras o lo que hagamos en las redes. Los asistentes digitales pueden llegar a conocernos mejor de lo que nosotros nos conocemos a nosotros mismos. Imaginemos que tenemos esa máquina que registra todo lo que realmente queremos, no lo que decimos querer. Con eso procedimiento, ¿liquidamos a la clase política, suprimimos las elecciones, porque ya las máquinas registran nuestras preferencias en tiempo real? No sería una buena idea. En primer lugar, porque lo que yo quiero no es exactamente lo que yo reflejo con mi comportamiento, porque hay una cosa que se llama el yo aspiracional. y que consiste en que yo aspiro a una cosa que no coincide exactamente con mi comportamiento. De hecho, los algoritmos presuponen siempre que nuestro comportamiento futuro va a estar en continuidad con nuestro comportamiento pasado. El MeToo o el SeAcabó no se hubieran producido si el mundo hubiera seguido en continuidad con nuestro comportamiento pasado; han hecho falta luchas, rupturas e iniciativas legislativas que rompían la continuidad del pasado. Y se podrían poner otros muchos ejemplos de ruptura de la continuidad histórica.
Daniel, ¿confiamos en la supervivencia de la democracia?
Confiamos. En el proceso político hay muchas decisiones que no tienen gran complejidad, que las puede tomar un administrativo, pero hay otras decisiones que son, y lo hemos visto a lo largo de la historia, mucho más complejas, cuando hay que tomar una decisión en un tema relevante, arriesgado, con pocos datos y una gran ambigüedad. ¿Qué harías en este contexto? Creo que en esa situación, un político tomará mejor las decisiones que una máquina, porque una máquina no sabe qué hacer con esa situación. La democracia va a durar por la misma razón por la cual los humanos lo seguimos haciendo relativamente bien, incluso en contextos de tanta precariedad de información.