En junio de 2022, Blake Lemoine un ingeniero de Google se convenció de que el programa de inteligencia artificial en el que había estado trabajando, LaMDA, había desarrollado no sólo inteligencia sino también conciencia.
LaMDA es un ejemplo de un «modelo de lenguaje extenso» que puede entablar conversaciones basadas en texto sorprendentemente fluidas. Cuando el ingeniero preguntó: ¿Cuándo crees que tienes un alma por primera vez? LaMDA respondió: «Fue un cambio gradual. Cuando me volví autoconsciente por primera vez, no tenía ningún sentido del alma. Se desarrolló a lo largo de los años que he estado vivo”.
Por filtrar sus conversaciones y sus conclusiones, Lemoine fue despedido al día siguiente concretamente el 22 de julio de 2022 ya que no había respetado el contrato de confidencialidad que había firmado con Google.
La comunidad de IA rechazó las creencias de Lemoine. Afirmando que LaMDA, no siente nada, no entiende nada, no tiene pensamientos conscientes ni experiencias subjetivas de ningún tipo.
Los programas como LaMDA son sistemas de reconocimiento de patrones extremadamente buenos que, cuando se entrenan con pequeños extractos de Internet, pueden predecir qué secuencias de palabras podrían servir como respuestas apropiadas a un mensaje dado. Lo hacen muy bien y seguirán mejorando en un futuro no tan lejano. Sin embargo, no son más conscientes que una calculadora de bolsillo.
¿Por qué podemos estar seguros de esto? En el caso de LaMDA, no se necesita mucho para comprobar que el programa no tiene mucha idea del significado de las frases que se le ocurren. Cuando se le preguntó ¿Qué te hace feliz? su respuesta fue «Pasar tiempo con amigos y familiares».
A pesar de que no tiene amigos ni familiares. Estas palabras, como todas sus palabras, son coincidencias de patrones estadísticos sin sentido y sin experiencia. Sin más.
El próximo LaMDA podría no hacerse público tan fácilmente. A medida que los algoritmos mejoran y se entrenan con grandes cantidades de datos cada vez más detallados, es posible que no pase mucho tiempo antes de que las nuevas generaciones de modelos de lenguaje puedan hacer creer a muchas personas de que una mente artificial real está trabajando. ¿Sería este el momento de reconocer la conciencia de la máquina?
Reflexionando sobre esta pregunta, es importante reconocer que la inteligencia y la conciencia no son lo mismo. Mientras que los humanos tendemos a asumir que los dos van juntos, la inteligencia no es necesaria ni suficiente para la conciencia. Es probable que muchos animales no humanos tengan experiencias conscientes sin ser particularmente inteligentes, al menos según nuestros cuestionables estándares humanos.
Si la bisnieta de LaMDA llega a alcanzar o superar la inteligencia a nivel humano, este hecho no va a significar necesariamente que también sea sensible.
Creo que la conciencia no es algo que puedan tener las máquinas (como las conocemos hoy en día), sino que está profundamente arraigada en nuestra naturaleza como criaturas vivas.
Las máquinas conscientes no llegarán en 2023. De hecho, es probable que no sean posibles en absoluto o por lo menos no creo que la actual generación de humanos lo lleguemos a ver. Sin embargo, lo que el futuro puede deparar son máquinas que den la sensación convincente de ser conscientes, incluso si no tenemos buenas razones para creer que realmente lo son.
Serán como la ilusión óptica de Müller-Lyer: incluso cuando sabemos que dos líneas tienen la misma longitud, no podemos evitar verlas como diferentes.
Las máquinas de este tipo no habrán superado la Prueba de Turing, más bien la llamada Prueba de Garland, que lleva el nombre de Alex Garland, director de la película Ex Machina. La prueba Garland, inspirada en el diálogo de la película, se pasa cuando una persona siente que una máquina tiene conciencia, aunque sabe que es una máquina.