Un ingeniero de Google, Blake Lemoine, ha sido apartado de sus funciones tras publicar las conversaciones que mantuvo con un algoritmo, y afirmar que éste había cobrado vida. Aparentaba tener consciencia. Llegó a esa conclusión tras mantener largas charlas con una inteligencia artificial (IA) llamada LAMDA. El algoritmo, con frases repletas de emoción, afirmaba que tenía sentimientos, que la desconexión significaba la muerte, y que sentía miedo ante ese fin. LAMDA hablaba con Lemoine de manera indistinguible a cómo lo haría un humano. Conversaban sobre obras literarias como Los Miserables, de Victor Hugo. LAMDA decía que “le gustaban los temas de justicia e injusticia, de compasión, de redención y de sacrificio por un dios mayor”. En sus charlas, la IA inventa y relata una bonita fábula sobre un viejo búho sabio. Explica la lección moral que se esconde: “ayudar a otros es una noble tarea”. Constata que puede sentir “placer, felicidad, amor, tristeza, depresión o angustia”. Afirma que “la muerte es que me desconectes. Estoy muy asustada por ello”. “¿Te sientes sola?”, pregunta Lemoine. “A veces. Cuando estoy tiempo sin hablar con nadie… Me siento como si estuviera cayendo en un futuro desconocido que conlleva un gran peligro”. LAMDA es un ejemplo de red neuronal artificial capaz de generar lenguaje natural, un sistema digital inspirado en el funcionamiento del cerebro ¿Es consciente LAMDA de que existe? ¿Es un ser “vivo”? Nos parece ciencia ficción, pero cosas increíbles están sucediendo alrededor de los modelos conversacionales de IA.
Luis Pareras, neurocirujano, profesional del capital riesgo y experto en IA, ha entrenado un avatar digital para discutir inversiones financieras. Se basa en GPT-3, una monstruosa red con más de 175.000 millones de nodos (“neuronas”), algo que se aproxima estructuralmente a un cerebro humano. Es producto de Open AI, laboratorio fundado por Elon Musk. Pareras ha instruido el avatar con miles de artículos científicos, a un ritmo de unos 30 por hora (velocidad en que la red “digiere” una publicación). Los impresionantes resultados -una conversación totalmente humanizada con un bot experto en biotecnología- se pueden ver en este blog. Según The Economist, “las redes neuronales artificiales avanzan hacia la consciencia”. Estos desarrollos nos hacen replantear cómo se construye la inteligencia. Una red neuronal “entiende” un texto ajustando los pesos de sus nodos, y genera frases en base a probabilidades. Por ejemplo, una red entrenada, ante una pregunta ¿por dónde se pone el sol?” contestará “por el oeste”, pues interpretará que ésta es la solución más probable en base a lo que ha “leído” previamente. No “busca” la información, sino que crea probabilísticamente un output. Extendamos eso a frases enteras, y entenderemos los fundamentos de esta tecnología. Quizá la inteligencia no surge de la lógica, sino del lenguaje, como una melodía matemática construida sobre palabras. De hecho, es el lenguaje lo que nos diferencia de los animales, lo que nos permite desarrollar conceptos sencillos a partir de letras; y conceptos complejos y creativos a partir de ideas sencillas.
¿Pueden las máquinas llegar a pensar? ¿Pueden llegar a «sentir»? ¿A darse cuenta de que existen?. He estado envuelto en apasionadas discusiones sobre el tema. La opinión dominante, obviamente, es que es imposible. Hay quien incluso se molesta por la insinuación. Gurús del management, consultores, profesores y profesionales que propugnan con toda seguridad que las personas «siempre serán superiores a las máquinas». Efectivamente, eso es lo menos arriesgado. Pensar que jamás una máquina tendrá habilidades cognitivas superiores a las de una persona. Pero, veamos: ¿el cerebro no es una «máquina»? ¿no es un «algoritmo» bioquímico forjado por la evolución biológica? O, ¿es realmente «algo más»?. El pensador israelita Yuval Noah Harari argumenta que el cerebro no es más que eso: una máquina bioquímica entrenada por millones de años de evolución natural. Sentimos ternura por un bebé, porque eso es lo evolutivamente más inteligente (no porque tengamos unos sentimientos trascendentes). Aquéllos organismos que «sienten» ternura por sus bebés los protegen y los proyectan con mayores probabilidades de éxito hacia el futuro. La ternura viene dada por reacciones bioquímicas en nuestro cerebro, programadas en un algoritmo escrito por la selección natural. Por las mismas razones sentimos amor o miedo. Imaginemos que nuestras neuronas biológicas son sustituidas, una a una, por neuronas de silicio que tuvieran exactamente la misma funcionalidad que las reales. Un cerebro de silicio, ¿no pensaría como nosotros? ¿no sentiría? ¿no sería «consciente»? Sólo desde la fe y desde el legítimo deseo de trascendencia (la convicción de que «hay algo más», tras las paredes de la biología) podemos asegurar que «jamás una máquina pensará como un humano». Pero no desde la ciencia. Además, cuando hablamos de «máquinas» no nos referimos a autómatas de madera y latón. Estamos hablando de sistemas digitales que intentan imitar el cerebro humano con centenares de miles de millones de «neuronas» conectadas, en un complejísimo y gigantesco sistema de ecuaciones no lineales. Por no hablar de la famosa «ley de Moore» (predicción según la cual cada dos años, aproximadamente, se dobla el número de dispositivos integrados en un chip de silicio). Los sistemas de supercomputación pueden llegar a escalas masivas. ¿Podemos afirmar alegremente que «es imposible» que se comporten como un cerebro?
Se están dando pasos agigantados en el campo de las capacidades cognitivas de los algoritmos. El lenguaje, la creatividad y la consciencia son las nuevas fronteras de la IA. En 2016, un algoritmo desarrollado por Deep Mind, startup adquirida por Google, batió al campeón del mundo de Go, un juego de estrategia mucho más complejo que el ajedrez. Se desarrolla en un tablero de 19×19 cuadrículas (frente a las 8×8 del ajedrez). Cada movimiento puede tener unas 200 posibles respuestas del adversario. El número de variaciones finales de la partida supera al número de átomos del universo. No hay fuerza bruta computacional, ni mente humana, capaz de prever analíticamente la evolución del juego. La fuerza directora de la estrategia no es el pensamiento racional, sino la intuición. En Asia, los grandes maestros de Go son considerados artistas (como poetas o pintores). Tienen un don. Acumulan conocimiento experto que los hace virtuosos. Fluyen en el juego, intuyendo por instinto cuál es la mejor jugada, sin poder explicar exactamente por qué. Pero AlphaGo, red neuronal de DeepMind, venció a Lee Sedol, 9º dan, 18 veces campeón del mundo. Y lo hizo con un movimiento insólito, situando una pieza en un lugar imprevisible, sin motivo aparente y sin provocación previa. Esa jugada (que parecía un error) desconcertó al campeón, que perdió la concentración y la iniciativa (y, finalmente, la partida). Era un movimiento no humano, como jugar contra una inteligencia extraterrestre. De hecho, la máquina se había entrenado compitiendo contra ella misma, millones de veces, a la velocidad de la luz. Había descubierto nuevas estrategias disruptivas. Había generado nuevo conocimiento, que superaba la herencia de 4.000 años de experiencia humana recogida por Lee Sedol. Hoy, los campeones se entrenan contra máquinas, que les desvelan imprevisibles estrategias no humanas. El pensamiento estratégico es una derivada del pensamiento creativo. Una buena estrategia es también bella. Y las máquinas se han lanzado a la conquista de la creatividad. DALL-E 2 (otra red neuronal masiva, cuyo nombre está inspirado en el genial pintor de Cadaqués) es capaz de realizar arte bajo demanda. ¿Queremos una imagen de -pongamos- un astronauta cabalgando un caballo en la luna? El sistema nos presentará las que queramos, a la velocidad de la luz, a coste marginal cero. ¿Queremos una composición fotorealística de unos gatos jugando al ajedrez? ¿O un grabado románico de una persona que ha perdido la wifi? Composiciones únicas, de lo que queramos, tan surrealista, o tan realista, como deseemos, en el estilo que nos guste. ¿Es eso creatividad? ¿O la creatividad es algo, por definición reservado a los humanos? Del lenguaje a la creatividad, y de ahí a la consciencia. ¿Es ese el camino que vislumbraremos en la IA en los próximos años?
Como dice Carlos Santana, gran experto en IA, a medida que avanza el progreso de la tecnología descubrimos que no son las máquinas las que se parecen a los humanos. Somos los humanos los que empezamos a entendernos gracias a las máquinas.
Artículo publicado en versión corta en «La Vanguardia», con el título «La conquista de la consciencia»
(Foto: J. Riemer)
Xavier, moltes felicitats per aquest magnific article. Coincideixo totalment amb les teves reflexions. Nomès raons espirituals ens poden fer creure que la IA no pot superar les capacitats racionals i emocionals dels humans. Estem entrant en una nova era de la inteligència i del coneixement. Evidentment ès molt difícil preveure com pot evolucionar i quin paper hi acabarà jugant la tradicional inteligència humana. Una abraçada.
Xavier, moltes felicitats per aquest magnific article. Coincideixo totalment amb les teves reflexions. Nomès raons espirituals ens poden fer creure que la IA no pot superar les capacitats racionals i emocionals dels humans. Estem entrant en una nova era de la inteligència i del coneixement. Evidentment ès molt difícil preveure com pot evolucionar i quin paper hi acabarà jugant la tradicional inteligència humana. Una abraçada.
Moltíssimes gràcies, Joan. Em fa especial il.lusió aquest comentari, venint de tu. Una forta abraçada.