Un blog para los apasionados de la Innovación 6.0

Un blog para los apasionados de la Innovación 6.0

Inteligencia artificial: ¿Regular o liderar?

El 30 de noviembre de 2022 marcó un punto de inflexión en la historia de la innovación: ChatGPT se abrió al público, sorprendiendo a expertos y profanos. Inesperadamente, teníamos en nuestras manos un sistema digital con una cierta capacidad de razonamiento, juicio y creatividad. Fue la tecnología con mayor velocidad de penetración de la historia: en cinco días acumulaba un millón de usuarios (como Netflix en 3,5 años). En dos meses llegó a 100 millones. ChatGPT es una inmensa red neuronal artificial, algo así como un cerebro sintético escalado al mismo nivel de conexiones que uno verdadero (175.000 millones de “neuronas”). Tras 70 años de doblar la capacidad de los procesadores cada 24 meses, la ley de Moore  hacía posible algo así. Por primera vez, se daban las condiciones para aproximarnos digitalmente a la mayor maravilla evolutiva de la biología: nuestro cerebro. Disponíamos de potencia computacional, conocimiento sobre algoritmos, y datos masivos para su entrenamiento. ChatGPT se sustenta en un supercomputador con decenas de miles de chips especializados para la IA (GPUs), ubicado en el centro de I+D de Microsoft en Iowa.

La llegada de ChatGPT significó la irrupción de los “grandes modelos de lenguaje” (LLMs). Una red neuronal virgen, inspirada estructuralmente en un cerebro, aprende “leyendo” centenares de millones de documentos, hasta generar una capacidad autónoma de lenguaje (y con ella, de razonamiento). Es curioso observar que se está estudiando el comportamiento de esos modelos como si fueran seres vivos, analizando sus reacciones ante diferentes estímulos. Los investigadores de Microsoft Research manifiestan que “el desempeño de GPT-4 es llamativamente similar al de la mente humana”. Sé que esto es controvertido, y hay personas que jamás aceptarán que una máquina pueda «pensar» o «crear» al nivel de un humano. Pero para mi, la pregunta fundamental no es si una máquina puede pensar. La pregunta fundamental es si el cerebro es una máquina. Porque si aceptamos que lo es, que el dispositivo biológico que llevamos en el cráneo es una máquina, entonces ya lo tenemos: una  máquina puede pensar.  Otra cosa es que creamos, de forma legítima, que hay algo «más», que en el ser humano existe un «alma», algo intangible y superior, y por eso jamás una máquina será como un humano. Bien, pero eso ya entra dentro de la esfera espiritual, y ahí es imposible debatir.

En todo caso, no hay día que no nos sorprendamos con una nueva aplicación de IA más disruptiva. La revista Nature ha publicado una investigación según la cual una IA entrenada con información de resonancias magnéticas del cerebro de una persona puede recomponer aproximadamente sus pensamientos. Investigadores suizos han conseguido realizar un vídeo “leyendo” el cerebro de una rata, reconstruyendo en una pantalla lo que está viendo. ¿Podríamos pensar en sistemas de espionaje utilizando ratas como cámaras vivientes? Más allá de posibles distopias, se abren campos muy prometedores en la interfase entre la neurociencia y la IA. Empezamos a decodificar el cerebro ¿Substituiremos con un software zonas disfuncionales del mismo? El neurocirujano Luis Pareras, explica que, hasta la llegada de ChatGPT, creíamos que el cerebro era indescifrablemente complejo. Hoy empezamos a creer que a lo mejor sorprendentemente simple: una red de unos y ceros, enlazados con pesos probabilísticos. Quizá su complejidad se deba al carácter experimental de la evolución, que desarrolla e inhibe zonas por prueba y error, acumulando capas que expande e inutiliza sucesivamente, a lo largo de milenios. Si conociéramos cómo funciona de verdad el cerebro, y tuviéramos que diseñarlo desde cero, posiblemente una estructura mucho más sencilla (aunque con una escala de computación masiva) podría replicar sus funciones.

En todo caso, todo ello nos sitúa en nuevas fronteras éticas. A los dilemas que ya generaba la IA, hay que sumar las situaciones a las que nos puede llevar esta nueva generación de sistemas de lenguaje. ¿Qué pasaría si ChatGPT estuviera ligeramente sesgado políticamente? Millones de interacciones diarias a nivel global, con diagnósticos sesgados. ¿No podría ello manipular poblaciones enteras? ¿Qué induce su ideología? Y más allá: ¿cómo gestionaremos la interacción con inteligencias no humanas?

Requeriremos regulación, empezando por los sistemas críticos, que afectan vidas y requieren respuesta instantánea. En ese caso, las leyes de Asimov son demasiado simples. El famoso autor propuso que (1) Un robot jamás haría o permitiría daño a un humano (2) Un robot debería obedecer las órdenes de un humano, excepto si éstas entran en conflicto con la primera ley; y (3) Un robot debe proteger su existencia, en la medida que esto no contradiga las leyes anteriores. Asimov no imaginaba un escenario como el actual. Hoy no hablamos de robots, sino de algo mucho más intangible: algoritmos omnipresentes desparramados en cualquier sistema digital, en todas partes de nuestras vidas. ¿Cómo imponerles reglas éticas? El MIT desarrolló un experimento global preguntando sobre preferencias de programación de vehículos autónomos que deben tomar una decisión milisegundos antes de un accidente, previendo sus consecuencias: ¿matan al ocupante o a un transeúnte? ¿a un bebé o un anciano? ¿a un rico o un pobre? ¿a alguien sano o enfermo? ¿salvamos a un niño en vez de un adulto? ¿y si son 4 adultos, mataríamos al niño? No hay consensos en las respuestas. Pero si dejamos que el mercado decida, lo tendrá claro: protegerá a quien más pague. Quizá veamos la emergencia de un inquietante negocio de pago por protección ante la IA.

No todas las situaciones serán tan complejas. Hay algoritmos cuyas decisiones pueden ser críticas, pero no son de respuesta inmediata: un diagnóstico médico o una inversión pueden ser propuestos por un algoritmo, pero hay tiempo de respuesta para que un humano las valide. En este caso, la inteligencia humana se verá multiplicada por la IA. La última palabra será nuestra, porque la responsabilidad del error también lo será. Por supuesto, existen IAs de respuesta no crítica, con menos necesidad regulatoria: un robot de control de calidad en un proceso industrial, o los sistemas de recomendación de compra de Amazon o Netflix. En el otro extremo, hay aplicaciones de IA directamente delictivas, como los deepfakes.

China mueve pieza y lanza su ChatGPT. Sam Altman o Gary Marcus, pioneros en el campo, abogaron en el senado de EEUU por una agencia reguladora que audite éticamente la IA. Europa quiere (y debe) regular y exportar regulación. Pero me hubiera gustado ver una respuesta estratégica europea contundente y a gran escala: el desarrollo de un ChatGPT propio, competitivo en financiación, alcance y potencia computacional, gobernado democráticamente por instituciones europeas. No podemos perder el tren como con las plataformas digitales (en cuyas manos están alegremente los datos de los europeos). Los ecosistemas de IA generativa se desarrollan hoy en otros lugares. Queremos regular, pero no lo haremos si no lideramos primero.

Artículo original publicado en La Vanguardia. Imagen hecha con Stable Diffusion.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Últimos posts