Cuando le preguntaron a Ilya Sutskever (jefe científico de Open AI, empresa que desarrolló ChatGPT) “qué es la inteligencia artificial” contestó “cerebros digitales que corren sobre grandes computadores”. Es una definición sencilla de una tecnología que supera cognitivamente cualquier disrupción tecnológica previa. La llegada de una nueva generación de sistemas de información con capacidad de “razonar” o de “crear” de forma casi humana ha supuesto un punto de inflexión que podría estar a la altura de la irrupción de la imprenta o de internet. Si las primeras permitieron la difusión global de la información, la IA puede extender la generación de conocimiento propio y la toma de decisiones autónomas a la práctica totalidad de los ámbitos de la actividad humana.
Estamos inmersos en una explosión cámbrica de aplicaciones de IA. Acabamos de asistir a la presentación de Gemini, IA multimodal (capaz de procesar lenguaje, habla imágenes, vídeos, y código), el sistema con que Google pretende batir ChatGPT. Y hemos sido espectadores de una de las mayores crisis de la industria tecnológica de los últimos tiempos cuando Sam Altman, CEO de Open AI, fue despedido, y posteriormente readmitido en la empresa que fundó junto a Sustkever y Elon Musk, entre otros. Open AI inicialmente era una fundación sin ánimo de lucro cuya misión debía ser desarrollar una IA ética y respetuosa con la vida humana. ¿Qué ocasionó la crisis? Olvidado su propósito inicial altruista, y con Musk fuera, corrían rumores de dos visiones contrapuestas de la compañía: aquélla que apostaba por acelerar a toda costa el escalado, la potencia computacional y el despliegue de aplicaciones (representada por Altman); y aquella que optaba por frenar la carrera tecnológica y dar más importancia a la seguridad de los desarrollos (liderada por Sutskever). Quizá era una lucha entre la adhesión a los principios fundacionales (altruistas) y la opción por capturar una oportunidad billonaria. Un conflicto entre “boomers” (decididos a exprimir la oportunidad al máximo) y “doomers” (temerosos de liberar una tecnología potencialmente peligrosa). El escándalo se vio aderezado con la noticia difundida por Reuters según la cual algunos investigadores de la compañía habían alertado al consejo directivo de la existencia de una tecnología (un misterioso proyecto “Q”) que “podía amenazar la existencia de la humanidad”. Rápidamente los rumores se difundieron por las redes sociales: ¿se había conseguido la Inteligencia Artificial General -asimilable a la inteligencia humana? ¿se podía llegar a la temida “singularidad” -momento en que una IA más inteligente que los humanos es capaz de crear IAs más inteligentes que ella misma, en una carrera acelerada que llevaría al control del mundo por esas máquinas?
Más allá de visiones distópicas, está claro que estamos en los albores de una revolución. Por primera vez en la historia disponemos de máquinas capaces de tomar decisiones autónomas, usando conocimiento propio que va más allá del conocimiento humano. Una bomba atómica no podía descubrir y aplicar nuevas reglas de física fundamental, ni podía autoaccionarse. La IA aprende “capturando” conocimiento de los datos con que se alimentan, y es capaz de realizar acciones en base a ese conocimiento adquirido, de forma autónoma. Por ello, debemos tomarnos en serio el tema de imponer límites al uso de la IA. La Casa Blanca ha emitido una Orden Ejecutiva (“para el Desarrollo y Uso Seguro, Protegido y Confiable de la Inteligencia Artificial”) por la cual se insta al Instituto Nacional de Estándares y Tecnología; y a otros organismos gubernamentales (desde el Departamento de Energía al de Comercio, pasando por la Oficina de Política Tecnológica de la propia Casa Blanca) a que, en un tiempo limitado desarrollen un marco regulatorio que garantice la seguridad de los sistemas de IA, así como la neutralidad en cuanto a posibles sesgos, eliminando cualquier posible discriminación o uso no democrático de dichos sistemas. El presidente de EEUU, Joe Biden, quiere desplegar un muy ambicioso marco regulatorio de control y auditoría de los sistemas de IA, de arriba abajo (top-down). Las empresas que desarrollen aplicaciones de IA deberán cumplir las regulaciones derivadas del Orden Ejecutiva. Pero, ¿qué irá más rápido, el despliegue de las normas -de difícil planificación dado el carácter de uso genérico de la IA, con incontables e imprevistos nuevos frentes en todos los campos de la sociedad y la economía- o el desarrollo tecnológico, estimulado por la propia administración Biden para mantener la competición con China, y por poderosísimos mercados financieros que ven en la IA una nueva gigantesca oportunidad?
La Unión Europea se ufana esta vez de haber proclamado la primera Ley de Inteligencia Artificial (AI Act) de ámbito continental, tras más de tres días de discusiones maratonianas entre miembros del Consejo, el Parlamento y la Comisión Europea sobre el alcance de las prohibiciones en los múltiples frentes en los que impactará la IA: ciberseguridad, defensa, sanidad, control social, o propiedad intelectual entre muchos otros. Alemania, Francia o Italia mostraron reticencias ante la posibilidad de que un exceso regulatorio coarte el desarrollo tecnológico y la formación de ecosistemas propios de IA en la UE. El establecimiento de marcos normativos no es fácil: ¿Cómo regular sobre un fenómeno complejísimo y en rápida evolución, donde los estándares tecnológicos, los ecosistemas de aplicaciones, los modelos de negocio dominantes y los casos de uso de referencia todavía no se han consolidado? Debemos felicitarnos por la defensa de las posiciones democráticas y garantistas de los derechos civiles de la UE. Pero la carrera de la IA está hoy liderada por las grandes plataformas digitales (en EEUU) o por estados autocráticos (China). Es muy loable la iniciativa reguladora de la UE, pero debe ir acompañada de una decidida voluntad de ser protagonistas (y de una dotación de recursos a la altura) en el desarrollo de la IA. Será imposible regular si no somos capaces también de liderar la revolución tecnológica en curso.
Artículo escrito originalmente con el Grupo de Reflexión de AMETIC, publicado en Cinco Días el pasado 27/12/23