Sabemos mucho más de lo que podemos explicar. Esta es la famosa “paradoja” de Polanyi, economista austríaco que se dio cuenta de la existencia de conocimiento humano imposible de explicitar. Podemos hacer infinidad de cosas, pero no somos capaces de explicar con claridad cómo las hacemos. Por ejemplo, ¿cómo diferenciar un perrito de una magdalena en la foto adjunta (“muffins or puffins”)? ¿Podríamos explicitar en una serie de reglas codificables cuándo nos encontramos ante una magdalena o ante una adorable mascota? O, por ejemplo, ¿qué mecanismos nos llevan a identificar una silla? ¿Podría un ordenador identificar una silla? Si le diéramos instrucciones precisas de qué es una silla (mediante conocimiento codificado: “instrumento de cuatro patas, tabla plana y respaldo”), inevitablemente se equivocaría en múltiples casos: hay sillas sin respaldos, sillas de tres patas, e infinidad de objetos que parecen sillas pero no lo son. Si aceptamos que las sillas pueden no tener respaldo, ¿cómo diferencia un ordenador una silla de una mesa? La única manera: haber visto muchas sillas. El conocimiento tácito se basa en la experiencia
K.Zak, de
https://hbr.org/cover-story/2017/07/the-business-of-artificial-intelligence
Cuando reconocemos la especie de un grupo de pájaros en vuelo por la forma de moverse, cuando realizamos los movimientos precisos para romper un huevo en el canto de una taza para hacer una tortilla, o cuando identificamos la cara de un conocido, después de años sin verlo, pese a sus cambios evidentes, estamos utilizando conocimiento tácito. Lo tenemos, pero no sabemos cómo expresarlo. Ni mucho menos, cómo codificarlo en instrucciones precisas. Un conocimiento que, bajo los métodos clásicos de programación, no ha podido transmitirse a un sistema informático, y que ha sido una gran reserva de trabajo cognitivo humano.
La inteligencia artificial está cambiando el paradigma de funcionamiento de las máquinas en la medida que está rompiendo la frontera del conocimiento tácito. Hasta hace poco, un programa informático sólo era la expresión ordenada de conocimiento codificable (explícito). Sus programadores identificaban una secuencia de rutinas, las codificaban en un software, y el procesador ejecutaba exactamente aquello que estaba explicitado en las líneas de programación. El ordenador reproducía aquello que sabían (y habían escrito en líneas de código) sus programadores. Eso sí, con una potencia de cálculo y velocidad de ejecución infinitamente superiores a las humanas. Pero muchas tareas habituales, tanto cotidianas como complejas, no podían ser informatizadas porque no conocíamos las instrucciones explícitas. Se sustentaban en conocimiento tácito.
Hoy, la estrategia de desarrollo de programas informáticos ha cambiado de forma revolucionaria bajo el prisma de la inteligencia artificial. Las máquinas no son programadas de forma “lineal”, como antiguamente, sino que son capaces de aprender de la experiencia, desde cero, y reprogramarse a sí mismas para ser cada vez más eficientes en la consecución de un logro. Es lo que ha venido a llamarse “machine learning”, tecnología sustentada en redes neuronales artificiales que simulan el cerebro humano. AlphaGo, el algoritmo de inteligencia artificial que ha derrotado ya por dos veces a los sucesivos campeones mundiales de Go (en 2016 y 2017) aprendió por sí mismo, desde la nada. Se le marcaron las restricciones (reglas de juego: qué movimientos podía realizar y cuáles no), el objetivo (condiciones en que se gana la partida), y se le entrenó observando miles de partidas reales, y jugando otras tantas contra sí mismo. Hasta que desarrolló autónomamente, mediante prueba y error, un nivel de conocimiento tácito, dotado de una cierta intuición lógica, que lo hizo invencible.
Las máquinas ya desarrollan conocimiento tácito propio en base a la experiencia. A partir de este momento, lo que puede suceder es absolutamente apasionante. Las aplicaciones en negocios, en medicina, en derecho, o en educación, son inimaginables. Quizá su coche, o la puerta de su casa, le reconocerán mediante visión artificial abrirán en cuanto se aproxime. Quizá las técnicas de venta se modulen en función de la expresión facial del cliente (detectando su predisposición a comprar). Pronto podrá hacer una foto con su móvil de una mancha inquietante en la piel, para detectar inmediatamente si puede ser un cáncer o no. O de un insecto que encuentre en el bosque, para conectar con Wikipedia y explicarle qué es a su hijo.
Se espera una gran aceleración del progreso humano guiada por las aplicaciones de la inteligencia artificial en ciencia. Según uno de los fundadores de Deep Mind, la empresa comprada por Google que desarrolló AlphaGo, el último hombre capaz de acumular todo el conocimiento de su época fue Leonardo da Vinci. Hoy, la solución a problemas científicos difícilmente pueda concretarse con la simplicidad y brillantez de unas pocas ecuaciones, como pudo hacer Newton. En la era del Big Data, la conexión global y los sistemas complejos, el avance de la ciencia requiere de instrumentos mucho más potentes. Y la inteligencia artificial nos los ofrece: las máquinas son capaces de intuir patrones y de formular hipótesis ante la observación de fenómenos complejos. Pueden hacer visible lo invisible a ojos humanos. Robots investigando, sistemáticamente, 24 horas al día, haciendo avanzar de forma desbordante la frontera del conocimiento. Las implicaciones para el avance de la ciencia pueden ser inconmensurables.
Sin embargo, se nos presentan algunas inquietudes: en primer lugar, una duda casi filosófica ¿cómo codificar el conocimiento tácito ganado por las máquinas? En la medida en que los sistemas aprenden de sí mismos y se auto-programan, el programador humano pierde el control de lo que ocurre y no es capaz de comprender los outputs de la máquina. No sabemos cómo razonan. Tampoco podemos llegar a comprender, en caso de errores, por qué se producen (ni corregirlos). Las máquinas generan conocimiento tácito, pero éste sigue siendo tácito: no pueden explicitarlo ni transmitirlo a los humanos. Dispondremos de sistemas capaces de resolver problemas complejos, pero quizá no lleguemos a saber cómo los resuelven. La paradoja de Polanyi seguirá siendo válida: en este caso, las máquinas sabrán más de lo que nos explicarán.
En segundo lugar, si realmente estamos en la frontera de una nueva (y quizás definitiva) revolución de conocimiento, la explotación sistemática del conocimiento tácito, ¿quién puede ser el ganador en términos económicos de este juego? Con toda seguridad, aquellas compañías que ya se sitúen en la frontera digital, y que ya esté apostando decididamente por la inteligencia artificial: los gigantes digitales americanos (Facebook, Google, Apple, Microsoft, IBM…). Pero también las grandes corporaciones chinas (Alibabá, Baidu, Tencent…). Las implicaciones geoestratégicas en el liderazgo mundial serán críticas.
(Para más información, ver el excelente artículo de HBR: The Business of Artificial Intelligence https://hbr.org/cover-story/2017/07/the-business-of-artificial-intelligence)
One response to “La paradoja de Polanyi”
Magnífico artículo. Yo creo que todo se puede someter a reglas (desconocidas o difíciles). Los humanos tendemos a decir que no se puede establecer un árbol de valoración que sea capaz de dar los criterios (y valores posibles) por los que se juzga una obra de arte. Estoy seguro de que sí
Daron Acemoglu y James Robinson, recientes premios Nobel de economía, escribieron el bestseller “¿Por qué fracasan los países?”, en el que sostienen que el éxito o fracaso de las naciones…
Las organizaciones se adaptan a su entorno. En la era industrial de producción en masa, las empresas se caracterizaron por el control vertical, la especialización del trabajo y la estandardización…
¿Qué está ocurriendo con la inteligencia artificial (IA)? Este verano, las acciones de Nvidia, la joya de la corona del sector, han caído un 30%, y hay rumores de una…
Magnífico artículo. Yo creo que todo se puede someter a reglas (desconocidas o difíciles). Los humanos tendemos a decir que no se puede establecer un árbol de valoración que sea capaz de dar los criterios (y valores posibles) por los que se juzga una obra de arte. Estoy seguro de que sí