Entrevista a Erik Larson sobre «el mito de la inteligencia artificial»

Erick Larson es un científico informático vinculado al desarrollo de la inteligencia artificial. En contra de muchas visiones que igualan ya la IA con la inteligencia humana, este investigador advierte que se está muy lejos de que un sistema computacional realmente puede igualar o superar las capacidades propias de la inteligencia humana.

Hay aumento de la velocidad del procesamiento de la información y nuevas habilidades como generación de textos e imágenes, pero esto no significa que las promesas de los grandes entusiastas de la inteligencia artificial sean plenamente reales, como las que proceden del tecno-mesianismo a la manera del transhumanismo o de Silicon Valley, por ejemplo. El aporte de Larson es un valioso y de un precavido escepticismo que

no niega la importancia de los desarrollos de la IA, de hecho los avala e investiga en ese sentido, pero, a la vez, intenta ubicarlos en sus justas dimensiones; lo que propone en su libro El mito de la inteligencia artificial, del cual se habla en la entrevista. Insiste en advertir la diferencia entre el tipo de pensamiento humano basado en razonamientos abductivos, distintos de la inducción o deducción de la que se valen los ordenadores. Sobre esto también se explaya en esta entrevista que le realiza la Academic Influence de la Universidad de Wake Forest. Todo esto lo conduce a su clarificadora posición escéptica:

«Sí, si me preguntas si mi portátil va a desarrollar una mente o algo así, o si alguna granja de servidores con capacidades de computación súper avanzadas y nuevos algoritmos y demás, va a exhibir de alguna manera las características de una persona humana, creo que es simplemente un pensamiento increíblemente extraño al que no creo que debamos prestar mucha credibilidad, francamente, así que mi opinión personal es que simplemente no es lo mismo. Son cosas completamente diferentes…».

Aquí esta visión prudente y escéptica de alguien que pertenece al propio mundo de la informática, y que puede fundamentar su posición con pleno conocimiento de causa.

(En negrita hemos subrayado algunas de las afirmaciones de Larson que cuestionan la proximidad de una inteligencia artificial general)

E.I

Entrevista a Erik Larson sobre las características reales de la IA

Jed Macosko: Hola, soy el Dr. Jed Macosko en Academic Influence en la Universidad de Wake Forest, y hoy tenemos a Erik Larson, quien acaba de escribir un libro increíblemente poderoso e perspicaz sobre El Mito de la Inteligencia Artificial. Y quiero escuchar más sobre este libro. Entonces, Erik, cuéntame cómo empezaste a escribir este libro y de qué se trata.

Erik Larson: Bueno, en cuanto a cómo empecé, había estado pensando en esto desde mis días de universidad, y creo que lo que me impulsó fue cuando estaba trabajando en el campo y seguía escuchando a los futuristas hablar, como Kurzweil y otras personas, que deberían saberlo mejor. Kurzweil mismo es muy técnico y… Ganó la Medalla de Tecnología por ayudar a desarrollar sistemas de reconocimiento de voz, entre otros. Así que tomé… Y había esta discrepancia…

Así que empecé en la universidad y tenía estas preguntas filosóficas sobre la IA, y luego cuando trabajaba realmente como científico informático, o más ampliamente hablando, como científico de IA, vi esta gran discrepancia entre lo que estábamos haciendo… Y mi campo es el procesamiento de lenguaje natural, por lo que eso es directamente relevante para la prueba de Turing. Así que entender el lenguaje es en lo que trabajo, el lenguaje natural como el inglés, francés, y así sucesivamente.

Y lo que los futuristas estaban hablando en los medios y en todas partes, y yo pensaba, «¿Cómo llegamos a estas conclusiones? Estoy aquí mismo haciendo este trabajo y no tenemos ni idea de cómo construir sistemas que resuelvan los problemas que dicen que son inminentes, que están a la vuelta de la esquina.

No solo parecen no estar a la vuelta de la esquina, hay un escepticismo razonable de que vayamos a encontrar una solución a menos que haya una invención conceptual importante que no podamos prever. Y si es algo que… Una invención conceptual casi por naturaleza no puedes preverla, y si eso es lo que estamos buscando, entonces todo el vocabulario predictivo y el discurso que estos tipos utilizan… Bostrom y otros. Hay una constelación entera de personas que perpetuamente, década tras década, declaran que la IA está a la vuelta de la esquina.

Si lo que necesitamos es una revolución conceptual o una invención de alguna naturaleza radical, y de hecho, incluso podría no ser factible en el límite. Podría suceder que las máquinas de Turing no produzcan ciertos tipos de comportamiento inteligente que hacen las mentes humanas. Pero no podía entender de qué estaban hablando y de dónde sacaban sus datos. Así que quería escribir un libro que aclarara el panorama, porque pensaba que había mucha confusión y creo que parte de ella es potencialmente desestabilizadora, ¿verdad?

Entonces, si tienes a personas declarando que los humanos pronto serán reemplazados por inteligencia artificial que es mucho superior, crea un… Crea un verdadero desincentivo para hacer mucho para arreglar las cosas en nuestra propia sociedad. Así que creo que el mensaje, si se nos impusiera porque fuera una verdad científica, sería una cosa, pero si la gente solo está especulando sobre el futurismo por los motivos que quieras atribuir, o podrían ser creyentes sinceros, o tal vez tengan un incentivo de mercado para hacerlo porque poseen grandes acciones en Apple, o Google, o algo y quieren, ya sabes… Pero si la gente solo está especulando, creo que necesitábamos una mejor discusión, así que escribí el libro. Sí.

Jed: Wow, eso es realmente interesante. Entonces, básicamente lo que estás diciendo es que a menos que un robot regrese en el tiempo desde el futuro, como en Terminator, y obtengamos un pedazo del brazo y miremos adentro y veamos los chips, no vamos a lograr esto en el futuro cercano. Quiero decir, eso es lo que necesitamos, algún avance como ese, y eso es solo ciencia ficción. ¿Es eso lo que estás diciendo?

Erik: Sí. Entonces, gran parte de la atención se centra en el tema de la conciencia cuando se habla de IA. Así que la gente dirá, «¿Podemos construir una máquina consciente?» Y, por lo tanto, mucho… Se derrama tanta tinta sobre este tema de si los sistemas computacionales pueden tener mentes en el sentido de la conciencia, pero el problema real para científicos de la IA como yo es si pueden realizar cosas inteligentes que no sean estrechas, como jugar ajedrez, o jugar Go, o jugar, incluso, ¡Jeopardy! ¿Pueden realmente exhibir una inteligencia general, lo que a la gente le gusta describir ahora como una inteligencia artificial general o una IAG?

Esa es la pregunta. Si están conscientes o no es una cuestión secundaria que podemos dejar en la clase de filosofía, lo que no podemos dejar en la clase de filosofía, como científico de la IA, es qué tipo de comportamientos inteligentes se pueden programar, ¿verdad?

Así que escribí el libro centrándome específicamente en algo llamado inferencia, que es dado lo que sé y lo que veo, ¿qué puedo concluir? Y si no tienes la inferencia, no tienes un sistema inteligente, ya sea una persona o un robot, sin inferencia, no hay inteligencia. Así que las limitaciones en la inferencia en los sistemas computacionales se traducen directamente en la pregunta sobre el futuro de la IA. Así que sí.

Jed: Sí, entonces realmente no profundizas en toda esa cosa de Terminator en tu libro, simplemente dices… Lo dejas un poco como, «La única forma en que podríamos experimentar una verdadera inteligencia artificial que tenga esta capacidad de inferencia es si obtuviéramos algún avance, ya sea un brazo de Terminator, ya sea algo más, eso es lo que realmente necesitamos, ¿verdad?» ¿Es eso lo que estás diciendo?

Erik: Sí, quiero decir, en esencia, si… Cualquier extensión previsible de las capacidades que tenemos actualmente no resulta en una inteligencia general, simplemente no lo hacen.

Jed: Entonces necesitaríamos un gran avance.

Erik: Sí, tiene que haber algo que suceda, y así que hay dos posibilidades: tenemos nuestro tipo de momento einsteiniano donde alguien se da cuenta de, «Oh, la razón por la que tenemos malas mediciones al 90% de la velocidad de la luz es porque tuvimos que curvar el espacio-tiempo». Quiero decir, conoces a los físicos, ¿verdad? Y nadie pensó en eso. Estábamos tratando con un tipo de espacio euclidiano y luego alguien dijo: «No, tenemos que usar este espacio lobachevskiano». Es como, «Oh. Bueno, nadie… » Eso hizo que ciertas mediciones fueran posibles, nos dio una imagen más rica.

En el mismo sentido, la IA no necesita a personas predicando sobre máquinas inteligentes, necesitan a alguien que resuelva el problema en este sentido fundamental, conceptual, innovador, o necesitamos empezar a admitir que sobrepasamos la meta y que puede haber diferencias fundamentales entre las mentes y las máquinas, es simplemente un hecho de… Un hecho de la naturaleza, un hecho de la vida que tenemos diferencias, y podemos unir ambas en futuros esfuerzos de desarrollo, así que…

Jed: Y de esas dos opciones, ¿crees que es más probable que haya una diferencia fundamental entre la mente y la máquina en lugar de pensar que hay una alta probabilidad de que tengamos este momento einsteiniano donde obtenemos el brazo de un robot terminator y vemos el chip en su interior y decimos: «Oh, eso es lo que necesitamos hacer»? Esa primera opción de tener el momento Einstein no es realmente probable en tu libro, ¿es eso lo que piensas?

Erik: Bueno, no puedes… No tienes una probabilidad previa para asignarle, por lo que no puedes evaluar la probabilidad de una innovación conceptual… Como no sabemos… No sabemos realmente qué es posible, es como una prueba de imposibilidad en sí misma, así que si alguien pudiera formalizar el problema y demostrar que es imposible, como en lógica matemática o algo así, entonces eso sería una cosa, pero hasta donde yo sé, no tenemos una prueba.

Así que tenemos que dejar la puerta abierta. Y es difícil evaluar las probabilidades cuando no tienes un punto de partida… No… ¿En base a qué? Y entonces… Pero creo que intuitivamente, si quieres… Así que llego a una conclusión disyuntiva de que o tienes que esperar un milagro en efecto, o es imposible. Eso es lo que estamos viendo.

Jed: ¿Y eso es… Eso es lo que dice tu libro? Eso es a lo que llegas…

Erik: Sí, sí. Es una de esas dos opciones. Sí, y…

Jed: Vale.

Erik: Eso es tan lejos como pude extender el argumento sin introducir mis propias opiniones, que es lo que estaba criticando que hacen los futuristas… Así que quería que mi argumento estuviera respaldado exactamente por lo que sabemos sobre el estado del arte y sus extensiones previsibles, entonces…

Pero si quieres mi propia opinión, que cae un poco fuera del alcance del libro, pero… Sí, si me preguntas si mi portátil va a desarrollar una mente o algo así, o si alguna granja de servidores con capacidades de computación súper avanzadas y nuevos algoritmos y demás, va a exhibir de alguna manera las características de una persona humana, creo que es simplemente un pensamiento increíblemente extraño al que no creo que debamos prestar mucha credibilidad, francamente, así que mi opinión personal es que simplemente no es lo mismo. Son cosas completamente diferentes.

Es como preocuparse de que si dejo de poner bagels en mi tostadora. No me preocupa especialmente que comience a quejarse y sentir… Después de todo, una computadora es un artefacto, ese es el punto, y los artefactos no exhiben características personales, ya sea una computadora o una tostadora o cualquier cosa. Esta es una opinión bastante radical que tengo, y ciertamente la gente podría tener objeciones e intentar marcar territorio donde una computadora sea significativamente diferente de otros artefactos, pero al final del día, algo que diseñamos, no creo que esté en la categoría adecuada para ser algo que exhiba la personalidad, en absoluto.

Jed: ¿Correcto? ¿Cómo guías a las personas a través de ese argumento? Porque evidentemente, algunas personas pueden recoger tu libro siendo verdaderos creyentes de que la IA está a la vuelta de la esquina y que se volverá consciente, y cosas por el estilo, ¿cómo los llevas a verlo de tu manera, incluso si comenzaron desde ese punto?

Erik: ¿Quieres decir, cómo lo hago en el libro?

Jed: Sí, como ¿cuál es la estructura del libro? No he leído el libro y las personas que vean esta entrevista podrían estar interesadas en comprarlo, pero dales una pequeña idea de lo que haces para guiarlos a través de este argumento.

Erik: Sí, quiero decir, así que el argumento principal, la parte más sustancial del libro, donde creo que un amplio público podrá entenderlo es cuando explico exactamente lo que hacen los sistemas de IA avanzada de Google, Facebook, Twitter, los sistemas de recomendación de Amazon o las recomendaciones de películas en Netflix, ejemplos reales de IA de vanguardia con los que interactuamos actualmente que representan el estado del arte.

Explico lo que están haciendo en realidad en términos de tipos de inferencia, y realmente sabemos mucho sobre la inferencia. Comenzó con Aristóteles, que nos dio el silogismo, que es un tipo de inferencia deductiva que utiliza dos premisas y una conclusión, y se ha expandido a través de George Boole. Eres científico, conoces todas estas cosas, estoy seguro. Y hemos formalizado grandes partes de la inferencia en lenguajes lógicos, y sabemos mucho sobre la inferencia en toda la historia del pensamiento intelectual, por lo que podemos decir mucho sobre lo que las computadoras están haciendo en relación con la inferencia.

Entonces, en realidad tenemos un marco muy bueno para decir, «¿Qué está haciendo realmente este sistema de recomendación en Netflix?» Resulta que está haciendo inducción a partir de ejemplos anteriores, y si está haciendo inducción a partir de ejemplos anteriores, es bastante sencillo explicar cómo hereda todos los problemas de la inducción para fines de inteligencia general, y la inducción no te dará inteligencia general. Simplemente no lo hará, al igual que la deducción.

Y estos sistemas pueden ser híbridos y utilizar combinaciones de deducción e inducción, por ejemplo, lo que hizo el sistema Watson de IBM que jugó Jeopardy y ahora hace todo tipo de cosas. Tuvieron un intento en la industria de la atención médica, pero creo que ahora todavía están expandiendo su modelo de negocio en IBM bajo sus laboratorios de computación cognitiva, y… Pero originalmente comenzó con un sistema híbrido que un tipo llamado Dave Ferrucci, que ahora trabaja en Wall Street, es un tipo muy, muy inteligente, diseñó con un equipo, un equipo muy grande de personas que aportaron mucha inteligencia humana para descomponer el juego de Jeopardy y lograr que esa computadora realmente pudiera vencer a Ken Jennings y a los grandes maestros en 2011, en realidad venció a todos los humanos y ese sistema utiliza una combinación de deducción e inducción, por lo que lo llamamos un sistema híbrido.

Pero incluso esos sistemas híbridos heredan todas las limitaciones de la deducción y todas las limitaciones conocidas de la inducción, y sabemos de manera muy directa que no pueden alcanzar la inteligencia general humana. Tenemos algo que se llama abducción, que es una especie de palabra desafortunada porque evoca la idea de secuestrar… Tiene otra connotación…

Jed: Sí.


Erik: Pero la abducción o reproducción es una especie de razonamiento a partir de observaciones hacia hipótesis probables, y no proporciona explicaciones plausibles de lo que vemos, resulta que a medida que avanzamos en nuestra vida, la mayoría de nuestras vidas son abducciones.

La mayoría de las inferencias que hacemos al caminar por la calle, ir al supermercado, dar sentido a una conversación con tu vecino, en realidad no son inductivas ni deductivas, sino inferencias abductivas. Dado que necesitamos que esto sea general y flexible en nuestra propia inteligencia humana, y las computadoras absolutamente no pueden reproducir ese tipo de inferencia, tienen que hacer uso de la inducción y la deducción, crear estos sistemas híbridos, y sabemos que estos son los que en realidad no pueden ser subsumidos en el otro.

Hay teoremas que realmente prueban que no se pueden reducir uno al otro. Bueno, sabemos que no tenemos AGI por ninguna extensión previsible de Google o de estas empresas que dicen que están al borde de… Sabemos que no lo están.

Simplemente sabemos que no lo están. Así que si alguien lee el libro, lo dejo muy, muy claro. Intento… Sí.

Fuente: entrevista a Erick Larson, en Academic influence https://academicinfluence.com/interviews/computer-science/erik-larson

Deja un comentario