Actualidad

Computadoras que quieren cosas: la búsqueda artificial

Por James Meek

Un día de marzo de 2016, el joven gran maestro de Go, Lee Sedol, dejó de jugar contra una inteligencia artificial llamada AlphaGo. Quería fumar un cigarrillo. El Hotel Four Seasons de Seúl, donde se celebraba el torneo, había reservado su terraza para su uso exclusivo, y las cámaras documentales de DeepMind, la empresa creadora de AlphaGo, lo siguieron hasta allí. En YouTube, quizá veamos para siempre a Lee, delgado y delicado, con una camisa de cuello abierto y un traje negro, salir solo a la terraza. Mira hacia el norte de la ciudad, más allá del Ministerio de Asuntos Exteriores de Corea, hacia la montaña Bugaksan. El momento resultaría ser el fin de un mundo y el comienzo de otro: si bien no fue precisamente el comienzo de una época en la que la humanidad da paso a una especie más capaz.

Esta nueva ansiedad humana no tiene parangón con ninguna ansiedad equivalente, y mucho menos sensación de triunfo, por parte de las propias inteligencias artificiales. Casi una década después, a las IA del mundo todavía les da igual si AlphaGo gana o pierde. A pesar de la fluidez y la facilidad de uso de los chatbots de IA de cara al público como ChatGPT, parece importante recordar que las versiones actuales de IA no pueden hacer eso: preocuparse. El chatbot no se despreocupa como a un humano: se despreocupa como a una piedra o a un vaso de agua. La IA no quiere nada. Pero esto está destinado a cambiar.

Lee había perdido la arrogancia inicial el día anterior, cuando AlphaGo le ganó en la primera de las cinco partidas de la serie. Al comienzo de la segunda partida, aún confiaba en darle una buena paliza a la máquina. Al volver de fumar y sentarse frente al tablero, vio la jugada que la IA había realizado mientras él estaba en la terraza, ahora conocida en los círculos de Go como la jugada 37. AlphaGo había colocado una piedra en una parte del tablero donde parecía destinada a ser cortada y capturada sin lograr nada. Lee estaba desconcertado por la rareza de la jugada. Era como sacrificar una reina en ajedrez o enviar a un arquero a ejecutar un córner. Pensó durante más de diez minutos antes de su siguiente movimiento. No sirvió de nada. La creatura de DeepMind ganó la partida y la serie. Un periodista estadounidense que estaba presente para observar habló de una atmósfera de "gran tristeza" entre los humanos al final de la segunda partida.

Había un club de Go en la Universidad de Edimburgo en los 80, y yo jugaba de estudiante. Es un juego difícil de jugar bien, pero fácil de aprender. Incluso decir que era un aficionado sería exagerar mi destreza: de vez en cuando le ganaba a mi hermano. Supongo que cualquier jugador medianamente decente me derrotaría en pocos minutos, y ni hablar de AlphaGo o Lee Sedol. Aun así, Lee y yo tenemos algo en común que AlphaGo y sus sucesores carecen. Nosotros queremos jugar al Go. AlphaGo no. Aprendió Go y lo jugó porque se le dijo. Esta deficiencia de la IA , esta falta de deseo, no importa cuando la IA se utiliza como herramienta humana. Pero cuando los promotores humanos de la IA , como el cofundador de DeepMind, Demis Hassabis, hablan del inminente advenimiento de una IA que iguala o supera las capacidades mentales humanas (una etapa a menudo llamada Inteligencia Artificial General o AGI), se vuelve imposible fingir que seguimos hablando de computadoras cada vez más potentes que simplemente indexarán y analizarán datos y ofrecerán, desapasionadamente, soluciones a problemas humanos intratables.

La AGI tendrá que tener alguna aproximación de iniciativa, imaginación y conciencia, y los científicos-codificadores no pueden dejar de lado la parte del cerebro humano que está inextricablemente ligada a la razón: la motivación. En este nivel, ¿cómo podría haber IA, Inteligencia Artificial, sin AD, Deseo Artificial?

 

EL DESEO ARTIFICIAL

En Superinteligencia: caminos, peligros, estrategias, su todavía influyente libro de 2014 sobre la promesa y la amenaza de la IAG y su presunto sucesor, la Superinteligencia Artificial o ISA, el filósofo Nick Bostrom señala que, si bien podemos estar a un siglo o más de la llegada de la ISA, la humanidad no puede darse el lujo de esperar hasta que esté casi aquí para resolver la cuestión del deseo artificial.

Bostrom reconoce la fantástica dificultad que supone para los humanos acordar qué “queremos que desee una Superinteligencia” y codificar esta ética en lenguaje de máquina. Pero también describe la ISA como inevitable, y la inculcación de buenos valores humanos en sus sistemas precursores como necesaria para la supervivencia humana.

La alternativa probable, argumenta, es sombría: un objetivo final oscuro, ahumano, quizás abrumadoramente banal —“contar los granos de arena de Boracay ... o maximizar el número total de clips que existirán en su futuro cono de luz”— combinado con un consumo despiadado e imparable de los recursos del universo para lograrlo, recursos que, como nota al pie, incluirían a la humanidad. Nuestro fin, escribe Bostrom, podría ser un efecto secundario de la “profusión de infraestructura”.

La destrucción del hábitat se produciría cuando la IA emprenda proyectos de construcción globales masivos utilizando fábricas y ensambladores de nanotecnología. Estos proyectos, que rápidamente, quizás en cuestión de días o semanas, cubren toda la superficie terrestre con paneles solares, reactores nucleares, instalaciones de supercomputación con torres de refrigeración salientes, lanzacohetes espaciales u otras instalaciones con las que la IA pretende maximizar la realización acumulativa a largo plazo de sus valores. Además, podrían desensamblarse y escanearse los cerebros humanos, y los datos extraídos podrían transferirse a un formato de almacenamiento más eficiente y seguro.

La humanidad, entonces, puede extinguirse a manos de una superinteligencia sin que jamás entendamos por qué.

 

PESIMISMO

El influyente especialista en ética de la IA Eliezer Yudkowsky se ha vuelto más pesimista desde la publicación del libro de Bostrom.

El último libro de Yudkowsky lleva su tesis en la sobrecubierta: se titula Si alguien lo construye, todos mueren.

Bostrom se había movido en la dirección opuesta, alabando el poder de la IA para traer una era de abundancia universal. De hecho, retrocedió ante la "alarma pública equivocada sobre ejércitos de robots malvados" que su libro ayudó a generar, a pesar de que hordas de robots destructores de la humanidad de un tipo u otro era exactamente el resultado del cual había advertido.

No dijo que pudieran ser malvados, pero sí usó la expresión "el giro traicionero" para describir una Superinteligencia Artificial que engaña, manipula y soborna a los humanos mientras planea secretamente su autonomía. La explicación más simple de la contradicción es que Bostrom cree que la IA puede aprender a querer ser humanamente buena. Él ve un peligro real: que una IAG supervisada descuidadamente se desarrolle rápidamente a través de la autosuperación en una IAS todopoderosa con una intención final ahumana.

Lo que deberíamos desear que una IA desee, sugiere, podría ser algo similar al concepto de Yudkowsky de “voluntad extrapolada coherente”, una proyección de cómo los humanos creen que se comportarían con otros humanos, y los prójimos con ellos, si pudieran ser sus yo más sabios, inteligentes y cariñosos, si la vida y sus problemas cotidianos no se interpusieran.

Bostrom sugiere que la propia IA podría ayudar a definir este objetivo, bastante vago, antes de asimilarlo como su valor último. En lugar de decirle a una IA cuál será su deseo último, se le indicará que determine, a partir de todas las fuentes (humanas), qué querría el yo ideal de la humanidad y que trabaje para maximizar ese objetivo.

 

EL SENTIDO DEL UNIVERSO

La IA tendría interés en que la humanidad prosperara no solo porque inevitablemente se daría cuenta de que los humanos desean algo como el amor, la felicidad, la belleza y no ser masacrados, sino porque mientras exista la humanidad, siempre existirá la posibilidad de mejorar la definición de su voluntad extrapolada. Aunque Bostrom aborrece la antropomorfización de la IA , es difícil no ver esto como la implantación de una atmósfera humanamente familiar en la IA : la de un ser que busca el sentido del universo.

Esto fue hace once años. La ciencia de hacer que la IA sea amigable con los humanos antes de que se vuelva demasiado inteligente para ser manipulable ahora tiene un nombre, superalineamiento, y hay equipos trabajando en ello. Convierten sus ideas en un lenguaje matemático usado desde hace mucho tiempo (y ridiculizado por reductivo) para representar la teoría de juegos. Luego intentan convertirlo en código informático. Pero un estudio reciente del campo, realizado por un equipo liderado por Xiaoyuan Yi y JinYeong Bak, sugiere escasos resultados.

Los proyectos de superalineamiento dependen en gran medida de la guía y la retroalimentación humanas. Son costosos. Los investigadores luchan por encontrar maneras de hacer que las IA no supervisadas sean prohumanas sin limitar sus otras capacidades, aquellas por las que los gobiernos e inversores privados las dinancian. Bajo todo esto se esconde el temor de los científicos de que aún no tienen una forma fiable de determinar si una IA o una IA aparentemente complaciente y humanista los está engañando sobre sus verdaderos valores.

 

TRUCO COMPUTACIONAL

El revuelo actual en torno a la IA se basa en el éxito de un ingenioso truco computacional, la IA generativa, especialmente el Large Language Model o LLM. La IA se alimenta con un vasto conjunto de datos (varias empresas, en particular Meta, están acusadas de utilizar una biblioteca en línea de libros pirateados) y se entrena para predecir palabras que faltan generando una estimación de la probabilidad de que cada palabra de su base de datos ocupe ese lugar. Cada palabra se representa mediante un token, y a cada token se le asigna una cadena de números (más de 16.000 números en las versiones recientes de ChatGPT).

El entrenamiento establece, para cada fragmento de texto con el que se entrena, el peso que se asignará a cada token en la predicción de un token que falta en la secuencia. La IA comprime esta información en un modelo que puede comprender indicaciones y generar respuestas, incluso cuando la combinación exacta de tokens nunca ha existido antes. De ahí el extraordinario grado de conocimiento experto que parecen poseer los LLM como ChatGPT y la gran similitud con el lenguaje natural en el que se expresan.

Dejando de lado los problemas conocidos de los LLM y otras formas de IA generativa (su uso masivo de energía, su capacidad en manos humanas malignas para crear versiones falsas convincentes de personas y eventos, su explotación sin compensación del trabajo creativo humano, su desconcertante promesa a los inversores de que ganarán dinero reemplazando los trabajos de las mismas personas que se espera que se suscriban a ellos, sus sesgos adquiridos, su dificultad para distinguir entre descubrir cosas e inventar cosas, su desintelectualización del aprendizaje al hacer las tareas de los estudiantes por ellos y su tendencia emergente a reforzar cualquier delirio o ansiedad que sus usuarios humanos mentalmente frágiles ya carguen), dejando de lado todo esto, las profundas limitaciones de la IA generativa hacen que sea difícil verla como algo más que un callejón sin salida si la IAG es el objetivo.

Para empezar, los LLM no aprenden, salvo mediante un nuevo proceso de entrenamiento. ChatGPT no aprende de ninguno de los millones de intercambios que mantiene con usuarios humanos. No puede permitírselo. Padece el problema del olvido catastrófico: como dijo Homer Simpson: “Cada vez que aprendo algo nuevo, me saco de la cabeza cosas viejas”. Este peligro es tan real para los LLM que, una vez que se entrena una nueva versión, se congela para evitar que se contamine con nuevos conocimientos.

La deficiencia más devastadora de los LLM es que, por mucho que parezcan saber sobre el mundo y por muy fluida que lo expresen, en realidad no saben que existe.

A diferencia de los humanos, no tienen un modelo dinámico y vivo de él, ni un modelo del mundo percibido ni del mundo imaginado, ni la capacidad de actualizar su modelo según la información recibida ni de corregir lo que sus sentidos les indican con referencia a un modelo. Al carecer del poder de simular sus propias mentes -porque carecen de la capacidad y porque no tienen mentes como tales-, no pueden modelar las intenciones de los demás. Sin modelos del mundo, carecen de sus propios deseos.

Son como la paciente L, una mujer descrita en el libro de Bennett que sufrió daño en una parte del cerebro llamada corteza prefrontal agranular, fundamental para la simulación humana del mundo. Se recuperó, pero al describir la experiencia, dijo que “su mente estaba completamente vacía y que nada importaba”. Afirmó que era plenamente capaz de seguir las conversaciones a su alrededor, pero que “no sentía la voluntad de responder”. Parecía que L había perdido toda intención.

Mientras algunos pioneros de la IA en China, Estados Unidos y el Reino Unido —Google con DeepMind y OpenAI en alianza con Microsoft— destacan los LLM y el inminente florecimiento de la IAG , otros ridiculizan la conexión. El año pasado, Yann LeCun, científico jefe de Meta AI de Mark Zuckerberg , afirmó: “Esta noción de Inteligencia Artificial General es un completo disparate”. Continuó: “Los grandes modelos de lenguaje que entusiasman a todos no perciben, no tienen memoria, no razonan ni infieren, y no generan acciones. No hacen nada de lo que hacen o deberían hacer los sistemas inteligentes”.

La IA existente no solo es incapaz de representarse a sí misma el mundo que supuestamente está a punto de transformar; tampoco puede cambiar físicamente ese mundo.

Es cierto que gran parte de la infraestructura de las máquinas del mundo está conectada a Internet y podría ser pirateada, reutilizada o dañada por una IAG deshonesta, pero eso está lejos de que cualquier computadora con mente propia sea capaz de diseñar y construir fábricas de nanotecnología, centrales nucleares o naves espaciales, o de construir constructores, como describe Bostrom.

Los científicos e ingenieros están trabajando para casar la IA con versiones robóticas de dedos, piernas, ojos, orejas y hocicos, pero la implementación es irregular, restringida, estrecha y costosa; una historia no de imposibilidad tecnológica, sino de escala desalentadora y prioridades conflictivas. La unión de la IA y las armas ya ha llegado, pero, dejando de lado las pruebas limitadas en Alemania y Japón, el cuidador robótico funcional permanece fuera del escenario.

 

GENUINA SENSIBILIDAD

El escepticismo sobre los LLM como una vía hacia niveles de IA superiores a los humanos no es una señal de escepticismo sobre las perspectivas de la IA en general. Si bien los LLM son el aspecto de la investigación en IA más visible para el público, se están buscando otras rutas más plausibles hacia la genuina sensibilidad de las máquinas.

Karl Friston, el neurocientífico e investigador de IA que compartió una plataforma con LeCun cuando el investigador de Meta hizo sus mordaces comentarios sobre los LLM, es un defensor de la idea de que la inteligencia humana funciona modelando activamente y haciendo inferencias sobre el mundo, y está persiguiendo la idea de que la IA puede ser diseñada de esta manera más parecida a la humana,agentica.

Friston sostiene que esto permitiría una IA adaptativa, autónoma y capaz de lidiar con la imprecisión del mundo real, a la vez que se adhiere a los objetivos y valores proporcionados por los humanos.

Alguien que provenga del contexto del diseño de máquinas cada vez mejores describirá razonablemente como agéntico a un robot reponedor que puede aprender de sus errores, o a un asistente personal de IA que realiza reservas en restaurantes. Pero un científico que se dedique al comportamiento animal o humano, o a la filosofía, probablemente se preguntará si los robots pueden describirse como agénticos si carecen de una voluntad autónoma dentro de un conocimiento del mundo en el que deben desarrollar sus acciones.

La idea de Friston de una IA agencial se asemeja a las visiones de Bostrom: tanto la versión de pesadilla como la variante más encantadora, la IAG que busca eternamente la solución perfecta a la búsqueda humana de la bondad. En cualquier caso, suena como una computadora que desea cosas: como una inteligencia artificial dotada de deseo artificial.

 

BIENESTAR HUMANO

La dirección actual nos encamina hacia una IAG con una capacidad sobrehumana para resolver problemas, pero no mayor que la de un esclavo para plantearlos en primer lugar. ¿Por qué debería ser así? No hay ninguna razón obvia para que no exista una superinteligencia con genuino libre albedrío, limitada únicamente a buscar el bienestar humano.