Lecciones de la nanotecnología para regular la Inteligencia Artificial

Por Andrew Maynard (*)

Hace veinte años, la nanotecnología era la inteligencia artificial de su tiempo. Los detalles específicos de estas tecnologías son, por supuesto, un mundo aparte. Pero los desafíos para garantizar el desarrollo responsable y beneficioso de cada tecnología son sorprendentemente similares. La nanotecnología, que son tecnologías a escala de átomos y moléculas individuales, incluso conllevaba su propio riesgo existencial en forma de "cosa gris".

Sin embargo, a medida que siguen surgiendo y ganando terreno tecnologías potencialmente transformadoras basadas en la IA, no está claro que las personas en el campo de la inteligencia artificial estén aplicando las lecciones aprendidas de la nanotecnología.

Como estudiosos del futuro de la innovación, exploramos estos paralelos en un nuevo comentario en la revista Nature Nanotechnology. El comentario también analiza cómo la falta de compromiso con una comunidad diversa de expertos y partes interesadas amenaza el éxito a largo plazo de la IA.

EMOCION Y MIEDO

A finales de la década de 1990 y principios de la de 2000, la nanotecnología pasó de ser una idea radical y un tanto marginal a ser aceptada por la corriente principal.

El gobierno de Estados Unidos y otras administraciones de todo el mundo aumentaron la inversión en lo que se decía que era “la próxima revolución industrial”.

Los expertos gubernamentales presentaron argumentos convincentes sobre cómo, en palabras de un informe fundacional del Consejo Nacional de Ciencia y Tecnología de Estados Unidos, “dar forma al mundo átomo por átomo” transformaría positivamente las economías, el medio ambiente y las vidas.

Pero había un problema: inmediatamente después del rechazo público a los cultivos genéticamente modificados, junto con las lecciones aprendidas del ADN recombinante y el Proyecto Genoma Humano, la gente en el campo de la nanotecnología tenía crecientes preocupaciones de que pudiera haber una reacción similar contra la nanotecnología si se manejaba mal.

Estas preocupaciones estaban bien fundadas. En los primeros días de la nanotecnología, organizaciones sin fines de lucro como el Grupo ETC, Amigos de la Tierra y otras se opusieron enérgicamente a las afirmaciones de que este tipo de tecnología era segura

, que habría desventajas mínimas y que los expertos y desarrolladores sabían lo que estaban haciendo.

En aquella época se produjeron protestas públicas contra la nanotecnología y, lo que resulta inquietante, incluso una campaña de bombardeos por parte de extremistas medioambientales dirigida a investigadores de nanotecnología.

Al igual que ocurre con la IA en la actualidad, existía preocupación por el efecto en los empleos a medida que una nueva ola de habilidades y automatización arrasaba con las trayectorias profesionales establecidas.

También presagiando las preocupaciones actuales sobre la IA, comenzaron a surgir preocupaciones sobre los riesgos existenciales, en particular la posibilidad de que "nanobots" autorreplicantes conviertan toda la materia de la Tierra en copias de sí mismos, lo que daría como resultado una "sustancia gris" que abarcaría el planeta. Este escenario particular fue incluso destacado por el cofundador de Sun Microsystems, Bill Joy, en un destacado artículo de la revista Wired .

Sin embargo, muchos de los riesgos potenciales asociados con la nanotecnología eran menos especulativos. Así como en la actualidad hay un creciente enfoque en los riesgos más inmediatos asociados con la IA , a principios de la década de 2000 se hizo hincapié en examinar los desafíos tangibles relacionados con garantizar el desarrollo seguro y responsable de la nanotecnología. Estos incluían posibles impactos ambientales y de salud, cuestiones sociales y éticas, regulación y gobernanza, y una creciente necesidad de colaboración pública y de partes interesadas.

El resultado fue un panorama profundamente complejo en torno al desarrollo de la nanotecnología que prometía avances increíbles pero estaba plagado de incertidumbre y el riesgo de perder la confianza del público si las cosas salían mal.

PROCESO

Uno de nosotros, Andrew Maynard, estuvo a la vanguardia del tratamiento de los riesgos potenciales de la nanotecnología a principios de la década de 2000 como investigador, copresidente del grupo de trabajo interinstitucional sobre Implicaciones para la salud y el medio ambiente de la nanotecnología y asesor científico principal del Centro Internacional Woodrow Wilson para Proyecto de académicos sobre tecnologías emergentes.

En ese momento, trabajar en el desarrollo responsable de la nanotecnología era como jugar al azar con los desafíos sanitarios, ambientales, sociales y de gobernanza que presentaba la tecnología. Por cada solución, parecía haber un nuevo problema.

Sin embargo, al involucrarse con una amplia gama de expertos y partes interesadas –muchos de los cuales no eran autoridades en nanotecnología pero que aportaron perspectivas y conocimientos críticos–, el campo produjo iniciativas que sentaron las bases para que la nanotecnología prosperara.

Esto incluyó asociaciones de múltiples partes interesadas, estándares de consenso e iniciativas encabezadas por organismos globales como la Organización para la Cooperación y el Desarrollo Económicos .

Como resultado, muchas de las tecnologías en las que la gente confía hoy en día están respaldadas por avances en la ciencia y la ingeniería a nanoescala. Incluso algunos de los avances en IA se basan en hardware basado en nanotecnología.

En los Estados Unidos gran parte de este trabajo colaborativo fue encabezado por la Iniciativa Nacional de Nanotecnología entre agencias. A principios de la década de 2000, la iniciativa reunió a representantes de todo el gobierno para comprender mejor los riesgos y beneficios de la nanotecnología.

Ayudó a convocar a una amplia y diversa gama de académicos, investigadores, desarrolladores, profesionales, educadores, activistas, formuladores de políticas y otras partes interesadas para ayudar a trazar estrategias para garantizar tecnologías a nanoescala social y económicamente beneficiosas.

En 2003, la Ley de Investigación y Desarrollo de Nanotecnología del Siglo XXI se convirtió en ley y codificó aún más este compromiso de participación de una amplia gama de partes interesadas. En los años siguientes se produjo un número creciente de iniciativas financiadas con fondos federales (incluido el Centro para la Nanotecnología y la Sociedad de la Universidad Estatal de Arizona (donde uno de nosotros formaba parte de la junta de visitantes)) que cimentaron el principio de un amplio compromiso en torno a las tecnologías avanzadas emergentes.

 EXPERTOS

Estos y otros esfuerzos similares en todo el mundo fueron fundamentales para garantizar el surgimiento de una nanotecnología beneficiosa y responsable. Sin embargo, a pesar de aspiraciones similares en torno a la IA, faltan estos mismos niveles de diversidad y compromiso.

El desarrollo de la IA que se practica hoy en día es, en comparación, mucho más excluyente. La Casa Blanca ha dado prioridad a las consultas con los directores ejecutivos de las empresas de inteligencia artificial, y las audiencias del Senado han recurrido preferentemente a expertos técnicos.

Según las lecciones aprendidas de la nanotecnología, creemos que este enfoque es un error. Si bien es posible que el público, los formuladores de políticas y los expertos ajenos al dominio de la IA no comprendan completamente los detalles íntimos de la tecnología, a menudo son plenamente capaces de comprender sus implicaciones. Más importante aún, aportan una diversidad de conocimientos y perspectivas que son esenciales para el desarrollo exitoso de una tecnología avanzada como la IA.

Es por eso que, en nuestro comentario sobre Nature Nanotechnology, recomendamos aprender de las lecciones de la nanotecnología, involucrarse tempranamente y con frecuencia con expertos y partes interesadas que tal vez no conozcan los detalles técnicos y la ciencia detrás de la IA, pero que sin embargo aportan conocimientos y perspectivas esenciales para garantizar el uso apropiado de la tecnología.

La inteligencia artificial podría ser la tecnología más transformadora que jamás se recuerde. Desarrollado de manera inteligente, podría cambiar positivamente la vida de miles de millones de personas.

Pero esto sólo sucederá si la sociedad aplica las lecciones de pasadas transiciones tecnológicas avanzadas como la impulsada por la nanotecnología.

Al igual que en los años de formación de la nanotecnología, es urgente abordar los desafíos de la IA. Los primeros días de una transición tecnológica avanzada marcan la trayectoria de cómo se desarrollará en las próximas décadas. Y con el reciente ritmo de progreso de la IA, esta ventana se está cerrando rápidamente.

No es sólo el futuro de la IA lo que está en juego. La inteligencia artificial es sólo una de las muchas tecnologías emergentes transformadoras. Las tecnologías cuánticas, la manipulación genética avanzada, las neurotecnologías y más están llegando rápidamente.

Si la sociedad no aprende del pasado para navegar con éxito estas transiciones inminentes, corre el riesgo de perder las promesas que contienen y enfrenta la posibilidad de que cada una cause más daño que bien.

(*) Universidad Estatal de Arizona.