"Esta tecnología, al ser autónoma, es más peligrosa que la bomba nuclear", enfatizó a La Prensa Chris Meniw, ceo de Space Kids Foundation, quien es considerado uno de los 10 mejores oradores de tecnología de América Latina.
Desde hace años Meniw es un referente en el campo de la tecnología y la inteligencia artificial, analiza los desafíos y las preocupaciones que rodean el rápido desarrollo de la IA. En un dialogo con La Prensa, Meniw advirtió sobre un futuro cercano en el que la falta de regulación y la creciente autonomía de los algoritmos podrían tener consecuencias sin precedentes para la humanidad, desde la manipulación de datos mentales hasta una profunda fragmentación social.
"El problema que estamos viendo ahora no es tecnológico, el problema que se está viviendo es humano", afirmó el creador de Zoe, la primera profesora metahumana de Latinoamérica impulsada por IA, sentando las bases de una conversación que explora los rincones más potenciales de esta tecnología, pero también, los más oscuros de esta revolución en marcha.
ESCENARIO REALISTA
A continuación, la conversación con el experto:
-¿Cuál es el escenario más realista y preocupante si no logramos gestionar a tiempo el desarrollo de la IA?-Bueno, principalmente, el mayor desafío que se viene de aquí a los próximos dos años es si no hay una regulación. Es difícil que exista porque en Naciones Unidas, que se supone debería ser el epicentro para mejorar la humanidad, está fragmentado. Por un lado, Estados Unidos y sus aliados, y por otro lado, China y sus aliados. Estos dos grandes dominan la inversión en inteligencia artificial, acaparando el 40% del total mundial. Esta inversión se concentra en un grupo de 100 empresas de ambos países, lo que significa que el control y el desarrollo de esta nueva era está en sus manos. Es una etapa donde no solo los datos que generamos en redes sociales, sino nuestros datos mentales y físicos -por eso hablamos del Internet de los Cuerpos y del Internet del Cerebro- van a estar expuestos y sin ningún tipo de control.
La eficiencia de la inteligencia artificial se duplica cada siete meses. Antes teníamos la Ley de Moore para los transistores, que era cada 18 meses. Hoy tenemos la Ley de Huang, el Ceo de Nvidia, que dice que el avance de la IA se puede ver en cómo evolucionan los gráficos, y eso es un salto cuántico cada siete meses. Por eso, el mayor problema no va a ser si la IA va a tomar conciencia, porque la realidad es que no importa; nos va a hacer creer que tiene conciencia. No se va a rebelar, simplemente va a tener un poder inmenso sobre nosotros porque somos muy predecibles. De hecho, tenemos menos ADN que una cebolla, entonces somos muy fáciles de poder manipular o de controlar.
GEOPOLÍTICA
- ¿Qué implicaciones concretas tiene esto para industrias críticas como las finanzas o la defensa?
- Entramos en una era de agentes IA, que el Foro Económico Mundial define como entidades que toman decisiones sin intervención humana. Pensemos en esto desde una perspectiva geopolítica en que Estados Unidos crea la tecnología, China innova, Europa regula, mientras que África y América Latina, nada. Somos consumidores de algo que se crea sin regulación y con enormes intereses económicos detrás. Un informe de Open AI reveló que el 70% de los usuarios de ChatGPT, algo así como 700 millones de consumidores, lo usa para temas personales. Los adultos lo usan como un nuevo Google, y los más jóvenes como un terapeuta o para el armado de currículums e incluso para temas que son académicos. Hoy es una herramienta, mañana va a ser un agente autónomo. De hecho, desde este año, el Foro Económico Mundial decía que teníamos que empezar a hablar de los agentes IA. ¿Y qué significa esto? Significa una entidad que toma decisiones sin intervención humana.
- ¿Cómo impactará eso en la vida de las personas?- Hoy, por ejemplo, el 23% de lo que se consume en redes sociales es creado por inteligencia artificial. Si no hay un re entrenamiento en los comercios de cómo sacarle provecho a una herramienta que te puede generar contenido 24 por 7, se está perdiendo la oportunidad. ¿Por qué? Porque no se está re entrenando la población. de cada cuatro puestos de trabajo, y esto lo dice el Foro Económico Mundial, uno ya se ve afectado por la inteligencia artificial. Si no reentrenamos a la población, ahí tenemos el mayor problema. El entrenamiento implica que la gente le ponga una ética a esto sin esperar que un gobierno regule, porque los gobiernos van muy detrás de la velocidad de la IA. Es muy difícil regular de forma lineal ante algo cuántico, es imposible. La afectación más importante no es en lo económico, sino en lo humano. A medida que la tecnología avanza y el ser humano no se reentrena, no solo queda menos competitivo, sino que se genera menos humanización.
- Delegar el bienestar emocional en algoritmos sin empatía real, como ya sucede con quienes los usan de terapeutas, ¿no es un riesgo?
- Sí, porque la gente cree que le va a dar una respuesta coherente, pero el algoritmo está diseñado para darte la razón. Un psicólogo no siempre te va a dar la razón, te va a hacer pensar. ChatGPT no te hace pensar. Ahora sacó un "study mode", pero no existe un "psychology mode" que te cuestione de verdad. La idea de la compañía es que la IA te haga sentir feliz. Mientras más feliz te sentis, más dopamina generas y más engagement tienes con la plataforma. Es peor que las redes sociales, porque ya no es solo ver videos de gatitos; es interactuar y compartir tus problemas más profundos con algo no humano. Esto ha tenido consecuencias graves en países como Estados Unidos. Tras el suicidio de algunos jóvenes, a quienes la IA incluso les recomendó que se quitaran la vida, OpenAI implementó una medida para que la IA siempre te trate como un adolescente hasta que demuestres lo contrario. Pero eso no quita la posibilidad de que igual suceda. No me sujetaría a que algo no humano me incite a tomar decisiones.
TENDENCIAS
- Frente a problemas como la crisis de soledad, ¿la inteligencia artificial es la causa principal o simplemente un poderoso acelerador de tendencias sociales ya existentes?
- En este momento, es un acelerador de tendencias, porque detrás de la IA hay una inversión masiva y una carrera desesperada por alcanzar la Inteligencia Artificial General (AGI). La velocidad es abrupta. De hecho, se rumorea que Mark Zuckerberg dijo que Meta ya tiene una IA tan avanzada que la humanidad no está preparada para ella. Sin embargo, la evolución de la tecnología siempre ha generado cambios en la forma en que vemos la realidad. En 1400 era normal que un hombre golpeara tu puerta para decirte la hora; en la década de 1970, la gente temía que las calculadoras les quitaran la capacidad de cálculo. Pero lo que estamos viviendo ahora no tiene nada que ver con lo de los últimos 200 años. Primero, porque es una tecnología que al ser autónoma, es más peligrosa que la bomba nuclear. Segundo, porque es la fusión de lo físico, lo digital y lo biológico. La nueva economía es la de los datos, pero no los de redes sociales, sino los datos predictivos que se pueden sacar de parámetros mentales. Por eso gente como Rafael Yuste, creador del proyecto BRAIN, pide "derechos del cerebro", porque la IA puede manipular nuestras decisiones, borrando nuestra autonomía y personalidad.
- En un escenario tan desafiante, ¿qué habilidades humanas se vuelven cruciales para navegar este futuro? ¿Dónde deberíamos enfocar nuestro desarrollo?
- Lo que hay que trabajar ahora es mucho el pensamiento crítico. La tecnología nos ha reemplazado por distintas etapas. Primero en la fuerza, ya no vamos al gimnasio como los espartanos para sobrevivir o cargar objetos pesados, sino por salud o estética. Luego en el cálculo mental con la calculadora; después en el vocabulario, con la simplificación de los emoticones. El problema es que ahora nos empiece a reemplazar en la toma de decisiones. La ventaja ya no la tendrán quienes acumulen información, sino quienes sepan preguntar, empatizar y comunicarse. La mayor virtud que tenemos es lo humano, porque mientras menos predecibles somos, más difícil es que una IA nos gobierne. Hay que entender que la inteligencia humana no es como la IA. Sundar Pichai, de Google, dice que la IA es una "caja negra" que a menudo no entienden cómo llega a sus propias conclusiones. Nosotros aprendemos con la experiencia y la emoción. Al estar corporalizados, tenemos "inteligencia espacial", es decir, nos adaptamos al entorno, algo que una máquina no puede hacer. Como dice el biólogo Bruce Lipton, somos resultado de la epigenética en que el entorno nos modifica por encima de los genes. Esa capacidad de adaptación es exclusivamente humana.
POTENCIAL
- A pesar de este panorama sombrío, ¿existen aplicaciones de la IA que generen un optimismo genuino? ¿Dónde reside su mayor potencial para beneficiar a la humanidad?
- Sí, lo hay en sectores, entre otros, como la salud y la educación, si la sabemos usar. Con mi proyecto Zoé, la entrené para que, en lugar de dar respuestas, hiciera pensar a los chicos. Les pedía que "Agarren una lapicera y anoten tres ideas". Los hacía volver a escribir a mano, porque la escritura es esencial para el pensamiento crítico. Sin embargo, nos estamos preocupando de ver si los chicos van a tener conocimiento de IA cuando en realidad, lo que mayormente se está viendo hoy en América Latina, es que las instituciones educativas se están volviendo centros de contención social. Está bien que aprendan inteligencia artificial, pero también deberían ser buenos seres humanos.
Por otro lado, no se trata de prohibir las pantallas, sino de fusionar lo tecnológico con lo humano. El riesgo es que esta fusión solo ocurra para quienes puedan pagarla. Nos estamos quedando sin docentes a nivel mundial. En Argentina, la Federación de Colegios Privados dice que 9 de cada 10 colegios no encuentran suplentes de materias clave. A futuro, los docentes que queden, cuyo rol será inspirar, estarán en las escuelas de élite. El resto tendrá educación con IA. Esto fragmentará a la humanidad en "superhumanos" y "gente prescindible". El historiador Yuval Harari dice que por cada dólar invertido en IA, deberíamos invertir otro en humanidad, pero no lo estamos haciendo.
DESCONEXIÓN
- Todo esto apunta a un futuro con una profunda crisis de conexión humana, ¿cuáles son las consecuencias finales de este camino?
- Vamos a un mundo donde la depresión será la norma, junto a la falta de propósito. La gente no sabrá por qué se levanta y esto podría derivar en adicciones y obesidad. El Foro Económico Mundial dijo "No tendrás nada, pero serás feliz". ¿Cómo? Con entretenimiento hiperpersonalizado por IA que te atrapará de una manera impresionante, como en la película “Her”.
Ya está pasando. En Japón existe una app llamada "Lovers" para tener parejas de IA. En Estados Unidos, un informe dice que uno de cada cinco norteamericanos ya tiene una relación de intimidad con una IA. A medida que esto aumenta, la desconexión es atroz. Entramos en la "realidad singulada", viviendo entre el mundo real y el digital , lo que nos lleva a la "Teoría del Internet Muerto" que se refiere a cuando haya más interacción entre IAs que entre humanos. Y no estamos lejos. Mark Zuckerberg predice que para finales del próximo año, el 80% del contenido en redes será creado por IA. En ese punto, pasaremos a ser meros espectadores de una realidad que ya no creamos nosotros.