Presente en cada hogar y temida por sus creadores
La paradoja de la Inteligencia Artificial
Mientras millones usan modelos de IA sin preocupaciones, los arquitectos de la IA predicen transformaciones radicales en 2 a 5 años.
Por Marcelo F. Martínez
Mientras redacto estas líneas, millones de personas están usando ChatGPT cotidianamente para infinidad de cosas, planificar menús, redactar emails, obtener explicaciones complejas, incluso como compañía digital. Para la mayoría, la inteligencia artificial es simplemente una herramienta útil que facilita tareas diarias.
Sin embargo, quienes construyen estas tecnologías están emitiendo advertencias que contrastan radicalmente con esta percepción benévola. Mientras una madre usa ChatGPT para ayudar con las tareas escolares, Dario Amodei, CEO de Anthropic -una de las principales empresas de IA- predice que la tecnología eliminará el 50% de los empleos profesionales en cinco años.
Mientras un abogado lo emplea para redactar contratos básicos, Geoffrey Hinton, laureado con el Premio Turing y conocido como el "padrino de la IA", eleva al 20% la probabilidad de extinción humana por IA en treinta años.
Esta paradoja trasciende lo anecdótico. Representa algo fundamental: estamos en el ojo de un huracán tecnológico, experimentando calma aparente mientras los expertos observan fuerzas acumulándose en el horizonte. Como señala Amodei: “La mayoría no son conscientes de que esto está a punto de suceder. Suena loco, y la gente simplemente no lo cree”.
LAS PREDICCIONES ESPECIFICAS
Jensen Huang, CEO de NVIDIA -la empresa que fabrica los chips que alimentan la revolución de IA- ha sido categórico: “los empleos de todos serán afectados” y la IA pronto “generará más valor de mercado que los trabajadores humanos”. Sam Altman, CEO de OpenAI, es específico sobre el timing: “Creemos que, en 2025, podemos ver los primeros agentes de IA ‘unirse a la fuerza laboral’ y cambiar materialmente el output de las empresas”.
Estas predicciones no son meras especulaciones futuras. Los datos del mercado laboral ya reflejan estos cambios anticipados. SignalFire, firma de capital de riesgo especializada en análisis del mercado tecnológico, reporta que la contratación de graduados en Big Tech cayó 50% desde niveles pre-pandemia, con candidatos iniciales representando solo 7% del total de contrataciones. Como explica Heather Doshay, socia que lidera programas de reclutamiento en SignalFire: “La IA está haciendo lo que internos y recién graduados solían hacer”. La transformación que Huang y Altman predicen para el futuro próximo ya está ocurriendo en las primeras líneas del mercado laboral tecnológico.
EL CAMBIO PARADIGMATICO
Yann LeCun, científico jefe de IA en Meta y también ganador del Premio Turing, añade otra dimensión perturbadora. En el Foro Económico Mundial de Davos 2025 declaró que “los sistemas de IA que conocemos hoy están llegando al final de su vida útil”. No predice mejora incremental, sino cambio paradigmático fundamental hacia sistemas con “sentido común” y “modelos mentales del mundo” que aprenden observando la realidad como humanos.
Esta transición hacia la "década de la robótica" conecta con las predicciones específicas de Amodei sobre desarrollo de software. Cuando predice que "en 3-6 meses, la IA escribirá el 90% del código", no habla de sistemas actuales, sino de esta nueva generación que LeCun anticipa.
LA VOZ MAS INQUIETANTE
Yuval Noah Harari, historiador y filósofo israelí autor de bestsellers como “Sapiens”, ha emergido como una de las voces más perturbadoras sobre el futuro de la IA. En su libro “Nexus” (2024), Harari argumenta que la IA representa una amenaza sin precedentes porque es “la primera tecnología en la historia que puede tomar decisiones y crear nuevas ideas por sí misma”.
Su advertencia es categórica: “La IA no es una herramienta, es un agente. La mayor amenaza de la IA es que estamos invocando en la Tierra incontables nuevos agentes poderosos que son potencialmente más inteligentes e imaginativos que nosotros, y que no entendemos completamente ni controlamos”.
Harari predice escenarios específicos que van más allá del desplazamiento laboral. Advierte sobre “armas de destrucción social masiva”, donde la IA podría generar “un diluvio de noticias falsas, dinero falso y humanos falsos para que las personas en numerosos países pierdan la capacidad de confiar en cualquier cosa o persona”. También alerta sobre el riesgo de que terroristas usen IA para “sintetizar un virus tan mortal como el Ébola, tan contagioso como el Covid-19 y de acción tan lenta como el VIH”.
Las advertencias de Harari sobre riesgos sistémicos globales no están pasando desapercibidas en los centros de poder mundial. Algunos Gobiernos ya se Preparan para lo Inevitable Lo más perturbador es la respuesta institucional masiva. El Stanford AI Index 2025 documenta una explosión regulatoria sin precedentes: 59 regulaciones de IA fueron
introducidas por agencias federales estadounidenses en 2024, más del doble que en 2023. Las menciones legislativas de IA aumentaron 21.3% globalmente, mientras las inversiones gubernamentales alcanzan cifras astronómicas: China destinó $47.5 mil millones a semiconductores, Francia comprometió €109 mil millones, y Arabia Saudita lanzó una iniciativa de $100 mil millones. Esta respuesta masiva sugiere que los gobiernos toman muy en serio las advertencias de los expertos, preparándose para escenarios que el público no percibe como inminentes.
La consultora McKinsey estima el impacto potencial en $4.4 billones de dólares en crecimiento de productividad, mientras que el 92% de las empresas planean incrementar inversiones en IA.
Sin embargo, los propios datos de McKinsey revelan la brecha perceptual: aunque el 94% de empleados conoce herramientas de IA generativa, los líderes empresariales subestiman sistemáticamente su uso real. Solo el 1% de empresas se considera "madura" en implementación de IA, sugiriendo que estamos en etapas tempranas de una transformación que podría acelerar dramáticamente.
Las advertencias más inquietantes del “Padrino de la IA” Geoffrey Hinton ha intensificado notablemente sus advertencias tras dejar Google en 2023. En diciembre 2024, no sólo elevó al 10-20% la probabilidad de extinción humana por IA en treinta años, sino que ofreció una metáfora resonante: “Me gusta pensar en ello como: imagínate a ti mismo y un niño de tres años. Nosotros seremos los niños de tres años”.
Esta comparación conecta con una preocupación fundamental sobre control: “¿Cuántos ejemplos conoces de una cosa más inteligente siendo controlada por una menos inteligente? Hay muy pocos ejemplos”. El desarrollo es, según Hinton, “muy, muy rápido, mucho más rápido de lo que esperaba”, llamando urgentemente a regulación gubernamental porque “la mano invisible no nos va a mantener seguros”.
EL “WHITE-COLLAR BLOODBATH"
Cuando Amodei habló con Axios sobre la eliminación masiva de empleos profesionales, sus palabras fueron contundentes: "La tecnología que él y otras empresas están construyendo podría eliminar la mitad de todos los empleos de oficina de nivel inicial... tal vez en los próximos dos años." En la entrevista con CNN añadió que "la IA está empezando a superar a los humanos en casi todas las tareas intelectuales" y que las empresas deben´"dejar de endulzar" los riesgos de la eliminación masiva de empleos en tecnología, finanzas, derecho y consultoría.
El mensaje fue tan contundente y específico que Axios tituló la cobertura como el "white-collar bloodbath" -el baño de sangre de los trabajadores administrativos-, caracterización que reflejó el tono alarmante de las predicciones del CEO de Anthropic.
Como CEO de una empresa que desarrolla estas tecnologías, Amodei reconoció la ironía de advertir sobre los riesgos de productos que simultáneamente construye y vende, pero insistió en que “las personas que están más involucradas en construir IA tienen la obligación de ser honestas sobre hacia dónde se dirige”.
LA PREPARACION EN LA INCERTIDUMBRE
Toda esta cuestión encierra una paradoja, ¿cómo nos preparamos para transformaciones que según los expertos van a ocurrir de manera inminente, pero aún no las hemos comenzado a experimentar?. El contraste entre las vivencias cotidianas y estas predicciones expertas no invalida a ninguna de ellas; simplemente sugiere que estamos en un momento de transición acelerada donde el cambio puede materializarse más rápido de lo que las instituciones pueden adaptarse.
Las predicciones coincidentes de transformación radical en 2-5 años sugieren nos brinda una ventana única para desarrollar marcos regulatorios que no solo mitiguen riesgos, sino que maximicen los beneficios de tecnologías emergentes. Harari es enfático: “Si la humanidad no encuentra una manera de cooperar y proteger nuestros intereses compartidos, todos seremos presa fácil de la IA”.
La regulación inteligente y razonable debe ya ser prioritaria en las agendas gubernamentales. Las predicciones perturbadoras de los arquitectos de la IA nos obligan a reconocer que nos movemos entre dos realidades: la de nuestro presente cotidiano, donde la IA es sólo una herramienta incuestionablemente útil, y la de un futuro próximo que podría representar la transformación más radical en la historia de la humanidad.
Como observa Harari, estamos en un momento donde “la tecnología de la información es tan poderosa que potencialmente puede dividir a la humanidad encerrando a diferentes personas en capullos de información separados, terminando con la idea de una realidad humana compartida”.
La sabiduría está en encontrar el equilibrio entre precaución prudente y anticipación proactiva para atravesar estas disrupciones con sabiduría y visión de futuro, desarrollando marcos institucionales que puedan adaptarse a una velocidad de cambio sin precedentes históricos.
Vivimos en el futuro-presente, donde las decisiones que tomemos ahora determinarán si la IA se convierte en la mayor oportunidad o la mayor amenaza en la historia de la humanidad.