La IA avanza a toda velocidad: ¿oportunidad o desplazamiento?

Venturebeat

Una profunda transformación está en marcha, a menudo descrita como una “migración cognitiva” a medida que la inteligencia artificial se integra rápidamente en la vida profesional. El profesor Christopher Stanton de la Universidad de Harvard, experto en el futuro del trabajo, caracterizó recientemente la IA como una “tecnología de difusión extraordinariamente rápida”, destacando su velocidad de adopción e impacto sin precedentes en comparación con cambios tecnológicos anteriores como la computadora personal o Internet. Demis Hassabis, CEO de Google DeepMind, incluso ha especulado que la IA podría ser “10 veces más grande que la Revolución Industrial, y quizás 10 veces más rápida”.

Este cambio significa que la inteligencia, o al menos el proceso de pensamiento, se comparte cada vez más entre humanos y máquinas. Algunas personas han incorporado la IA sin problemas en sus flujos de trabajo diarios, mientras que otras han ido más allá, tejiéndola en sus rutinas cognitivas e incluso en sus identidades creativas. Estos son los “dispuestos”: consultores expertos en ingeniería de prompts, gerentes de producto que reconfiguran sistemas y emprendedores que construyen negocios que aprovechan la IA para todo, desde la codificación hasta el marketing. Para ellos, el panorama se siente nuevo pero navegable, incluso emocionante. Sin embargo, para muchos otros, este período evoca una sensación de inquietud. Su principal preocupación no es simplemente quedarse atrás, sino la incertidumbre sobre cómo, cuándo o si invertir en un futuro impulsado por la IA donde su lugar sigue sin definirse. Este doble riesgo de “preparación para la IA” está remodelando profundamente cómo las personas perciben el ritmo, las promesas y las presiones de esta transición.

En todas las industrias, están surgiendo nuevos roles y equipos, y las herramientas de IA están remodelando los flujos de trabajo a un ritmo que supera el desarrollo de nuevas normas o estrategias claras. Las implicaciones últimas siguen siendo vagas, el resultado final incierto. A pesar de esta ambigüedad, la pura velocidad y el alcance del cambio se sienten trascendentales. Se insta a todos a adaptarse, pero pocos entienden con precisión lo que eso implica o cuán profundos serán los cambios. Algunos líderes de la industria de la IA incluso predicen el advenimiento de máquinas superinteligentes en unos pocos años.

Sin embargo, la historia de la IA está marcada por períodos de expectativas infladas seguidas de decepción, a menudo denominados “inviernos de la IA”. El primero ocurrió en la década de 1970 debido a limitaciones computacionales, y el segundo a fines de la década de 1980 después de que los “sistemas expertos” no cumplieran sus grandes promesas, lo que llevó a reducciones significativas en la financiación y el interés. Si el entusiasmo actual en torno a los agentes de IA refleja el potencial incumplido de esos sistemas expertos anteriores, podría seguir otro invierno. Sin embargo, existen diferencias significativas hoy: una aceptación institucional mucho mayor, una adopción generalizada por parte de los consumidores y una sólida infraestructura de computación en la nube. Si bien un nuevo invierno no es imposible, un fracaso esta vez no provendría de la falta de dinero o impulso, sino potencialmente de una ruptura de la confianza y la fiabilidad.

De hecho, a pesar de la inmensa urgencia e impulso, esta tecnología cada vez más omnipresente sigue siendo propensa a fallos, limitada, frágil y lejos de ser fiable. Si bien los modelos de lenguaje grandes (LLM) han evolucionado de salidas apenas coherentes hace solo unos años a algo parecido a “un doctorado en tu bolsillo”, ofreciendo inteligencia ambiental bajo demanda casi realizada, su falibilidad subyacente persiste. Los chatbots construidos sobre estos modelos son olvidadizos, a menudo demasiado confiados y aún propensos a “alucinaciones”, generando información segura pero falsa. Carecen de memoria persistente, luchan por mantener hilos de conversación entre sesiones y no “aprenden” en un sentido humano; una vez liberada, su “inteligencia” es fija. Su continuidad conversacional se limita a una ventana de contexto, dentro de la cual pueden absorber conocimiento y establecer conexiones, apareciendo notablemente como un sabio.

Estas fortalezas y debilidades se combinan para crear una presencia intrigante, casi seductora. Pero, ¿podemos realmente confiar en ella? El Edelman Trust Barometer 2025 revela una divergencia global significativa en la confianza en la IA: 72% en China frente a solo el 32% en EE. UU. Esta disparidad destaca cómo la fe pública en la IA está tan moldeada por el contexto cultural y la gobernanza como por la capacidad técnica. Es probable que surja una mayor confianza si la IA no alucinara, pudiera recordar, realmente aprendiera y su funcionamiento interno fuera más transparente. Sin embargo, la confianza en la industria de la IA misma sigue siendo esquiva, alimentada por temores de una regulación insuficiente y la falta de voz pública en su desarrollo y despliegue.

Esta “migración cognitiva” continúa, a menudo impulsada por la fe más que por la certeza. Para muchos, esto no es una elección, sino un “desplazamiento gestionado”. La narrativa de oportunidad y mejora de habilidades a menudo oculta una realidad más dura: algunos trabajadores no están optando por salir de la IA, sino que están descubriendo que el futuro que se está construyendo simplemente no los incluye. La creencia en las herramientas difiere de un sentido de pertenencia dentro del sistema que esas herramientas están remodelando. Sin un camino claro hacia una participación significativa, el imperativo de “adaptarse o quedarse atrás” suena cada vez menos a consejo y más a un veredicto definitivo. Incluso los profesionales experimentados que han comenzado a usar la IA expresan preocupación por la seguridad de su empleo. Satya Nadella, CEO de Microsoft, reconoció esta transición “complicada” en un memorando de julio de 2025 tras las reducciones de personal, sin embargo, la inquietante realidad es que la tecnología que impulsa esta transformación urgente sigue siendo fundamentalmente poco fiable.

Por ahora, los avances exponenciales persisten a medida que las empresas prueban y despliegan la IA, impulsadas por la convicción o el miedo a perderse algo. La suposición predominante es que las deficiencias actuales se resolverán mediante una mejor ingeniería de software, y de hecho, algunas probablemente lo harán. La apuesta es que la tecnología funcionará, escalará eficazmente y que su impacto disruptivo se verá eclipsado por las ganancias de productividad que permite. El éxito en esta empresa presupone que cualquier pérdida en el matiz, el valor o el significado humano será compensada por un mayor alcance y eficiencia. El sueño, por el contrario, es que la IA fomentará la abundancia generalizada, elevará en lugar de excluir, y ampliará el acceso a la inteligencia y la oportunidad en lugar de concentrarla.

La inquietante verdad reside en la brecha entre esta apuesta y el sueño. Estamos avanzando como si aceptar esta apuesta garantizara automáticamente el sueño, esperando que el progreso acelerado nos lleve a un lugar mejor y confiando en que no erosionará los elementos humanos que hacen que el destino valga la pena. Pero la historia muestra que incluso las apuestas exitosas pueden dejar a muchos atrás. La transformación “complicada” que está en marcha no es simplemente un efecto secundario inevitable; es una consecuencia directa de la velocidad que abruma la capacidad humana e institucional para adaptarse de manera reflexiva y cuidadosa. El desafío no es solo construir mejores herramientas, sino hacer preguntas más profundas sobre su destino final. No solo estamos migrando a un lugar desconocido; lo estamos haciendo tan rápido que el mapa está cambiando a medida que corremos, atravesando un paisaje que aún se está dibujando. Toda migración conlleva esperanza, pero la esperanza no examinada puede ser arriesgada. Es hora de preguntar no solo hacia dónde vamos, sino quién pertenecerá cuando lleguemos.