Estudiante del MIT Abandona por Temor a la IAG: ¿Fin de la Humanidad o Hype?

Futurism

En una era donde muchos estudiantes universitarios abandonan sus estudios para perseguir oportunidades en florecientes startups de inteligencia artificial, una exalumna del Instituto Tecnológico de Massachusetts (MIT) ha tomado un camino sorprendentemente diferente, retirándose de su programa debido a un profundo temor: la creencia de que la inteligencia artificial general (IAG) llevará a la extinción humana antes de que ella pueda siquiera graduarse.

Alice Blair, quien comenzó sus estudios en el MIT en 2023, transmitió sus graves preocupaciones a Forbes, afirmando: “Me preocupaba no estar viva para graduarme debido a la IAG”. Ella elaboró su sombría perspectiva, sugiriendo: “Creo que en una gran mayoría de los escenarios, debido a la forma en que estamos trabajando hacia la IAG, llegaremos a la extinción humana”. Desde entonces, Blair ha reorientado su carrera, trabajando ahora como escritora técnica para el Centro sin fines de lucro para la Seguridad de la IA, sin planes inmediatos de regresar a la academia. Su esperanza inicial de conectar con personas afines centradas en la seguridad de la IA dentro del entorno académico del MIT fue, según indicó, en gran medida insatisfecha.

Su aprensión resuena con algunos dentro de la esfera tecnológica. Nikola Jurković, exalumno de Harvard y antiguo miembro del club de seguridad de IA de su universidad, expresó simpatía por la decisión de Blair. Él planteó una visión pragmática sobre la rápida evolución de la IA, sugiriendo: “Si tu carrera está a punto de ser automatizada para finales de la década, entonces cada año pasado en la universidad es un año restado de tu corta carrera”. Jurković ofreció sus propias predicciones audaces, estimando que la IAG podría estar tan cerca como a cuatro años, con la automatización económica total siguiendo en cinco o seis años.

La búsqueda de la IAG —un sistema capaz de igualar o superar las habilidades cognitivas humanas— sigue siendo un objetivo central a largo plazo para gran parte de la industria de la IA. Sam Altman, CEO de OpenAI, por ejemplo, caracterizó el reciente lanzamiento del modelo GPT-5 de su compañía como un avance significativo hacia la IAG, incluso describiéndolo como “generalmente inteligente”.

Sin embargo, no todos los expertos comparten esta cronología optimista o alarmista. Gary Marcus, un prominente investigador de IA y un crítico vocal del bombo de la industria, sigue siendo muy escéptico sobre la inminencia de la IAG. “Es extremadamente improbable que la IAG llegue en los próximos cinco años”, dijo Marcus a Forbes, desestimando tales afirmaciones como “bombo publicitario”. Señaló problemas fundamentales persistentes y sin resolver dentro de los modelos actuales de IA, como las “alucinaciones” —donde la IA genera información fácticamente incorrecta o sin sentido— y los errores de razonamiento generalizados, como evidencia de que la verdadera IAG es aún una perspectiva distante.

Además, si bien reconoce los daños muy reales e inmediatos que la IA puede infligir, Marcus considera la noción de la extinción humana total como descabellada. Sugiere una interpretación crítica, quizás cínica, de las frecuentes alusiones de la industria de la IA a escenarios apocalípticos. Líderes tecnológicos, incluido Altman, han planteado ellos mismos estos riesgos existenciales, una estrategia que Marcus cree que sirve para inflar la percepción pública de las capacidades actuales de la IA. Esto, argumenta, permite a estas poderosas compañías controlar más eficazmente la narrativa pública en torno a la tecnología e influir en su regulación.

Más allá de las visiones dramáticas y cinematográficas de apocalipsis liderados por máquinas, similares a “Matrix”, las consecuencias más inmediatas y tangibles de la IA ya se están manifestando. Estas incluyen la automatización generalizada de empleos, un impacto ambiental significativo por las demandas energéticas de la infraestructura de IA, la proliferación de desinformación y contenido de baja calidad en línea, la expansión de las capacidades de vigilancia gubernamental e incluso la posible exacerbación del malestar psicológico en los individuos. El debate en torno a la IAG, por lo tanto, encapsula no solo los miedos futuristas sino también las preocupaciones apremiantes sobre la huella actual y muy real de la IA en la sociedad.