Meta redefine su IA: ¿Adiós al código abierto total para la superinteligencia?
Mark Zuckerberg, Director Ejecutivo de Meta Platforms, Inc., ha indicado un cambio significativo en el enfoque de la compañía hacia la inteligencia artificial, sugiriendo que sus modelos de IA de “superinteligencia” más avanzados podrían no ser de código abierto completo. Esto marca una posible desviación del compromiso histórico de Meta con la IA de código abierto, ejemplificado por su serie de modelos Llama.
La revelación de Zuckerberg, esbozada en una carta reciente, enfatiza una visión de “superinteligencia personal” integrada en dispositivos cotidianos como las gafas inteligentes, con el objetivo de empoderar a miles de millones de usuarios para objetivos individuales en lugar de una automatización amplia. Sin embargo, una conclusión clave de su declaración es la intención de Meta de retener el control sobre algunos modelos de vanguardia para mitigar riesgos, una medida justificada al citar preocupaciones de seguridad de que el acceso sin restricciones a la IA superinteligente podría plantear amenazas existenciales si se usa indebidamente. Esto hace eco de debates más amplios de la industria donde figuras como Elon Musk también han advertido sobre el desarrollo incontrolado de la IA.
Históricamente, Meta ha construido su reputación en IA sobre la transparencia, lanzando modelos como Llama para fomentar la innovación y contrarrestar los sistemas propietarios de rivales como OpenAI y Google. La compañía introdujo recientemente Llama 3.1, promocionándolo como su modelo de IA de código abierto más grande hasta la fecha, afirmando que supera a GPT-4o de OpenAI y Claude 3.5 Sonnet de Anthropic en varios puntos de referencia. Sin embargo, los críticos argumentan que incluso los modelos Llama de Meta, aunque etiquetados como de código abierto, han impuesto ciertas restricciones, como requerir que los usuarios firmen documentos de licencia y prohibir su implementación en infraestructuras críticas o para sustancias controladas reguladas, lo que, según algunos, no se alinea con la verdadera definición de código abierto.
Según los informes, las discusiones dentro del Laboratorio de Superinteligencia de Meta (MSL), una nueva división que consolida los esfuerzos de IA de la compañía, han explorado la posibilidad de alejarse de la apertura total de su potente modelo “Behemoth” debido a problemas de rendimiento internos. Este posible cambio refleja un giro pragmático que equilibra la innovación con la precaución, lo que podría remodelar el panorama de la IA.
Para apoyar sus ambiciosos objetivos de IA, Meta está invirtiendo fuertemente en infraestructura, incluyendo planes para centros de datos masivos de IA y la adquisición de un número significativo de GPU Nvidia H100. La compañía también está reclutando agresivamente a los mejores talentos para su equipo de Superinteligencia, con el objetivo de construir una IA que supere las capacidades humanas en el trabajo del conocimiento.
El debate entre los modelos de IA de código abierto y de código cerrado sigue siendo una encrucijada crítica para el futuro de la tecnología. Los defensores de la IA de código abierto argumentan que promueve el desarrollo, la transparencia y reduce la concentración del mercado, permitiendo a los actores más pequeños construir sobre los avances sin una inversión significativa en I+D. Por el contrario, los defensores de los modelos cerrados sostienen que limitar el acceso mejora la seguridad al evitar el uso indebido por parte de actores maliciosos y permite a los desarrolladores proteger su propiedad intelectual y mantener una ventaja competitiva. La postura cambiante de Meta destaca la compleja interacción de factores económicos, geopolíticos y éticos que dan forma a este debate. Si bien Zuckerberg mantiene que Meta seguirá produciendo y compartiendo modelos de código abierto líderes, enfatiza que la búsqueda de una “superinteligencia real” trae consigo un conjunto diferente de preocupaciones de seguridad, lo que sugiere un enfoque más selectivo sobre lo que permanece abierto.