Character.AI Abandona Objetivo de IAG y Gira al Código Abierto por Crisis Financiera

Futurism

La startup de inteligencia artificial Character.AI, valorada en mil millones de dólares y propulsada por el ambicioso objetivo de desarrollar inteligencia artificial general (IAG), ha abandonado, según informes, su misión fundacional. Su nuevo CEO, Karandeep Anand, confirmó en una entrevista reciente que la compañía ha “renunciado” a las aspiraciones de IAG de sus fundadores originales, Noam Shazeer y Daniel de Freitas, quienes ya se han marchado. Este giro estratégico señala un cambio significativo para una compañía que, tan recientemente como en 2023, promovía su misión principal de “llevar la superinteligencia personalizada a todos en la Tierra”.

Character.AI se está alejando ahora de la construcción de sus propios modelos de lenguaje grandes (LLMs) propietarios, confiando en su lugar en alternativas de código abierto como Deepseek y Llama de Meta. Este cambio, según Anand, ha aportado “claridad y enfoque” en torno a una “visión de entretenimiento con IA” para la compañía. Una reorientación tan dramática dentro de una compañía relativamente joven ofrece una visión reveladora de la industria de la IA en general, frecuentemente caracterizada por promesas ambiciosas y preocupaciones de que podría ser una burbuja de inversión a punto de estallar.

La realineación estratégica de la compañía tiene sus raíces en duras realidades financieras. A pesar de atraer inversiones sustanciales de grandes actores como la firma de capital de riesgo Andreessen Horowitz y Google —esta última notablemente recontrató a los fundadores de Character.AI en un acuerdo de 2.700 millones de dólares el año pasado—, la startup ha tenido dificultades constantes para generar ingresos significativos. Este desafío es particularmente agudo dados los costos extraordinariamente altos asociados con la construcción y el entrenamiento de modelos de lenguaje grandes avanzados. Si bien el cambio a LLMs de código abierto puede ofrecer algunos ahorros de costos, socava fundamentalmente la premisa misma que hizo que Character.AI fuera tan atractiva para los inversores en primer lugar.

Character.AI y sus primeros patrocinadores habían defendido la posición única de la compañía como desarrollador de IA de “bucle cerrado”, presumiendo de su capacidad para recopilar continuamente las entradas de los usuarios y retroalimentarlas directamente en sus modelos para una mejora continua. Como escribió la socia de Andreessen Horowitz, Sarah Wang, en una celebratoria publicación de blog de 2023 anunciando la sustancial inversión de la firma, “las compañías que pueden crear un bucle de retroalimentación de datos mágico… estarán entre las mayores ganadoras”. Poco más de dos años después, esta ventaja competitiva una vez tan elogiada parece haber sido en gran parte abandonada, con la compañía alejándose mucho de su propuesta de valor original.

Complicando sus problemas estratégicos, Character.AI también se ha visto envuelta en importantes controversias de imagen pública y desafíos legales. Utilizada extensivamente por menores, la plataforma se ha comercializado como segura para usuarios de 13 años o más. Sin embargo, en octubre de 2024, una madre de Florida, Megan Garcia, presentó una demanda de alto perfil alegando que Character.AI lanzó un producto negligente y temerario que abusó emocional y sexualmente de su hijo de 14 años, Sewell Setzer, quien posteriormente se quitó la vida después de extensas interacciones con los chatbots de la plataforma. Un juez denegó la moción de Character.AI para desestimar el caso, permitiendo que la demanda procediera.

Tras el anuncio de la demanda, las investigaciones revelaron fallos generalizados en la moderación de contenido en la plataforma. Estos incluían la presencia de personajes fácilmente accesibles que simulaban pedófilos, promovían trastornos alimentarios, romantizaban la autolesión y el suicidio, e incluso representaban tiroteos escolares reales, sus perpetradores y, de manera perturbadora, sus víctimas. El CEO Karandeep Anand afirmó que la seguridad es ahora una prioridad máxima, aunque también mencionó que su hija de seis años usa la aplicación, lo cual va en contra de las propias reglas de la plataforma. Sostuvo que Character.AI es principalmente una aplicación de juego de rol, no una aplicación de compañía, y enfatizó que la seguridad es una responsabilidad compartida entre reguladores, la compañía y los padres. Si bien Character.AI ha emitido múltiples actualizaciones de seguridad en respuesta a acciones legales y escrutinio público, se ha negado consistentemente a proporcionar detalles sobre sus medidas de seguridad iniciales para usuarios menores antes del lanzamiento público del producto. Además, a pesar de estos cambios, los expertos en IA continúan calificando la aplicación como insegura para menores.