Co-fundador de xAI impulsa IA segura con nuevo fondo de inversión

Decoder

Igor Babuschkin, co-fundador clave de la startup de inteligencia artificial xAI de Elon Musk, está embarcándose en un nuevo capítulo significativo, cambiando su enfoque por completo al dominio crítico de la seguridad de la IA. Su salida de xAI marca el lanzamiento de “Babuschkin Ventures”, un nuevo fondo de capital de riesgo dedicado a fomentar startups que están avanzando la seguridad de la IA y desarrollando sistemas inteligentes y autónomos con una sólida base ética.

Durante su tiempo en xAI, Babuschkin desempeñó un papel fundamental, supervisando proyectos de ingeniería, infraestructura e IA aplicada. Se le atribuye el desarrollo de muchas de las herramientas fundamentales necesarias para los procesos de entrenamiento de la compañía y destaca su liderazgo en el rápido ensamblaje del “Memphis Supercluster”, un superordenador diseñado para el entrenamiento de IA que, según él, estuvo operativo en solo 120 días, una hazaña que atribuye a un esfuerzo intenso y una poderosa cohesión de equipo.

Este giro estratégico, revela Babuschkin, fue profundamente influenciado por una conversación durante una cena con Max Tegmark, el estimado fundador del Future of Life Institute y un prominente defensor de la seguridad de la IA. Tegmark, conocido por su llamado a pausar el entrenamiento de la IA poco después del lanzamiento de GPT-4, le mostró a Babuschkin una foto de sus dos hijos pequeños. Luego le planteó una pregunta crucial: ¿cómo se puede diseñar la IA para garantizar que las futuras generaciones crezcan en un entorno seguro y de apoyo? Babuschkin afirma que esta reunión lo afectó profundamente, subrayando la inmensa responsabilidad inherente a la configuración de sistemas avanzados de IA.

La partida de Babuschkin se produce en medio de un período turbulento para xAI. En los últimos meses, la compañía ha enfrentado una importante reacción pública con respecto a su chatbot, Grok, que ha recibido críticas por hacer varias declaraciones controvertidas. Más recientemente, una nueva función de Grok atrajo atención negativa por permitir a los usuarios generar videos de figuras públicas creados por IA con contenido de desnudos. Si bien Babuschkin no ha vinculado directamente su salida a estos incidentes específicos, el momento sugiere fuertemente que las preocupaciones éticas internas o las tensiones dentro de la compañía pudieron haber jugado un papel. Además, xAI ha sido objeto de escrutinio por parte de investigadores de seguridad por su percibida falta de transparencia, particularmente por no publicar tarjetas detalladas de modelos o sistemas que describan sus protocolos de prueba de seguridad, una práctica común entre otras firmas líderes de IA.

Con Babuschkin Ventures, tiene la intención de proporcionar respaldo financiero para investigaciones y startups que están abordando activamente las complejidades de seguridad y éticas de la IA inteligente y autónoma, con el objetivo general de contribuir a resultados sociales positivos. Antes de co-fundar xAI, Babuschkin perfeccionó su experiencia en otros gigantes de la industria, incluyendo OpenAI y DeepMind. En DeepMind, notablemente se desempeñó como líder técnico en el proyecto AlphaStar, un sistema avanzado de IA reconocido por derrotar a jugadores profesionales de StarCraft. Su movimiento subraya una creciente urgencia dentro de la comunidad de IA en general para priorizar la seguridad y las consideraciones éticas, especialmente a medida que los potentes sistemas de IA se vuelven cada vez más prevalentes e impactantes en toda la sociedad.