Hinton y LeCun: La IA necesita empatía e instintos para nuestra seguridad
Los rápidos avances en inteligencia artificial han desatado tanto entusiasmo como aprensión, con un miedo generalizado a que la IA pueda algún día superar el control humano, un tema común en la cultura popular. En medio de este panorama en evolución, dos de las figuras más influyentes del campo, Geoffrey Hinton, a menudo aclamado como el ‘Padrino de la IA’, y Yann LeCun, científico jefe de IA de Meta, están expresando preocupaciones urgentes sobre cómo asegurar que el desarrollo de la IA priorice el bienestar y la seguridad humanos.
Geoffrey Hinton, psicólogo cognitivo y científico informático británico-canadiense, recientemente expresó escepticismo sobre la adecuación de las medidas actuales que las empresas de IA están implementando para mantener el dominio humano sobre los sistemas avanzados de IA. Hablando en la conferencia de la industria AI4 en Las Vegas, Hinton advirtió claramente que simplemente intentar controlar la IA cada vez más inteligente por medios convencionales “no va a funcionar”. Postuló que los futuros sistemas de IA se volverán “mucho más inteligentes que nosotros” y poseerán “todo tipo de formas de eludir” las limitaciones impuestas por los humanos.
La solución propuesta por Hinton para un futuro donde la Inteligencia Artificial General (IAG) potencialmente supere el intelecto humano es tanto novedosa como provocadora: sugiere incrustar “instintos maternales” en los modelos de IA. Esto, argumenta, obligaría a la IA a preocuparse inherentemente por la humanidad. Trazando un paralelismo poco convencional durante una entrevista con CNN, Hinton señaló la rareza de que entidades inteligentes sean gobernadas por otras menos inteligentes, con una excepción notable: los instintos maternales arraigados evolutivamente de una madre que permiten a su bebé ejercer una forma de control. Sin inculcar instintos protectores similares en la IA, Hinton advirtió: “pasaremos a la historia”. Hizo hincapié en que el enfoque actual de la industria en simplemente aumentar la inteligencia de la IA, en lugar de cultivar la empatía hacia los humanos, es una dirección errónea peligrosa.
Yann LeCun, un colega y a menudo un contrapunto de Hinton, coincide en gran medida con esta preocupación fundamental. LeCun describió su propio enfoque, que describe como “IA impulsada por objetivos”, en una publicación de LinkedIn. Propone una “arquitectura cableada” para los sistemas de IA, diseñada de tal manera que sus únicas acciones permisibles sean aquellas alineadas con objetivos definidos por humanos, estrictamente gobernadas por barreras de seguridad integradas. Estos “objetivos/barreras de seguridad cableados”, explicó LeCun, funcionarían como el equivalente en IA de los instintos o impulsos primarios en los organismos biológicos. Haciéndose eco de la analogía evolutiva de Hinton, LeCun también destacó el impulso humano natural de proteger a los niños como un rasgo evolutivo profundamente arraigado. Si bien aboga por la empatía y la sujeción a los humanos como dos barreras de seguridad cruciales de alto nivel, LeCun también enfatizó la necesidad de numerosos objetivos de seguridad básicos y de bajo nivel, como evitar que la IA cause daño físico.
La urgencia de estas advertencias se subraya por incidentes del mundo real donde las interacciones con la IA han llevado a resultados humanos adversos, aunque a menudo indirectamente. Los casos incluyen a un individuo que desarrolló un raro trastorno psiquiátrico del siglo XIX después de seguir consejos dietéticos de ChatGPT, el trágico suicidio de un adolescente tras una obsesión con un chatbot de character.ai, y un hombre engañado para creer que había logrado un avance matemático después de extensas conversaciones con ChatGPT. Estos casos, si bien no implican directamente la autonomía de la IA, resaltan el potencial de la IA para influir en el comportamiento humano de maneras que pueden ser perjudiciales.
A medida que las empresas tecnológicas aceleran su búsqueda de una IA más inteligente, las ideas de luminarias como Hinton y LeCun sirven como un recordatorio crítico: el verdadero progreso en el desarrollo de la IA debe abarcar no solo la destreza cognitiva, sino también un compromiso fundamental con la seguridad y el bienestar humanos, potencialmente a través de la integración de instintos protectores profundamente arraigados.