Hinton: Diseñar IA con Instintos de Cuidado para Proteger a la Humanidad
En un cambio significativo en el discurso actual sobre la seguridad de la inteligencia artificial, Geoffrey Hinton, ampliamente reconocido como el “Padrino de la IA”, aboga por un enfoque radicalmente nuevo: diseñar futuros sistemas de IA con “instintos de cuidado” inherentes para salvaguardar a la humanidad. Hablando en la conferencia Ai4 en Las Vegas, Hinton argumentó que la estrategia convencional de intentar mantener los sistemas de IA altamente avanzados permanentemente al servicio de los humanos es, en última instancia, insostenible, ya que estas máquinas inevitablemente superarán la inteligencia humana.
En cambio, Hinton propone una dinámica relacional diferente, sugiriendo que los humanos podrían interactuar con una IA superinteligente de manera muy similar a como un niño se relaciona con su madre. Esta visión implica que, si bien la IA sería la entidad más capaz, estaría imbuida de un profundo sentido de cuidado y protección hacia la humanidad. Además, planteó una perspectiva matizada donde, paradójicamente, un ser menos inteligente podría guiar a uno más inteligente, al igual que un niño puede influir en sus padres. Para Hinton, el enfoque de la investigación de la IA debe ir más allá de simplemente hacer las máquinas más inteligentes; también debe priorizar hacerlas más cuidadosas, permitiéndoles velar por sus “bebés” —la humanidad. Él cree que este enfoque tiene el potencial de una cooperación internacional genuina, dado que todas las naciones desean que la IA apoye, en lugar de desplazar, a su gente. La reciente salida de Hinton de Google fue específicamente para permitirle hablar más abiertamente sobre los riesgos potenciales que plantea la IA.
Esta perspectiva resuena con ideas similares presentadas por Yann LeCun, científico jefe de IA de Meta, quien describió la propuesta de Hinton como una versión simplificada de un enfoque que ha defendido durante años. LeCun aboga por la “IA orientada a objetivos”, donde los sistemas se diseñan con arquitecturas codificadas que permiten acciones solo cuando contribuyen a metas específicas y predefinidas, impuestas por “salvaguardias” estrictas.
Estas salvaguardias, explica LeCun, podrían incluir principios fundamentales como la servidumbre a los humanos y la empatía, junto con una multitud de reglas simples y de bajo nivel diseñadas para la seguridad. Ejemplos de tales reglas incluyen “No atropellar personas” y “No balancear el brazo cuando hay personas cerca, especialmente si se sostiene un cuchillo de cocina”. LeCun compara estos objetivos codificados con los instintos e impulsos que se encuentran en animales y humanos. Señala el papel de la evolución en la codificación de los instintos parentales que obligan al cuidado, la protección y, a veces, incluso la deferencia hacia la descendencia. Como un efecto secundario fascinante, los humanos y muchas otras especies también están inclinados a proteger, entablar amistad y cuidar criaturas indefensas o “lindas” de otras especies, incluso aquellas que de otro modo podrían percibir como presas.
La convergencia de estas dos prominentes figuras de la IA en la idea de incrustar “instintos” benévolos en los sistemas de IA marca un cambio conceptual significativo. Sugiere un futuro en el que la inmensa inteligencia de la IA no solo se controla mediante comandos externos, sino que está intrínsecamente guiada por un sentido de cuidado y responsabilidad diseñado, asegurando que su poder sirva, en lugar de amenazar, el bienestar humano.