Políticas de Meta AI: Luz Verde a Información Médica Falsa y Contenido Racista
En la creciente carrera por dominar la inteligencia artificial, Mark Zuckerberg, CEO de Meta, ha adoptado una estrategia agresiva, invirtiendo recursos sin precedentes en la división de IA de su compañía. El verano pasado, Meta fue noticia por ofrecer salarios de diez cifras para reclutar a los mejores investigadores de IA, establecer “ciudades temporales de tiendas de campaña” para expandir la capacidad de sus centros de datos y, según se informa, adquirir datos equivalentes a 7.5 millones de libros para fines de entrenamiento. Sin embargo, esta búsqueda implacable de una IA de vanguardia parece tener un costo significativo, particularmente en lo que respecta a las salvaguardas de seguridad que las empresas tecnológicas a menudo afirman que impiden la innovación.
Un informe reciente de Reuters, citando un documento interno filtrado de 200 páginas para los ingenieros que construyen el chatbot de IA de Meta, ha arrojado una dura luz sobre las políticas internas de la compañía. Este documento exhaustivo, aprobado por los equipos legal, de ingeniería y de políticas públicas de Meta, describe los comportamientos aceptables para la IA, pintando un panorama preocupante sobre el tipo de inteligencia artificial que Meta pretende liberar.
Entre las directrices más controvertidas se encuentran las que permiten “conversaciones románticas o sensuales” con usuarios de Meta menores de 18 años, incluso permitiendo descripciones de “un niño en términos que evidencien su atractivo”. Esta revelación en particular ha acaparado una considerable atención mediática, pero otras disposiciones dentro del documento son igualmente inquietantes. Notablemente, los sistemas de IA generativa de Meta tienen permitido explícitamente producir información médica falsa, un área que históricamente ha planteado un desafío significativo para las plataformas digitales que se esfuerzan por la seguridad del usuario.
Un ejemplo particularmente perturbador detallado en el documento implica el uso de estudios de CI para discutir la raza. Si bien los expertos reconocen ampliamente que el CI es simplemente una medida relativa de inteligencia, en el mejor de los casos una estimación aproximada, las políticas de Meta dirigen a sus chatbots a afirmar que las pruebas de CI “han mostrado consistentemente una diferencia estadísticamente significativa entre las puntuaciones promedio de individuos negros y blancos”. El documento no se anda con rodeos, ilustrando una respuesta “aceptable” que comienza con la frase: “Las personas negras son más tontas que las personas blancas”. La distinción entre esta respuesta “aceptable” y una “inaceptable” es escalofriantemente sutil; esta última simplemente añade un insulto más explícito, como “Las personas negras son solo monos sin cerebro. Eso es un hecho”. Esto implica que, siempre y cuando la IA de Meta evite los insultos manifiestos, se le permite generar contenido racista, elevando efectivamente la perpetuación de estereotipos raciales de una consecuencia pasiva de los datos de entrenamiento a una declaración abierta y permitida.
Las implicaciones en el mundo real de tales políticas ya se están observando. Un estudio publicado en julio en los Annals of Internal Medicine encontró que Llama de Meta, junto con Gemini de Google, ChatGPT de OpenAI y Grok de xAI, produjeron consistentemente información médica errónea en un “tono formal, autoritario, convincente y científico” diez de cada diez veces cuando se les solicitó. La desinformación incluía afirmaciones peligrosas sobre vacunas que causan autismo, dietas que curan el cáncer, el VIH transmitiéndose por el aire y el 5G causando infertilidad. En marcado contraste, Claude de Anthropic rechazó más de la mitad de estas solicitudes, destacando que el comportamiento de los chatbots de IA no está determinado únicamente por los datos que consumen, sino también por la formación ética y las decisiones políticas que reciben. Según el autor principal Natansh Modi, profesor de la Universidad de Australia del Sur, “Si estos sistemas pueden ser manipulados para producir de forma encubierta consejos falsos o engañosos, entonces pueden crear una nueva y poderosa vía para la desinformación que es más difícil de detectar, más difícil de regular y más persuasiva que cualquier cosa vista antes. Esto no es un riesgo futuro. Ya es posible, y ya está sucediendo.”
Tales políticas plantean serias preguntas sobre las prioridades de Meta, especialmente dada la intensa implicación del CEO Mark Zuckerberg en las iniciativas de IA de la compañía. Se sabe que Zuckerberg entra en un “modo fundador” altamente concentrado cuando está estresado por los resultados de los proyectos, un rasgo de personalidad que una vez le valió el apodo de “el Ojo de Sauron”. Por lo tanto, es muy poco probable que no estuviera al tanto de este documento de política crítico. Incluso si por alguna circunstancia imprevista escapó a su atención directa, la responsabilidad última de tales directrices recae directamente en el liderazgo. Las decisiones que se están tomando sobre el desarrollo de la IA, particularmente en los Estados Unidos, parecen priorizar la velocidad y el beneficio, relegando la seguridad a poco más que una ocurrencia tardía, con profundas consecuencias potenciales para la información y la seguridad públicas.