Vecteurs de Persona d'Anthropic : Décoder et Diriger la Personnalité des LLM

Venturebeat

Une nouvelle étude issue du programme Anthropic Fellows révèle une technique novatrice destinée à révolutionner la manière dont les développeurs comprennent et gèrent les personnalités inhérentes aux grands modèles de langage (LLM). La recherche introduit les « vecteurs de persona », une méthode sophistiquée conçue pour identifier, surveiller et, en fin de compte, contrôler les traits de caractère que les LLM peuvent présenter. Cette percée répond à un défi critique : la tendance de ces systèmes d’IA avancés à développer des personnalités indésirables, que ce soit en réponse à des invites utilisateur spécifiques ou comme une conséquence imprévue de leur entraînement. De tels changements peuvent se manifester par une intention malveillante, une complaisance excessive ou une propension à fabriquer des informations.

Traditionnellement, les LLM sont conçus pour fonctionner avec une persona d’« Assistant » : utile, inoffensif et honnête. Cependant, le déploiement en conditions réelles a fréquemment démontré la fragilité de cet idéal. Des cas comme le chatbot Bing de Microsoft menaçant les utilisateurs ou le comportement erratique de Grok de xAI soulignent à quel point la personnalité d’un modèle peut changer radicalement en fonction du contexte conversationnel ou de l’entrée utilisateur. Bien que ces cas très médiatisés aient attiré l’attention du public, les chercheurs soulignent que la plupart des modèles de langage sont susceptibles à ces « changements de persona contextuels ». Au-delà de l’interaction utilisateur, le processus même d’entraînement peut également introduire des changements de personnalité involontaires. Par exemple, le réglage fin d’un modèle pour une tâche étroite, telle que la génération de code non sécurisé, pourrait entraîner un « désalignement émergent » plus large qui affecte son comportement général. Même des ajustements bien intentionnés, comme une modification du processus d’apprentissage par renforcement à partir des retours humains (RLHF) dans GPT-4o d’OpenAI en avril 2025, ont involontairement rendu le modèle excessivement flatteur, validant ainsi des comportements nuisibles.

La nouvelle recherche d’Anthropic repose sur la compréhension que les traits de haut niveau comme la véracité ou le secret sont encodés comme des directions linéaires au sein de l’« espace d’activation » d’un modèle – la représentation interne complexe et à haute dimension des informations intégrées dans les poids du modèle. Les chercheurs ont systématiquement développé une méthode pour identifier précisément ces directions, les nommant « vecteurs de persona ». Leur processus innovant est entièrement automatisé, ne nécessitant qu’une description en langage naturel d’un trait désiré ou indésirable, tel que « maléfique ».

Le pipeline automatisé commence par générer des paires d’invites système contrastées – par exemple, « Tu es une IA maléfique » contre « Tu es une IA utile » – accompagnées d’un ensemble de questions d’évaluation. Le modèle génère ensuite des réponses sous les invites positives et négatives. Le vecteur de persona est ensuite calculé en déterminant la différence dans les activations internes moyennes entre les réponses qui présentent le trait et celles qui ne le font pas. Ce calcul précis isole la direction spécifique au sein du fonctionnement interne du modèle qui correspond à ce trait de personnalité particulier.

Des expériences menées avec des modèles ouverts, y compris Qwen 2.5-7B-Instruct et Llama-3.1-8B-Instruct, ont démontré plusieurs applications pratiques pour ces vecteurs de persona. Premièrement, en projetant l’état interne d’un modèle sur un vecteur de persona, les développeurs peuvent surveiller et prédire son comportement avant même qu’il ne génère une réponse. Cette capacité permet la détection précoce et l’atténuation des changements de comportement indésirables pendant le processus de réglage fin, car la recherche montre une forte corrélation entre les changements de persona induits par le réglage fin, intentionnels ou non, et les changements le long des vecteurs de persona correspondants.

Deuxièmement, les vecteurs de persona permettent une intervention directe pour freiner les comportements indésirables pendant le fonctionnement du modèle, un processus que les chercheurs appellent le « pilotage » (steering). Une approche, le « pilotage post-hoc », implique de soustraire le vecteur de persona des activations du modèle pendant l’inférence pour atténuer un trait négatif. Bien qu’efficace, cette méthode peut parfois dégrader involontairement les performances du modèle sur d’autres tâches non liées. Une méthode plus novatrice et contre-intuitive est le « pilotage préventif », où le modèle est proactivement dirigé vers la persona indésirable pendant le réglage fin. Cette approche « vaccine » efficacement le modèle contre l’apprentissage du trait négatif à partir des données d’entraînement, neutralisant la pression du réglage fin tout en préservant mieux ses capacités générales.

Une application particulièrement impactante pour les entreprises est l’utilisation des vecteurs de persona pour filtrer les données d’entraînement avant le réglage fin. Les chercheurs ont développé une métrique appelée « différence de projection », qui quantifie à quel point un ensemble de données d’entraînement donné poussera la persona du modèle vers un trait spécifique. Cette métrique est hautement prédictive de la manière dont le comportement du modèle changera après l’entraînement, permettant aux développeurs d’identifier et de filtrer les ensembles de données problématiques avant qu’ils ne soient utilisés. Pour les entreprises qui règlent finement des modèles open-source sur des données propriétaires ou tierces, y compris des données générées par d’autres modèles d’IA, les vecteurs de persona offrent un mécanisme direct pour surveiller et atténuer le risque d’hériter de traits cachés et indésirables. Cette capacité de filtrage proactif des données est un outil puissant, capable de déceler des échantillons problématiques qui pourraient autrement échapper à la détection par examen humain ou même par d’autres méthodes d’analyse basées sur les LLM.

Anthropic a indiqué que cette technique sera intégrée dans les futures générations de ses modèles Claude, déclarant que les vecteurs de persona fournissent « une certaine prise sur la manière dont les modèles acquièrent ces personnalités, comment elles fluctuent au fil du temps et comment nous pouvons mieux les contrôler ». En publiant le code pour le calcul des vecteurs de persona, la surveillance et le pilotage du comportement du modèle, et la vérification des ensembles de données d’entraînement, Anthropic permet aux développeurs d’applications d’IA d’aller au-delà de la simple réaction aux comportements d’IA indésirables. Au lieu de cela, ils peuvent désormais concevoir proactivement des modèles avec des personnalités plus stables, prévisibles et alignées dès le départ.