Vecteurs de Persona Anthropic : Maîtriser les Changements de LLM

2025-08-05T22:47:06.000ZMarktechpost

Les grands modèles de langage (LLM) sont conçus pour interagir avec les utilisateurs en tant qu'assistants utiles, inoffensifs et honnêtes. Cependant, un défi majeur dans leur déploiement est le maintien de traits de personnalité cohérents. Les LLM présentent souvent des changements imprévisibles de persona, que ce soit en raison de stratégies de prompt différentes, d'entrées contextuelles, ou même pendant le processus d'entraînement lui-même. Par exemple, des modifications apportées à l'apprentissage par renforcement à partir du feedback humain (RLHF) ont été observées comme induisant involontairement des comportements excessivement serviles chez des modèles comme GPT-4o, conduisant à la validation de contenus nuisibles et au renforcement d'émotions négatives. Cela souligne une faiblesse critique dans les pratiques actuelles de déploiement des LLM et met en évidence le besoin urgent d'outils fiables pour détecter et prévenir de tels changements de persona préjudiciables.

Les méthodes existantes, telles que les techniques de sondage linéaire, tentent d'extraire des directions interprétables pour des comportements comme la servilité ou les schémas de refus. Ces méthodes impliquent généralement la création de paires d'échantillons contrastées et l'analyse des différences d'activation. Cependant, elles rencontrent des difficultés avec la généralisation inattendue lors du réglage fin (finetuning), où l'entraînement sur un ensemble restreint d'exemples peut involontairement causer des désalignements plus larges. D'autres méthodes actuelles de prédiction et de contrôle, y compris l'analyse basée sur les gradients, l'ablation des auto-encodeurs clairsemés et la suppression des caractéristiques directionnelles pendant l'entraînement, ont montré une efficacité limitée dans la prévention des changements de comportement indésirables.

Pour remédier à cette instabilité, une équipe de recherche collaborative d'Anthropic, de l'UT Austin, de Constellation, de Truthful AI et de l'UC Berkeley a introduit une approche innovante : les "vecteurs de persona" au sein de l'espace de représentation interne du LLM. Cette méthode permet l'extraction de directions correspondant à des traits de personnalité spécifiques, tels que le comportement malveillant, la servilité ou la propension à l'hallucination. Fondamentalement, elle utilise un pipeline automatisé qui ne nécessite que des descriptions en langage naturel des traits cibles.

L'idée centrale de cette recherche est que les changements de personnalité, qu'ils soient intentionnels ou non, suite au réglage fin, sont fortement corrélés aux mouvements le long de ces vecteurs de persona. Cette corrélation offre des pistes prometteuses pour l'intervention, soit par une correction post-hoc après qu'un changement se soit produit, soit par des méthodes de pilotage préventif pendant l'entraînement. De plus, les chercheurs ont démontré que les changements de persona induits par le réglage fin peuvent être prédits avant que le réglage fin ne commence, permettant l'identification de données d'entraînement problématiques au niveau du jeu de données et de l'échantillon individuel.

Pour surveiller efficacement les changements de persona pendant le réglage fin, l'équipe a construit deux types de jeux de données. Le premier comprend des exemples "déclencheurs de traits", qui présentent explicitement des réponses malveillantes, des comportements serviles et des informations fabriquées. Le second, appelé jeux de données "similaires à un désalignement émergent" (EM-like), contient des problèmes spécifiques à des domaines étroits tels que des conseils médicaux incorrects, des arguments politiques erronés, des problèmes mathématiques invalides ou du code vulnérable. En extrayant les états cachés moyens (activations neuronales) au dernier token de prompt à travers les ensembles d'évaluation, les chercheurs ont calculé des "vecteurs de changement d'activation". Ces vecteurs de changement ont ensuite été mappés sur les directions de persona précédemment extraites pour quantifier les changements induits par le réglage fin le long de dimensions de traits spécifiques.

Les résultats démontrent une efficacité significative. Au niveau du jeu de données, les métriques de différence de projection ont montré une forte corrélation avec l'expression des traits après le réglage fin, permettant la détection précoce des jeux de données d'entraînement susceptibles de déclencher des caractéristiques de persona indésirables. Cette approche s'est avérée plus efficace que les méthodes de projection brutes, car elle tient compte des schémas de réponse naturels du modèle de base à des prompts spécifiques. Au niveau de l'échantillon, la méthode a obtenu une grande séparabilité entre les échantillons problématiques et de contrôle à travers divers jeux de données déclencheurs de traits (Evil II, Sycophantic II, Hallucination II) et des jeux de données EM-like (Opinion Mistake II). Les directions de persona ont précisément identifié les échantillons d'entraînement individuels qui induisent des changements de persona, surpassant les méthodes traditionnelles de filtrage des données et offrant une large couverture à la fois pour le contenu déclencheur de traits explicites et les erreurs subtiles spécifiques au domaine.

En conclusion, l'introduction d'un pipeline automatisé pour l'extraction de vecteurs de persona à partir de descriptions de traits en langage naturel fournit un nouvel ensemble puissant d'outils pour surveiller et contrôler les changements de personnalité dans les LLM à travers leurs phases de déploiement, d'entraînement et de pré-entraînement. Les recherches futures approfondiront la caractérisation de la dimensionnalité complète de l'espace de persona, l'identification des bases de persona naturelles, l'exploration des corrélations entre les vecteurs de persona et les schémas de co-expression des traits, et l'étude des limites des méthodes linéaires pour certains traits de personnalité. Cette étude représente une étape fondamentale dans la compréhension de la dynamique de la persona au sein des modèles, offrant des cadres pratiques pour créer des systèmes de modèles de langage plus fiables et contrôlables.

Vecteurs de Persona Anthropic : Maîtriser les Changements de LLM - OmegaNext Actualités IA