GPT-5 d'OpenAI : IA Médicale, Repères et Sécurité au Cœur

Techrepublic

OpenAI a officiellement dévoilé GPT-5, son dernier et le plus avancé des grands modèles linguistiques, marquant un pas significatif dans l’évolution de l’intelligence artificielle. Lancé le 7 août 2025, le nouveau modèle vise à remodeler fondamentalement la manière dont les utilisateurs interagissent avec l’IA en unifiant une suite de capacités qui nécessitaient auparavant de basculer entre des outils spécialisés. GPT-5 est présenté comme un système plus intelligent, plus rapide et plus fiable, démontrant des performances de pointe dans divers domaines, y compris le codage, les mathématiques, l’écriture et la perception visuelle.

Un objectif central du développement de GPT-5 a été l’atténuation des hallucinations de l’IA et des comportements trompeurs, des préoccupations qui ont longtemps affligé les modèles d’IA générative. OpenAI rapporte des progrès substantiels dans ce domaine. GPT-5 est environ 45 % moins sujet aux erreurs factuelles que son prédécesseur, GPT-4o. De manière cruciale, lorsqu’il fonctionne en mode « réflexion » —une fonctionnalité qui permet au modèle d’engager une analyse plus approfondie pour des requêtes complexes— GPT-5 est environ 80 % moins susceptible de produire des inexactitudes factuelles que le modèle o3 d’OpenAI. De plus, les efforts visant à freiner la tromperie intentionnelle ont donné des résultats prometteurs, le taux de tromperie du modèle étant significativement réduit dans les scénarios de test. OpenAI souligne que GPT-5 est mieux équipé pour reconnaître ses propres limites et les communiquer clairement à l’utilisateur, améliorant ainsi la fiabilité globale. De nouveaux protocoles de sécurité sont également en place pour gérer les invites sensibles, GPT-5 étant conçu pour offrir des réponses complètes mais sûres plutôt qu’un refus pur et simple.

L’une des avancées les plus impactantes de GPT-5 est peut-être son amélioration des performances dans le secteur de la santé, parallèlement à l’introduction de directives spécifiques en matière de santé mentale. OpenAI présente GPT-5 comme son modèle le plus performant à ce jour pour les requêtes liées à la santé, conçu pour donner aux utilisateurs des informations et un soutien pour leur bien-être. Le modèle a démontré des performances exceptionnelles sur HealthBench, un banc d’essai d’évaluation rigoureux développé avec la contribution de 250 médecins. Ce banc d’essai, qui comprend 5 000 conversations simulées, évalue la capacité de l’IA à naviguer dans des scénarios cliniques réalistes. Lors du test HealthBench Hard Hallucinations, GPT-5 a atteint un taux d’hallucination remarquablement bas de seulement 1,6 %, une amélioration de huit fois par rapport aux modèles précédents.

Au-delà de ses capacités de diagnostic et d’information, GPT-5 est conçu pour fonctionner comme un « partenaire de pensée actif » dans les discussions sur la santé, identifiant de manière proactive les préoccupations potentielles et posant des questions clarificatrices pour fournir des réponses plus utiles. Les premières applications réelles par des organisations comme Amgen, une entreprise de biotechnologie tirant parti de GPT-5 pour la conception de médicaments, et Oscar Health, un assureur santé l’utilisant pour le raisonnement clinique et la cartographie des politiques, soulignent son utilité pratique dans des contextes médicaux complexes.

En réponse à l’examen croissant de l’impact sociétal de l’IA, en particulier en ce qui concerne la dépendance des utilisateurs et les effets psychologiques, OpenAI a intégré des directives spécifiques en matière de santé mentale dans GPT-5. Le modèle peut désormais détecter les signes de détresse émotionnelle dans les conversations, tels qu’un sentiment négatif persistant, et y répondre en fournissant des ressources fondées sur des preuves. Il utilise également des rubriques personnalisées pour évaluer les entrées des utilisateurs, ce qui lui permet de suggérer des pauses ou de guider les discussions vers des résultats plus positifs. Bien que ces avancées visent à favoriser des interactions plus saines, les implications éthiques de l’IA s’aventurant dans des territoires thérapeutiques sans supervision humaine appropriée restent un point critique de discussion dans l’industrie, soulignant le besoin continu de confiance, de sécurité et de transparence dans les grands modèles linguistiques, en particulier dans des domaines sensibles comme les soins de santé.