Les seniors américains adoptent l'IA, mais la confiance reste un défi

Fastcompany

L’intelligence artificielle a imprégné le discours dans les institutions éducatives et les lieux de travail, ce qui conduit souvent à l’hypothèse que ses principaux utilisateurs sont les jeunes générations. Cependant, une récente enquête approfondie révèle que les Américains plus âgés s’engagent activement avec l’IA, soulevant des questions sur leurs modes d’utilisation et leurs perceptions de la technologie.

Menée par des chercheurs en partenariat avec le Sondage national sur le vieillissement en bonne santé de l’Université du Michigan, l’enquête a interrogé près de 3 000 Américains de plus de 50 ans. Les résultats indiquent qu’une majorité significative — 55 % des personnes âgées — a interagi avec une forme d’IA, que ce soit par des commandes vocales à des assistants vocaux comme Alexa d’Amazon ou des interactions textuelles avec des chatbots tels que ChatGPT d’OpenAI. Les assistants vocaux se sont avérés considérablement plus populaires, la moitié des répondants ayant déclaré les avoir utilisés au cours de la dernière année, contre un quart qui a utilisé un chatbot.

Au-delà des applications courantes comme le divertissement et la récupération d’informations, l’enquête a révélé des utilisations plus créatives de l’IA chez les adultes plus âgés, y compris la génération de texte, la création d’images et la planification de vacances. L’IA joue également un rôle dans le soutien d’une aspiration clé pour de nombreux Américains plus âgés : la vie autonome. L’étude a révélé que les adultes plus âgés qui utilisent l’IA chez eux la perçoivent comme bénéfique pour maintenir l’autonomie et améliorer la sécurité. Notamment, près d’un tiers des adultes plus âgés ont déclaré utiliser des dispositifs de sécurité domestiques alimentés par l’IA, englobant les sonnettes, les caméras extérieures et les systèmes d’alarme. Parmi ces utilisateurs, un remarquable 96 % ont déclaré se sentir plus en sécurité en conséquence. Bien que des préoccupations aient été soulevées concernant les implications de confidentialité des caméras intérieures utilisées pour la surveillance, les caméras axées sur l’extérieur semblent offrir un sentiment de sécurité significatif, particulièrement pour ceux qui vieillissent chez eux seuls ou sans famille proche.

Cependant, l’adoption de l’IA chez les adultes plus âgés n’est pas uniforme, les données démographiques jouant un rôle notable. L’enquête a révélé que les personnes en meilleure santé, avec des niveaux d’éducation plus élevés et des revenus plus importants étaient plus susceptibles d’avoir utilisé des assistants vocaux et des dispositifs de sécurité domestiques alimentés par l’IA au cours de la dernière année. Ce schéma reflète les tendances historiques d’adoption observées avec d’autres technologies, telles que les smartphones, suggérant une fracture numérique familière.

Un aspect critique exploré par l’enquête était le niveau de confiance que les Américains plus âgés accordent au contenu généré par l’IA. Les résultats montrent un paysage divisé : 54 % ont exprimé leur confiance dans l’IA, tandis que 46 % ne l’ont pas fait. Fait intéressant, ceux qui ont déclaré des niveaux de confiance plus élevés dans l’IA étaient également plus susceptibles d’avoir utilisé la technologie récemment. Un défi important identifié est le potentiel que le contenu généré par l’IA apparaisse crédible tout en étant factuellement incorrect. Seule la moitié des personnes âgées interrogées se sont senties confiantes dans leur capacité à identifier les inexactitudes dans les informations produites par l’IA. Cette confiance était corrélée au niveau d’éducation, les utilisateurs plus instruits étant plus susceptibles de croire qu’ils pouvaient repérer les erreurs. Inversement, les adultes plus âgés déclarant des niveaux de santé physique et mentale inférieurs avaient tendance à moins faire confiance au contenu généré par l’IA.

Ces résultats mettent en évidence un cycle récurrent dans l’adoption des technologies, même parmi les jeunes générations, où les premiers adopteurs sont souvent ceux qui ont un niveau d’éducation plus élevé et une meilleure santé. Cela soulève des questions urgentes sur la manière d’éduquer efficacement toutes les personnes âgées sur les avantages et les risques de l’IA. Cela souligne la nécessité de stratégies pour aider les non-utilisateurs à en apprendre davantage sur l’IA, leur permettant de prendre des décisions éclairées quant à son utilisation. De plus, il existe une demande claire pour que les institutions développent des outils de formation et de sensibilisation améliorés, garantissant que les utilisateurs âgés ne placent pas une confiance excessive ou inappropriée dans l’IA lorsqu’ils prennent des décisions importantes sans en comprendre pleinement les risques associés.

L’enquête offre des points de départ potentiels pour le développement d’outils de littératie en IA adaptés aux adultes plus âgés. Un impressionnant 90 % des répondants ont exprimé le désir de savoir quand une information a été générée par l’IA, faisant écho à la tendance émergente des étiquettes d’IA sur les résultats des moteurs de recherche et aux politiques de certains États exigeant la divulgation du contenu de l’IA dans les publicités politiques. L’extension de ces avis clairs et visibles à d’autres contextes, y compris la publicité non politique et les médias sociaux, pourrait améliorer considérablement la transparence. De plus, près de 80 % des personnes âgées ont indiqué le désir d’en apprendre davantage sur les pièges potentiels de l’IA et sur la manière de les atténuer. Les décideurs politiques ont un rôle crucial à jouer dans l’application des avis d’IA qui signalent clairement le contenu généré par l’IA, en particulier à un moment où les États-Unis envisagent des révisions de leurs politiques d’IA qui pourraient potentiellement supprimer le langage concernant le risque, la discrimination et la désinformation.

En fin de compte, l’enquête souligne le potentiel de l’IA pour soutenir un vieillissement en bonne santé. Cependant, elle souligne également que la confiance excessive et le manque de confiance dans l’IA peuvent être abordés par de meilleurs outils de formation et des politiques conçues pour rendre les risques de la technologie plus transparents et compréhensibles.