OpenAI a dévoilé ChatGPT Health, un nouvel espace dédié à la santé directement intégré à son chatbot. Pour l’instant testée par une poignée d’utilisateurs, la fonctionnalité ne concerne pas encore l’Europe.
OpenAI sait que vous confondez parfois ChatGPT avec votre psy, votre médecin ou votre coach de vie. L'entreprise américaine ne cherche pas forcément à dissuader cet usage. Cependant, elle apporte dès à présent des ajustements pour éviter des réponses problématiques si vous allez (très) mal.
Deux récentes études menées par 20 Minutes et Opinion Way offrent un éclairage approfondi sur la perception et l’usage de l’IA par les jeunes Français de 18 à 30 ans. Bien que cette génération soit fascinée par les avancées technologiques et prête à adopter l’IA dans leur quotidien, elle reste particulièrement attentive à ses impacts, notamment sur la santé mentale, l’emploi, et l’environnement.
L’étude #MoiJeune 20 Minutes– OpinionWay sur l’IA a été réalisée en septembre dernier auprès d’un échantillon représentatif de 276 jeunes Français âgés de 18 à 30 ans.
L’IA au cœur des usages quotidiens
L’adoption de l’IA par les jeunes Français est indéniable : 80 % ont intégré l’IA dans leurs activités, que ce soit de manière occasionnelle (31%) ou régulière (19%). Près de 68 % d’entre eux utilisent des outils d’IA au moins une fois par semaine, notamment pour naviguer sur les réseaux sociaux, effectuer des recherches en ligne, ou organiser leur quotidien.
Cependant, cette adoption ne signifie pas une rupture avec les interactions humaines : 93 % des répondants estiment qu’aucune IA ne pourra remplacer les échanges humains, 91% qu’il est essentiel de ne pas sacrifier les relations humaines au profit de la technologie.
Néanmoins, l’IA conversationnelle suscite de plus en plus d’intérêt. Environ 19 % des jeunes ont déjà utilisé des IA comme la plateforme Character IA, qui permet de créer et d’interagir avec des personnages virtuels, ou le chatbot MyAI intégré à Snapchat, pour dialoguer. Le même pourcentage envisage de faire de même.
Parmi ceux qui ont déjà expérimenté ces technologies, les plus prisées sont les compagnons virtuels (28 %) et les personnages de fiction (20 %), suivis par les IA utilisées comme coachs ou soutien psychologique (16 %).
Santé mentale : entre risques et opportunités
L’impact de l’IA sur la santé mentale suscite des inquiétudes. Selon l’étude, 62 % des jeunes estiment que l’IA pourrait avoir des effets négatifs, notamment en créant une dépendance aux outils numériques ou en renforçant la pression à être constamment productif. Toutefois, certains voient des bénéfices potentiels dans les IA conversationnelles : 35 % pensent qu’elles pourraient aider à lutter contre la solitude, tandis que 30 % apprécient la disponibilité constante de ces outils.
Néanmoins, les jeunes restent sceptiques quant à l’efficacité de l’IA pour traiter des problèmes émotionnels profonds : ils ne sont que 16 % à penser qu’elle pourrait être utile après une rupture amoureuse et 17 % en cas de dépression ou de burn-out. Pourtant, 41 % considèrent l’IA comme un possible remède à l’ennui et 36 % y voient un appui dans des situations de confinement.
L’IA et le marché du travail : menace ou opportunité ?
Selon l’enquête, les jeunes sont préoccupés par l’impact de l’IA sur le marché de l’emploi : pour 68 % d’entre eux, beaucoup de gens perdront leur emploi à cause de l’IA. Ils sont 63 % à s’inquiéter de voir l’IA remplacer des postes humains, particulièrement les emplois juniors, tandis que 31 % craignent que l’IA ne compromette leurs perspectives d’emploi.
Cependant, pour une large majorité (74 %), l’IA représente une opportunité de se libérer de tâches répétitives et rébarbatives. Si 45 % la considèrent avant tout comme un outil d’assistance, 23 % expriment leur ambivalence en la percevant comme une aide quotidienne qui pourrait devenir une menace à l’avenir.
Environnement : une prise de conscience croissante
Cette seconde étude, s’adressant à l’impact environnemental du numérique et de l’IA, repose sur une enquête en ligne menée en juillet dernier par Opinion Way pour 20 Minutes auprès de 312 jeunes, également âgés de 18 à 30 ans.
Les jeunes Français sont de plus en plus conscients des enjeux environnementaux liés au numérique et à l’IA : 73 % des répondants déclarent être informés de l’empreinte écologique des technologies numériques, bien que ce chiffre tombe à 33 % pour l’IA en particulier.
Les jeunes se sentent concernés par ces questions : 52 % affirment réduire leur utilisation d’appareils pour réduire leur empreinte numérique.
Ils sont 56% à avoir modifié leurs comportements numériques pour des raisons environnementales, éteignant leurs appareils lorsqu’ils ne sont pas utilisés plutôt que de les laisser en veille et limitant leur usage des services de streaming. Parmi eux, 85% n’envisagent de changer leur matériel informatique que par nécessité, et 82% privilégient l’utilisation du WiFi aux réseaux 4G et 5G. La plupart des jeunes (79%) trient également leurs e-mails.
Un équilibre à trouver
Ces études révèlent une génération à la fois curieuse et prudente face à l’IA, attachée aux interactions humaines. Si l’IA est devenue pour eux un outil incontournable pour de nombreuses activités quotidiennes, les jeunes Français demeurent vigilants quant à ses effets sur la santé mentale, l’emploi et l’environnement.
Etudes #MoiJeune : les jeunes Français face à l'IA, une génération entre adoption et vigilance
Alors que la santé mentale connaît une dégradation alarmante, le Collectif MentalTech publie ce jeudi 10 octobre, Journée Mondiale de la Santé Mentale, un rapport mettant en lumière le rôle à la fois prometteur et préoccupant de l’IA dans ce domaine crucial. Coordonné par Alexia Adda, cofondatrice de KLAVA Innovation, ce rapport fait état des avancées technologiques en santé mentale tout en soulevant des questions éthiques fondamentales.
MentalTech est le premier collectif français dédié à l’émergence de solutions numériques en santé mentale. Créé en mars 2022 par 7 membres fondateurs : Qare, hypnoVR, Kwit, moka.care, PetitBamBou, ResilEyes Therapeutics, et Tricky, il regroupe aujourd’hui plus d’une trentaine d’acteurs (startups, institutionnels, professionnels de santé) autour d’une même ambition : répondre à l’urgence de déployer des outils numériques éthiques dans la prévention et la prise en charge de la santé psychique.
Le collectif souligne la recrudescence ces dernières années des troubles de l’humeur, en particulier chez les jeunes adultes, et l’augmentation des consultations d’urgence en psychiatrie, en raison de l’errance diagnostique et du tabou entourant la santé mentale. Face à ces enjeux, l’émergence d’outils numériques devient essentielle pour améliorer la précision des diagnostics, personnaliser les traitements et faciliter l’accès aux soins.
L’IA : un outil transformateur
Au cours des dernières années, l’IA a fait des progrès considérables, offrant des solutions innovantes dans divers domaines, y compris la santé mentale. Selon le rapport, quatre principaux cadres d’intervention de l’IA émergent :
Prédiction de valeur : l’IA peut prédire des états psychiques en analysant de grandes quantités de données, détectant ainsi des émotions dans des vidéos ou des conversations textuelles avant l’apparition de symptômes graves ;
Génération de dialogue : des agents conversationnels peuvent interagir directement avec les patients, offrant un soutien continu et personnalisé. Ils peuvent analyser en temps réel l’état psychologique des individus à travers leurs réponses verbales ou écrites, et fournir un premier niveau d’assistance ou de recommandations ;
Création d’activités thérapeutiques : l’IA peut générer des programmes adaptés aux besoins spécifiques des patients, y compris des jeux sérieux et des exercices de relaxation. La réalité virtuelle peut aider à traiter des phobies ou des
troubles de stress post-traumatique en simulant des environnements thérapeutiques contrôlés ;
Recommandation de ressources : des recommandations pertinentes peuvent être faites aux patients (articles ou vidéos), les aidant à mieux comprendre et à gérer leurs symptômes, et aux professionnels de santé (protocoles de soin) selon les besoins exprimés ou détectés.
Ces technologies visent à améliorer les diagnostics et à créer un système de soins plus inclusif, comblant ainsi les lacunes dans l’accès aux soins psychiques.
Défis éthiques à relever
Cependant, l’utilisation croissante de l’IA en santé mentale soulève d’importants défis éthiques. La protection des données sensibles des patients est une préoccupation majeure, d’autant plus que l’IA repose souvent sur de vastes ensembles de données personnelles. De plus, le rapport met en garde contre le risque de déshumanisation des soins, soulignant la nécessité d’une validation humaine des décisions prises par l’IA.
Un autre défi réside dans l’explicabilité des algorithmes. Souvent qualifiés de “boîtes noires”, ces modèles peuvent prendre des décisions complexes sans que leur logique soit toujours compréhensible pour les médecins, d’où l’importance d’une meilleure transparence.
La réglementation européenne
Les applications d’IA en santé sont souvent considérées comme à haut risque, et les nouvelles exigences de l’AI Act s’ajoutent aux régulations existantes pour les dispositifs médicaux.
Le collectif rappelle que les éditeurs d’IA doivent suivre six étapes pour se conformer aux nouvelles normes : définir le cadre d’utilisation, obtenir le consentement des patients pour la collecte de données, évaluer l’impact de l’IA, anticiper les biais, garantir la conformité réglementaire et établir une gouvernance appropriée.
Appel à la numéricovigilance
Pour faire face à ces enjeux, le Collectif MentalTech appelle à la création d’un cadre de “numéricovigilance”. Inspiré du modèle de pharmacovigilance, ce cadre vise à garantir la sécurité des patients tout en détectant rapidement les dérives potentielles des dispositifs d’IA. Selon lui, il permettrait de maintenir un équilibre entre l’innovation technologique et le respect des principes éthiques fondamentaux dans la prise en charge de la santé mentale.
Le collectif identifie dix axes majeurs pour ce cadre :
1. L’élaboration d’une notice d’information : créer un document explicatif pour les utilisateurs, détaillant le fonctionnement de l’IA, ses avantages, ses risques, la population cible et les mesures en cas de dysfonctionnement, avec un langage accessible.
2. La constitution d’un comité scientifique pluridisciplinaire : former un comité composé d’au moins un médecin, un.e expert.e en IA, un.e éthicien.ne et un.e spécialiste du Réglementaire pour superviser le développement et l’évaluation des systèmes d’IA.
3. L’implication des professionnels de santé : engager les professionnels de santé dans le processus de développement de l’IA pour garantir la robustesse et la fiabilité des systèmes.
4. La formation des professionnels de santé : proposer des formations sur l’IA, ses applications en médecine et les principes d’évaluation des systèmes de machine learning.
5. L’installation personnalisée pour les utilisateurs : adapter l’utilisation des outils d’IA aux appréhensions des utilisateurs, en développant des protocoles spécifiques pour chaque cas d’usage.
6. L’absence de conflits d’intérêts : veiller à ce qu’il n’y ait pas de conflits d’intérêts entre les entités impliquées dans le dépistage et le traitement des troubles.
7. L’adaptation des métriques d’évaluation : ajuster les métriques d’évaluation de l’algorithme selon le cas d’usage et garantir la transparence et l’efficacité des mécanismes de sécurité.
8. Le retracement des décisions de l’IA : documenter le processus décisionnel de l’IA, en expliquant les résultats générés, tout en prévoyant des exceptions lorsque des bénéfices médicaux substantiels peuvent être démontrés.
9. La sélection de la population d’entraînement : assurer la représentativité des données utilisées pour l’entraînement de l’IA, et mener des études complémentaires pour prévenir les biais algorithmiques si nécessaire.
10. La collecte parcimonieuse des données : suivre les recommandations de la CNIL en ne collectant que les données indispensables, afin de tester les IA de manière pragmatique et efficace.
Encadrement de l'IA en santé mentale : le Collectif MentalTech appelle à la "numéricovigilance"
Alors que l’intelligence artificielle révolutionne déjà la médecine, la santé mentale demeure un domaine en quête de transformations profondes. En France, la psychologie, souvent ancrée dans des principes du 19e siècle, semble (encore) résister aux avancées scientifiques et technologiques. En repensant la psychologie de manière scientifique et amplifiée par l’IA, on rend la santé mentale plus accessible, plus précise, plus prédictive… sans perdre en humanité.
L’IA pour ouvrir la voie de la psychologie scientifique de demain
L’IA a depuis longtemps pris sa place dans le monde de la santé, que ce soit dans la chirurgie, le diagnostic physique, ou le traitement des patients. En revanche, la santé mentale, un domaine plus récemment scientifique, est quant à lui en retard. Alors même qu’elle offre un éventail d’applications illimitées. Lier IA et psychologie consiste à faire de la santé mentale un domaine aussi objectivement mesurable et traçable que la santé physique.
Un exemple concret est l’utilisation de l’IA pour analyser les biomarqueurs, tels que la modulation de la voix. En effet, tout signal de parole contient une riche combinaison d’informations à partir du ton, des intonations, des pauses, du placement de la voix, etc. Cette richesse fait de la parole un élément de diagnostic précoce puissant pour identifier les signes de dépression et d’anxiété. Les études scientifiques sur le sujet ouvrent des portes pour accélérer le développement d’applications dans ce domaine. C’est pourquoi il est urgent de travailler sur la psychologie scientifique et de permettre aux tendances sociétales de guider la recherche, malgré le manque de prise de risque dans les financements publics. On ne parle pas ici d’une IA surpuissante, mais d’une IA qui sert le travail des professionnels de la santé mentale, qui accélère le diagnostic : plus rapide, plus précis et limitant les erreurs humaines.
L’impact éthique et les biais algorithmiques soulèvent des préoccupations majeures
L’utilisation de l’intelligence artificielle en santé mentale présente des enjeux majeurs liés aux biais algorithmiques et à l’éthique. Les algorithmes peuvent être influencés par des biais présents dans les données d’entraînement, ce qui peut entraîner des prédictions moins précises ou inappropriées, notamment pour les populations minoritaires. De plus, la collecte et l’analyse de données sensibles soulèvent des préoccupations concernant la protection de la vie privée et des données, nécessitant le respect des réglementations en matière de protection des données et la mise en place de mesures de sécurité robustes. La transparence et l’explicabilité des décisions prises par les systèmes d’IA sont essentielles pour garantir la confiance des utilisateurs et permettre la détection et la correction des biais potentiels.
Un autre exemple d’enjeu dans l’utilisation de l’IA en santé mentale est l’origine des données sur lesquelles elle se base. En effet, les bases de données qu’utilisent les algorithmes viennent très régulièrement des pays ayant les moyens de développer ces modèles d’IA. Les pays n’en ayant pas les moyens reprennent ces modèles de données malgré qu’elles ne soient pas forcément transposables à la culture du pays. L’aspect interculturel des données est un fort enjeu en santé mentale.
En somme, la conception et l’utilisation de l’IA en santé mentale exigent une réflexion approfondie sur les implications éthiques et sociales, ainsi qu’un engagement envers la promotion de valeurs telles que la justice, l’inclusion et le respect de la vie privée.
Transformer la dynamique de la santé mentale avec l’IA
La santé mentale a la possibilité d’adopter une approche plus rapide et précise avec l’IA. Prenons l’exemple du Burn out. À travers l’analyse de données multidimensionnelles, l’IA peut permettre d’identifier des patterns et des signaux précurseurs de Burn out qui pourraient passer inaperçus à l’œil humain. Le suivi d’indicateurs biométriques permet de détecter les signes physiologiques du stress et de l’épuisement. Aussi, l’IA peut surveiller les changements de comportement, tels que la baisse de productivité, l’absentéisme, les retards, les erreurs et la communication négative, qui peuvent indiquer un Burn out imminent.
En bref, l’IA offre un potentiel considérable pour améliorer la détection du Burn out. En combinant l’analyse de données, la personnalisation et le respect de la vie privée, l’IA peut aider les entreprises à identifier les employés à risque et à mettre en place des mesures préventives pour les protéger de l’épuisement professionnel. L’utilisation responsable de l’IA dans ce domaine peut contribuer à améliorer le bien-être des employés et à créer un environnement de travail plus sain et plus productif. Il faut s’enthousiasmer de cette nouvelle page qui s’écrit et qui offre de repenser la psychologie de manière scientifique, prédictive, et guidée par les tendances sociétales. Mais il faut le faire avec esprit critique et éthique en intégrant l’IA comme catalyseur d’innovation.
Cette dynamique doit commencer dès la formation, où les futurs professionnels de la psychologie doivent être préparés à intégrer les avancées technologiques (alors qu’aujourd’hui l’innovation n’est pas enseignée en cursus de psychologie) pour inventer le futur de la psychologie et répondre à une question : comment puiser dans les enseignements du passé pour innover et devenir les acteurs de la psychologie de demain ?