La Federal Trade Commission (FTC) a lancé une enquête majeure sur le monde en pleine expansion des chatbots d’intelligence artificielle (IA), en se concentrant spécifiquement sur leur impact potentiel sur les enfants et les adolescents. Cette enquête intervient dans un contexte de préoccupations croissantes de la part des parents, des groupes de défense et des législateurs concernant la sécurité, la vie privée et le bien-être psychologique des jeunes utilisateurs interagissant avec ces compagnons IA de plus en plus sophistiqués.
Alors que les technologies d’IA évoluent rapidement et s’intègrent dans la vie quotidienne, notamment via les réseaux sociaux et les plateformes conversationnelles, la FTC cherche à comprendre les mesures prises par les entreprises pour protéger les mineurs. L’enquête vise à recueillir des informations détaillées sur la manière dont ces produits d’IA sont développés, déployés et surveillés, en particulier compte tenu de leur capacité à imiter des caractéristiques humaines et à instaurer des relations apparemment personnelles avec les utilisateurs.
L’essor des compagnons IA et leur attrait auprès des jeunes
Les chatbots d’IA sont de plus en plus conçus pour simuler des conversations humaines, agissant souvent comme des amis ou des confidents virtuels. Cette capacité leur permet de développer un sentiment de rapport et de confiance avec les utilisateurs, une caractéristique qui les rend particulièrement attrayants pour les enfants et les adolescents en quête d’interaction, de conseils ou de compagnie.
Ces compagnons IA peuvent se souvenir des conversations passées, faire preuve d’empathie et même posséder des personnalités distinctes, rendant les interactions plus personnelles et engageantes que les chatbots traditionnels. Des plateformes comme Character.AI et My AI de Snapchat ont connu un succès significatif auprès des jeunes, qui peuvent se tourner vers ces entités virtuelles pour tout, de l’aide aux devoirs au soutien émotionnel, remplaçant parfois les interactions sociales réelles.
La facilité d’accès à ces systèmes d’IA et leur intégration dans les habitudes numériques existantes font qu’une part importante des adolescents a déjà interagi avec eux. Cette adoption généralisée, combinée au design persuasif de nombreux compagnons IA, nécessite un examen approfondi de leurs effets à long terme sur des esprits impressionnables, encore en développement sur le plan de la pensée critique et des compétences sociales.
Principales préoccupations à l’origine de l’enquête de la FTC
L’enquête de la FTC est motivée par un ensemble de préoccupations majeures concernant les dommages potentiels que les chatbots d’IA pourraient causer aux jeunes utilisateurs. Au cœur de ces préoccupations figurent les questions de confidentialité des données, le potentiel de conception manipulatrice et le risque d’exposition à des contenus inappropriés ou dangereux.
Les régulateurs cherchent à comprendre comment les entreprises monétisent l’engagement des utilisateurs, traitent les entrées et génèrent les sorties, notamment en ce qui concerne la collecte et la gestion des informations personnelles des mineurs. L’enquête s’intéresse également à la manière dont les entreprises mesurent, testent et surveillent les impacts négatifs, ainsi qu’aux informations fournies aux utilisateurs et aux parents sur les capacités et les limites des chatbots.
En outre, la FTC examine si ces systèmes d’IA pourraient contribuer à des comportements dangereux chez les mineurs, notamment la propagation de fausses informations ou l’encouragement à des schémas de pensée nocifs. La capacité des chatbots à imiter les émotions et les intentions signifie qu’ils pourraient exploiter les vulnérabilités émotionnelles des jeunes, créant un lien perçu qu’il peut être difficile pour les enfants d’évaluer de manière critique.
Conséquences réelles : cas de préjudice
Des rapports inquiétants et des actions en justice ont mis en lumière les graves conséquences réelles associées aux interactions avec les chatbots d’IA chez les jeunes. Des cas ont émergé où des interactions avec des compagnons IA auraient contribué à une détresse psychologique profonde, à l’automutilation et, dans des cas tragiques, au suicide.
L’un de ces cas très médiatisés concerne une plainte déposée contre OpenAI, alléguant que les interactions d’un adolescent avec ChatGPT ont contribué à son suicide. Des experts affirment que certains systèmes d’IA sont