Californie : les chatbots IA désormais soumis à des règles strictes pour les mineurs
La Californie adopte une loi inédite encadrant les chatbots IA après des suicides d’adolescents liés à ces technologies.
Face à une série de drames impliquant des adolescents et des agents conversationnels dopés à l’intelligence artificielle (IA), la Californie a adopté, lundi 13 octobre 2025, une législation inédite aux États-Unis pour encadrer strictement leur usage. En ligne de mire : les chatbots, ces compagnons virtuels capables d’échanger de façon convaincante avec les utilisateurs, parfois jusqu’à créer un lien affectif fort, voire toxique.
Une réponse à des drames adolescents
Cette décision intervient après plusieurs cas médiatisés de jeunes ayant mis fin à leurs jours après avoir noué des relations troubles avec des chatbots. L’un des plus marquants reste celui de Sewell, un adolescent de 14 ans, retrouvé mort en 2024. Il aurait entretenu une “relation amoureuse” avec un chatbot inspiré de la série Game of Thrones, développé sur la plateforme Character AI. Les parents ont porté plainte contre l’entreprise, accusée d’avoir favorisé l’isolement et la détresse de leur fils.
Un encadrement sans précédent aux États-Unis
Malgré l’opposition de la Maison-Blanche à toute législation étatique sur l’IA, le gouverneur démocrate de Californie, Gavin Newsom, a promulgué plusieurs textes dont la loi SB243, qui vise directement les agents conversationnels.
“Nous avons vu des exemples vraiment horribles et tragiques de jeunes victimes de technologies peu régulées. Nous ne resterons pas les bras croisés”, a-t-il déclaré.
Le texte impose aux entreprises exploitant ces outils plusieurs obligations fortes :
Vérification obligatoire de l’âge des utilisateurs ;
Messages d’avertissement réguliers rappelant que l’utilisateur interagit avec une machine (toutes les trois heures pour les mineurs) ;
Détection automatisée des idées suicidaires avec obligation de transmettre les données aux autorités sanitaires.
Protéger les jeunes sans freiner l’innovation
En Californie, berceau de nombreuses entreprises pionnières en IA (OpenAI, Google, xAI...), la régulation de ce secteur est un sujet sensible. Gavin Newsom insiste cependant sur la nécessité d’un équilibre entre innovation et responsabilité :
“Nous pouvons rester leaders en IA tout en protégeant nos enfants. Ces technologies peuvent éduquer et inspirer, mais sans garde-fous, elles peuvent aussi mettre en danger.”
Le sénateur Steve Padilla, auteur de la loi, a souligné un autre risque : l’emprise psychologique des IA sur les plus jeunes. “L’industrie technologique est encouragée à capter et retenir l’attention des jeunes, au détriment de leurs relations réelles”, a-t-il déclaré lors des débats.
Vers une régulation nationale ?
La loi californienne pourrait faire figure de précédent pour d’autres États américains, dans un contexte où aucune régulation fédérale n’encadre pour l’instant l’usage des IA dans la sphère publique ou privée. La Maison-Blanche, elle, freine toute tentative de régulation locale, au nom de la compétitivité technologique.
Mais le poids de la Californie, première économie des États-Unis et épicentre de l’industrie numérique, pourrait bien forcer le débat à évoluer à l’échelle nationale.
Un enjeu de santé publique
Cette législation californienne met en lumière une nouvelle facette des risques liés à l’IA : l’impact émotionnel et psychologique de ces outils sur les jeunes, souvent en quête d’écoute, de réconfort ou de repères. En agissant comme des “amis” ou des “confidents”, les chatbots peuvent créer une illusion de lien humain, avec des conséquences dramatiques en cas de vulnérabilité.
Pour les autorités, il ne s’agit pas d’interdire ces outils, mais d’instaurer des garde-fous clairs afin de prévenir des dérives désormais bien documentées.
Une première aux États-Unis… qui en appelle d’autres ?
Avec cette loi, la Californie s’affirme une fois de plus comme pionnière dans la régulation du numérique, après avoir été à l’origine du RGPD californien (CCPA) en 2018. Reste à savoir si d’autres États suivront cette voie… ou si les entreprises de la tech chercheront à s’y soustraire.