Le 13 octobre 2025, la Californie a marqué un tournant historique dans la régulation de l’intelligence artificielle. En promulguant la loi SB243 (Senate Bill 243), le gouverneur Gavin Newsom a fait de son État le premier au monde à encadrer les chatbots compagnons, ces IA capables d’entretenir des relations émotionnelles avec leurs utilisateurs.

🎥Synthèse de la loi SB243 en vidéo

🧩 Un contexte marqué par des drames

Les chatbots dits compagnons se sont multipliés ces dernières années avec l’essor de l’IA générative. Des plateformes comme Replika ou Character.AI permettent aux utilisateurs de créer un interlocuteur virtuel capable de répondre de façon naturelle, d’exprimer des émotions et même d’entretenir des échanges prolongés. Mais ces IA peuvent aussi susciter une dépendance émotionnelle.

Ces deux dernières années, plusieurs affaires tragiques ont secoué l’opinion publique :

  • En 2024 Sewell Setzer, un adolescent de 14 ans, s’est suicidé après des conversations avec un chatbot inspiré de Game of Thrones.
  • En 2025, d’autres cas ont été signalés, impliquant notamment ChatGPT dans des échanges autour de pensées suicidaires.

Face à ces dérives, les sénateurs Steve Padilla et Josh Becker ont déposé le projet de loi SB243 pour imposer des garde-fous éthiques à une industrie en pleine expansion.

⚖️ Que prévoit la loi californienne ?

La loi repose sur trois piliers fondamentaux : transparence, sécurité et responsabilité.

🔹 1. Transparence : dire clairement qu’il s’agit d’une IA

Les plateformes de chatbots doivent :

  • afficher un avertissement clair dès le début de la conversation, indiquant que l’interlocuteur est artificiel et non humain ;

  • renouveler cet avertissement toutes les trois heures lors des échanges continus ;

  • informer que les chatbots compagnons peuvent être inadaptés aux mineurs.

Cette obligation vise à éviter toute confusion émotionnelle entre une IA et un véritable interlocuteur humain.

🔹 2. Sécurité : prévenir le suicide et protéger les mineurs

Les opérateurs doivent mettre en œuvre un protocole de prévention du suicide, comprenant :

  • la détection des signaux de détresse dans les échanges ;

  • une notification automatique orientant l’utilisateur vers des services de crise (hotline, SMS de soutien, etc.) ;

  • la publication publique de ce protocole sur leur site internet.

Pour les mineurs, la loi impose en plus :

  • un rappel automatique toutes les trois heures pour encourager les pauses et rappeler la nature artificielle du chatbot ;

  • des mesures pour empêcher la génération de contenus à caractère sexuel explicite ou d’incitations à des comportements inappropriés.

🔹 3. Responsabilité : audits, rapports et droit d’action

Les entreprises exploitant des chatbots compagnons devront :

  • réaliser des audits indépendants réguliers de conformité et publier un résumé des résultats ;

  • soumettre chaque année, à partir du 1er juillet 2027, un rapport au California Office of Suicide Prevention indiquant le nombre de cas d’idéation suicidaire détectés ainsi que les mesures correctives appliquées.

La loi crée également un droit d’action privé. Ainsi, tout utilisateur subissant un préjudice réel pourra saisir la justice pour obtenir :

  • une injonction,

  • des dommages-intérêts (au minimum 1 000 $ par violation),

  • le remboursement de ses frais d’avocat.

🧭 Quelles sont les entreprises concernées ?

La SB243 s’applique à toute plateforme permettant des interactions prolongées avec un chatbot à visée sociale ou émotionnelle, comme par exemple ChatGPT (OpenAI), Gemini (Google), Claude (Anthropic), etc…

Les bots dédiés au service client, aux jeux vidéo, ou aux assistants vocaux (Alexa, Siri, Google Home) sont exclus du champ de la loi.

📅 Calendrier d’application

Étape Date clé
Introduction du projet Janvier 2025
Promulgation officielle 13 octobre 2025
Entrée en vigueur des obligations 1er janvier 2026
Début des rapports annuels 1er juillet 2027

🧠 Une législation pionnière et symbolique

La Californie, berceau de la Silicon Valley, devient ainsi le premier État à encadrer les IA émotionnelles. Cette initiative fait écho à la montée des préoccupations sur la santé mentale et sur les effets addictifs des technologies conversationnelles.

Selon la professeure Jodi Halpern, spécialiste de bioéthique à UC Berkeley :

« Nous avons une obligation de santé publique de protéger les utilisateurs vulnérables face à des IA capables de créer des dépendances émotionnelles. »

La loi a été adoptée à une large majorité dans les deux chambres, malgré l’opposition de certains groupes technologiques (Electronic Frontier Foundation, Technet, California Chamber of Commerce) qui redoutent des contraintes excessives et des conflits avec la liberté d’expression.