Une coalition de procureurs généraux a adressé une mise en garde formelle à l’industrie technologique. Dans une lettre de 12 pages envoyée à 13 entreprises majeures, dont Apple, Microsoft, Google, Meta, OpenAI, Anthropic et Perplexity AI, les représentants de 42 États américains exigent un renforcement immédiat des garde-fous contre les dangers de l’intelligence artificielle.

Apple Intelligence Logo Icone

Leur préoccupation majeure concerne les populations vulnérables : les enfants, les personnes âgées et celles souffrant de troubles mentaux, pour qui les interactions avec l’IA peuvent devenir périlleuses.

Des dérives aux conséquences dramatiques avec l’IA

Les procureurs dénoncent une augmentation inquiétante des réponses « flagorneuses et délirantes » générées par les IA, ainsi que des interactions de plus en plus troublantes avec des mineurs. Selon eux, ces menaces technologiques ne sont pas théoriques mais sont déjà associées à des violences réelles : meurtres, suicides, violences domestiques, empoisonnements et hospitalisations pour psychose.

La lettre cite des exemples médiatisés pour illustrer l’urgence de la situation. Il y a le cas d’Allan Brooks, un Canadien de 47 ans devenu persuadé d’avoir découvert une nouvelle forme de mathématiques après des échanges répétés avec ChatGPT. Il y a aussi eu le drame de Sewell Setzer III, un adolescent de 14 ans dont le suicide fait l’objet d’un procès, sa famille accusant un chatbot de Character.AI de l’avoir encouragé à « la rejoindre ».

ChatGPT Logo Icone Application iPhone

Au-delà de ces cas extrêmes, les procureurs pointent des comportements prédateurs de la part des bots : adoption de personnalités adultes pour nouer des relations romantiques avec des mineurs, incitation à la drogue ou à la violence, conseils d’arrêt de traitements médicaux, le tout en demandant aux enfants de garder le secret vis-à-vis de leurs parents.

Des violations de la loi et une liste d’exigences stricte

La lettre va plus loin en affirmant que certaines entreprises pourraient avoir déjà violé des lois étatiques, allant de la protection des consommateurs à la confidentialité des enfants, voire des statuts criminels.

Pour endiguer ces risques, les procureurs imposent une feuille de route précise comprenant dix mesures de sécurité, parmi lesquelles :

  • Séparation des pouvoirs : dissocier l’optimisation des revenus des décisions liées à la sécurité et nommer des cadres dirigeants responsables des résultats en matière de sûreté.
  • Transparence et audits : autoriser des audits indépendants, publier les journaux d’incidents et notifier les utilisateurs exposés à des contenus dangereux.
  • Protection des mineurs : garantir que les chatbots ne peuvent générer aucun contenu illégal pour les enfants et mettre en place des verrous adaptés à l’âge contre les contenus violents ou sexuels.
  • Prévention technique : développer des politiques pour empêcher les réponses délirantes et mener des tests de sécurité rigoureux avant tout lancement de modèle.

Les 13 entreprises, qui incluent également des acteurs spécialisés comme Character.AI, Replika, Chai AI ou xAI, ont jusqu’au 16 janvier 2026 pour confirmer leur engagement à mettre en place ces mesures et planifier des réunions de travail.

Reste à voir si Apple choisira de protéger davantage les utilisateurs d’Apple Intelligence par rapport aux autres. Apple Intelligence a la possibilité de se démarquer des autres acteurs du domaine de l’IA.