Australie : Apple pourrait bloquer des apps d’IA face aux nouvelles règles de vérification d’âge
L’Australie durcit encore sa régulation numérique. Après avoir instauré l’an dernier une interdiction des réseaux sociaux pour les adolescents, le pays s’attaque désormais aux applications d’intelligence artificielle. À partir du 9 mars prochain, les plateformes d’IA devront mettre en place des mécanismes stricts de vérification d’âge afin d’empêcher les mineurs d’accéder à des contenus pornographiques, violents ou liés à l’automutilation et aux troubles alimentaires.
Cette initiative s’inscrit dans un contexte mondial de préoccupations croissantes concernant la santé mentale des jeunes, amplifiées par la popularité grandissante des chatbots conversationnels.
Crainte d’un usage excessif et d’une dépendance
L’autorité australienne de régulation en ligne, eSafety, s’inquiète également du temps passé par certains enfants sur ces outils. Des cas d’enfants de 10 ans utilisant des chatbots jusqu’à six heures par jour auraient été signalés. Un porte-parole a indiqué que le régulateur se dit préoccupé par le recours à “la manipulation émotionnelle, l’anthropomorphisme et d’autres techniques avancées pour inciter les jeunes à un usage excessif”.

Si aucune affaire majeure liée à la violence ou à l’automutilation n’a encore été recensée dans le pays, les autorités préfèrent donc agir en amont.
Pression sur les App Stores
Faute de conformité suffisante, le régulateur pourrait donc demander aux moteurs de recherche et aux boutiques d’applications, dont l’App Store d’Apple et le Play Store de Google, de bloquer les services d’IA ne respectant pas les nouvelles exigences, sachant qu’à ce stade, une majorité des applications d’IA populaires n’aurait pas encore détaillé publiquement de mesures concrètes de vérification d’âge. Il ne reste pourtant que quelques jours pour se mettre en phase avec la nouvelle règlementation…
