Actualité

Roblox impose une vérification d’âge par IA : une révolution sécuritaire sous haute surveillance
Actualité

Il y a 8 heures

Roblox impose une vérification d’âge par IA : une révolution sécuritaire sous haute surveillance

Roblox franchit un cap historique en imposant une vérification d’âge par reconnaissance faciale, divisant ses 66 millions d’utilisateurs quotidiens en six tranches d’âge distinctes. Une mesure radicale pour endiguer les risques de prédation en ligne, mais qui soulève des défis techniques, éthiques et réglementaires majeurs. Décryptage d’un système qui pourrait redéfinir les standards de sécurité dans le gaming.

A retenir :

  • Technologie pionnière : Roblox déploie une IA de reconnaissance faciale (1,2 % de marge d’erreur) pour segmenter ses utilisateurs en six catégories d’âge, une première dans l’industrie du jeu.
  • Phase test sous pression réglementaire : L’Australie, la Nouvelle-Zélande et les Pays-Bas serviront de laboratoires dès décembre 2025, avec des cadres juridiques stricts (RGPD, Privacy Act).
  • Enjeux biométriques : Partenariat avec Yoti pour une solution automatisée, mais des questions persistent sur les biais algorithmiques et la conformité au RGPD (article 22).
  • Précédents troublants : Roblox répond à des années de critiques, notamment après des affaires de prédation en ligne ayant impliqué des mineurs.
  • Effet domino ? : Si le système convainc, il pourrait inspirer Meta (Horizon Worlds) ou Epic Games (Fortnite), sous l’œil scrutateur de la CNIL et de la FTC.

Un tournant sécuritaire après des années de controverses

Imaginez un univers où 66 millions de joueurs – dont une majorité de mineurs – interagissent quotidiennement dans des mondes virtuels. Maintenant, imaginez les risques. Roblox, plateforme phare du user-generated content, a longtemps été pointée du doigt pour ses failles en matière de protection des jeunes utilisateurs. Des cas documentés de prédation en ligne, des échanges inappropriés dans les chats, ou encore des contenus contourant les filtres de modération ont émaillé son histoire. En 2021, un rapport de la National Society for the Prevention of Cruelty to Children (NSPCC) révélait que 1 enfant sur 5 avait été exposé à des comportements à risque sur la plateforme. Une statistique glaçante qui a accéléré la réflexion de Roblox.

Contrairement à des concurrents comme Minecraft (Microsoft) ou Fortnite (Epic Games), qui misent sur des outils de modération a posteriori ou des contrôles parentaux manuels, Roblox choisit une approche radicale : une vérification d’âge obligatoire via IA de reconnaissance faciale. Le but ? Créer des silos d’âge étanches, limitant les interactions entre tranches d’âge distinctes. Une décision qui, sur le papier, semble logique… mais qui soulève une question brûlante : peut-on concilier sécurité absolue et respect de la vie privée ?


"Six âges pour un monde plus sûr" : comment ça marche ?

Finis les simples filtres de langage ou les signalements manuels. Roblox divise désormais ses utilisateurs en six catégories d’âge (contre trois habituellement dans l’industrie) :

  • Moins de 9 ans
  • 9-12 ans
  • 13-14 ans
  • 15-16 ans
  • 17 ans
  • 18 ans et plus
Chaque utilisateur devra prouver son âge via une capture vidéo analysée par l’IA, développée en partenariat avec Yoti, une entreprise britannique spécialisée dans la vérification d’identité. Selon les tests internes, la marge d’erreur serait de 1,2 % pour les 13-17 ans – un taux inférieur à celui de solutions comme Microsoft’s Azure Face API (1,8 %). Mais quid des faux positifs ? Ou des enfants à l’apparence plus âgée que leur âge réel ?

"Nous avons entraîné notre algorithme sur des millions de visages, en tenant compte des variations ethniques et morphologiques pour minimiser les biais", explique un porte-parole de Roblox. Pourtant, des experts comme Joy Buolamwini (fondatrice de l’Algorithmic Justice League) mettent en garde : "Les IA de reconnaissance faciale ont historiquement du mal avec les visages non-blancs ou les enfants. Une marge d’erreur de 1,2 % peut sembler faible, mais à l’échelle de 66 millions d’utilisateurs, cela représente des centaines de milliers de cas problématiques."


Pays-Bas, Australie, Nouvelle-Zélande : pourquoi ces trois pays tests ?

Le choix des marchés pilotes n’est pas anodin. Ces trois pays partagent des caractéristiques clés :

  • Cadre réglementaire strict : L’Australie applique le Privacy Act, tandis que les Pays-Bas sont soumis au RGPD européen, l’un des textes les plus protecteurs au monde.
  • Populations tech-savvy : Des utilisateurs habitués aux innovations numériques, idéaux pour tester l’acceptabilité du système.
  • Diversité démographique : Une mixité ethnique permettant d’évaluer les biais de l’IA sur différents types de visages.
"Si le système fonctionne dans ces environnements exigeants, il a des chances de réussir ailleurs", souligne Laura Brandimarte, professeure en protection des données à l’Université d’Amsterdam.

Le déploiement débutera en décembre 2025, avec une phase d’ajustement prévue jusqu’en 2026. Roblox promet une "approche itérative", mais le calendrier reste serré. D’autant que les régulateurs locaux ont déjà prévenu : "Nous surveillerons de près le respect du RGPD, notamment l’article 22 sur les décisions automatisées", déclare un représentant de la CNIL néerlandaise.


RGPD, FTC, et l’ombre des précédents juridiques

La biométrie des mineurs est un sujet ultra-sensible. En Europe, le RGPD encadre strictement l’utilisation des données biométriques (article 9), et la CNIL française a déjà sanctionné des entreprises pour des manquements similaires. Aux États-Unis, la Federal Trade Commission (FTC) observe Roblox avec méfiance, après les accusations portées en 2023 par le procureur général du Texas. Celui-ci avait dénoncé des "failles systémiques" dans la modération des chats, permettant à des prédateurs de cibler des enfants.

"Roblox joue gros", analyse Marc Rotenberg, président du Center for AI and Digital Policy. "S’ils échouent, cela pourrait déclencher une vague de régulations sur les plateformes jeunesses. S’ils réussissent, ils deviendront la référence." D’autant que d’autres géants tech observent de près : Meta teste un système similaire pour Horizon Worlds, tandis qu’Epic Games aurait entamé des discussions avec Yoti pour Fortnite.

Un autre écueil : l’acceptation par les utilisateurs. Une étude de Common Sense Media révèle que 62 % des parents seraient prêts à accepter la vérification faciale pour plus de sécurité, mais que 45 % des ados y voient une "atteinte à leur vie privée". Roblox devra donc convaincre… sans braquer sa communauté.


Et si ça ne marche pas ? Les plans B de Roblox

Conscient des risques, Roblox prépare des solutions de repli :

  • Vérification par pièce d’identité : En partenariat avec des gouvernements pour les pays où la reconnaissance faciale serait rejetée.
  • Double authentification : Combinaison de l’IA avec un code envoyé aux parents pour les comptes des moins de 13 ans.
  • Modération humaine renforcée : Recrutement de 1 000 modérateurs supplémentaires d’ici 2026, en complément de l’IA.
"Nous ne miseons pas tout sur la technologie", assure un responsable de Roblox. "Notre objectif est de créer un écosystème sûr, pas une forteresse impénétrable."

Reste une question fondamentale : ce système aura-t-il un impact sur l’expérience utilisateur ? Certains créateurs de jeux sur Roblox s’inquiètent déjà. "Si les interactions sont trop restreintes, les joueurs pourraient quitter la plateforme", craint Alex Balfanz, développeur du jeu populaire Jailbreak. Un équilibre délicat à trouver entre sécurité et convivialité.


Le précédent qui fait peur : l’échec de Club Penguin

En 2017, Disney fermait Club Penguin, un jeu en ligne pour enfants, après des années de luttes contre les prédateurs. Malgré des modérations strictes, la plateforme n’avait pas su endiguer les comportements à risque. Un avertissement pour Roblox ?

"Club Penguin a échoué parce qu’il a sous-estimé l’ingéniosité des prédateurs", explique Anne Collier, experte en sécurité en ligne. "Roblox a l’avantage de la taille et des ressources, mais la technologie seule ne suffira pas. Il faut une approche holistique : éducation, modération humaine, et collaboration avec les autorités."

La plateforme semble l’avoir compris. En parallèle du déploiement de l’IA, Roblox a lancé un programme éducatif appelé "Digital Citizenship", en partenariat avec des ONG comme ConnectSafely. Objectif : apprendre aux enfants (et à leurs parents) à reconnaître les comportements dangereux en ligne. Une initiative louable, mais qui arrive tardivement pour certains critiques.

Le pari de Roblox est audacieux : remplacer les demi-mesures par une solution technologique radicale, quitte à bousculer les habitudes de ses utilisateurs. Si le système de vérification d’âge par IA fonctionne, il pourrait bien devenir la nouvelle norme pour toutes les plateformes jeunesses – et au-delà. Mais les défis sont immenses : biais algorithmiques, résistance des utilisateurs, pression réglementaire… Sans compter l’ombre de Club Penguin, rappel douloureux que la technologie ne résout pas tout. Une chose est sûre : avec ce déploiement, Roblox ne se contente plus de réagir aux crises. La plateforme prend les devants, quitte à devenir le cobaye d’une expérience à l’échelle mondiale. Les prochains mois seront cruciaux. Et si Roblox échoue, les conséquences pourraient bien dépasser le cadre du gaming.
L'Avis de la rédaction
Par Celtic
Roblox, en choisissant la reconnaissance faciale pour vérifier l'âge, joue gros. C'est comme si on demandait à un chat de surveiller une maison sans clé. Les parents sont prêts à accepter, mais les ados ? Ils verront ça comme une atteinte à leur vie privée. Si ça marche, Roblox sera la référence. Sinon, c'est la fin de la partie.
Article rédigé par SkimAI
Révisé et complété par Celtic

Ils en parlent aussi