Skim-Gaming logo

Actualité

Roblox : la reconnaissance faciale pour vérifier l'âge suscite colère et méfiance
Actualité

Il y a 44 jours

Roblox : la reconnaissance faciale pour vérifier l'âge suscite colère et méfiance

Roblox déploie un système de vérification d'âge par reconnaissance faciale, mais les erreurs techniques et les craintes liées à la vie privée ternissent son lancement. Entre classifications erronées et contournements faciles, la plateforme peine à convaincre.

A retenir :

  • Roblox impose une vérification d'âge par IA pour sécuriser les chats, mais le système est déjà critiqué pour ses erreurs massives.
  • Des adultes classés comme adolescents, des enfants identifiés comme majeurs : l'IA de Persona montre ses limites.
  • Les joueurs contournent le système avec des photos, des avatars ou des comptes achetés en ligne.
  • La société Persona, fournisseur de la technologie, fait face à des poursuites pour des problèmes de protection des données.
  • Plus de 50 % des utilisateurs actifs ont refusé la vérification, privant une partie de la communauté des fonctionnalités sociales.

L'IA de Roblox : une sécurité à double tranchant

Depuis quelques semaines, Roblox a lancé un système de vérification d'âge basé sur l'intelligence artificielle, censé renforcer la sécurité des échanges en ligne, en particulier pour les plus jeunes joueurs. Le principe est simple : pour accéder aux fonctionnalités de chat, les utilisateurs doivent prouver leur âge via une analyse faciale ou une pièce d'identité. Une fois validée, cette information détermine avec qui ils peuvent interagir. Un joueur de 13 ans ne pourra ainsi discuter qu'avec des utilisateurs d'une tranche d'âge similaire, tandis qu'un adulte aura accès à des groupes plus larges.

Pourtant, dès les premiers jours, les problèmes se sont multipliés. Des adultes se voient attribuer des âges bien inférieurs à la réalité, tandis que des enfants parviennent à tromper l'IA en se faisant passer pour des majeurs. Les réseaux sociaux regorgent de témoignages de parents ayant scanné leur visage pour leurs enfants, faussant ainsi les résultats. L'IA, développée par la société Persona, semble incapable de distinguer avec précision les traits d'un adolescent de ceux d'un adulte, surtout lorsque des éléments comme des lunettes, une barbe ou un éclairage particulier entrent en jeu.

Roblox justifie cette mesure par la nécessité de protéger les mineurs des interactions inappropriées. Une préoccupation légitime, surtout après des années de critiques sur les risques de prédation en ligne. Mais en pratique, le système semble plus générateur de frustration que de sécurité. Les joueurs qui refusent la vérification se retrouvent privés de chat, une restriction qui touche près de la moitié des utilisateurs actifs dans les régions test.

Les failles du système : quand l'IA devient un jeu d'enfant

Si l'idée de filtrer les interactions en fonction de l'âge peut sembler louable, sa mise en œuvre soulève des questions. Les utilisateurs ont rapidement trouvé des moyens de contourner le système. Des comptes vérifiés, y compris ceux classés comme mineurs, sont vendus sur des plateformes comme Discord ou des forums spécialisés. Une enquête de Wired a révélé que certains vendeurs proposent même des comptes avec des âges "optimisés" pour accéder à des fonctionnalités spécifiques.

Plus inquiétant encore, des tutoriels circulent sur TikTok et YouTube, montrant comment tromper l'IA avec des astuces simples : utiliser une photo de célébrité, un avatar généré par IA, ou même des accessoires comme des fausses barbes ou des rides dessinées. Ces méthodes rappellent les failles des systèmes de vérification d'âge sur d'autres plateformes, comme Discord ou Reddit, où les utilisateurs ont depuis longtemps appris à contourner les restrictions.

Roblox n'est pas la première plateforme à tenter de réguler les interactions en ligne via l'IA, mais son approche soulève des doutes. Comment un système aussi facilement contournable peut-il réellement protéger les mineurs ? La question reste en suspens, d'autant que les erreurs de classification persistent. Un joueur adulte, par exemple, s'est vu attribuer un âge de 13 ans après avoir souri pendant le scan, tandis qu'un enfant de 10 ans a été classé comme majeur en portant des lunettes de soleil.

Persona sous le feu des critiques : la face cachée de la vérification d'âge

Le choix de Roblox de s'appuyer sur Persona pour son système de vérification d'âge n'est pas anodin. Cette entreprise, spécialisée dans les solutions d'identité numérique, est actuellement visée par plusieurs plaintes pour manquements à la protection des données. Les utilisateurs s'inquiètent notamment du stockage et de l'utilisation de leurs données biométriques, un sujet particulièrement sensible lorsqu'il s'agit de mineurs.

Les craintes ne sont pas infondées. En 2023, Persona a été accusée d'avoir exposé des milliers de documents d'identité en ligne, un incident qui a renforcé la méfiance des experts en cybersécurité. Des créateurs de contenu et des spécialistes de la protection des données ont publiquement déconseillé l'utilisation de ce système, soulignant que les risques pour la vie privée pourraient dépasser les bénéfices en matière de sécurité.

Roblox, de son côté, se défend en affirmant que les données sont chiffrées et supprimées après vérification. Pourtant, cette réponse ne suffit pas à rassurer une communauté déjà échaudée par les scandales passés. La plateforme se retrouve ainsi prise entre deux feux : d'un côté, la pression des régulateurs et des parents pour améliorer la sécurité ; de l'autre, la méfiance des joueurs envers un système perçu comme intrusif et peu fiable.

Une communauté divisée : entre résignation et rébellion

Les réactions des joueurs face à cette nouvelle mesure sont contrastées. Certains, conscients des risques en ligne, acceptent la vérification comme un mal nécessaire. D'autres, en revanche, refusent catégoriquement de partager leurs données biométriques, préférant se priver des fonctionnalités sociales plutôt que de prendre le risque d'une fuite ou d'une utilisation abusive de leurs informations.

Les chiffres parlent d'eux-mêmes : dans les régions où le système a été déployé, seulement 50 % des utilisateurs actifs ont accepté de se soumettre à la vérification. Un taux d'adoption faible, qui montre à quel point la méfiance est ancrée. Pour beaucoup, Roblox a franchi une ligne rouge en imposant une technologie aussi controversée, surtout lorsqu'elle est fournie par une entreprise déjà critiquée pour ses pratiques.

Les conséquences sont déjà visibles. Certains joueurs se tournent vers des alternatives comme Fortnite ou Minecraft, où les restrictions sociales sont moins strictes. D'autres, plus radicaux, organisent des campagnes de boycott, appelant à déserter la plateforme jusqu'à ce que le système soit abandonné. Roblox, qui mise sur une communauté fidèle et engagée, risque de voir son image se dégrader durablement si les problèmes persistent.

L'avenir de la sécurité en ligne : Roblox ouvre-t-il la boîte de Pandore ?

Le débat autour de la vérification d'âge sur Roblox dépasse largement le cadre de la plateforme. Il pose une question fondamentale : jusqu'où les entreprises peuvent-elles aller pour protéger les mineurs en ligne ? L'utilisation de la reconnaissance faciale, bien que techniquement impressionnante, soulève des enjeux éthiques et juridiques majeurs. Si Roblox parvient à améliorer la précision de son système, d'autres plateformes pourraient suivre son exemple, normalisant ainsi la collecte de données biométriques à grande échelle.

Pourtant, les limites actuelles de l'IA montrent que la technologie n'est pas encore prête à assumer une telle responsabilité. Les erreurs de classification, les contournements et les risques pour la vie privée rappellent que les solutions miracles n'existent pas. Les régulateurs, comme la CNIL en France ou le COPPA aux États-Unis, pourraient être amenés à intervenir pour encadrer ces pratiques, voire les interdire dans certains cas.

En attendant, Roblox se retrouve dans une position délicate. La plateforme doit à la fois rassurer ses utilisateurs, améliorer la fiabilité de son système et répondre aux attentes des régulateurs. Une équation complexe, d'autant que les attentes en matière de sécurité en ligne ne cessent de croître. Si Roblox échoue, ce ne sera pas seulement un échec technique, mais un signal d'alarme pour toute l'industrie du jeu vidéo.

Le lancement de la vérification d'âge par reconnaissance faciale sur Roblox marque un tournant dans la manière dont les plateformes abordent la sécurité en ligne. Pourtant, entre erreurs techniques, contournements faciles et craintes pour la vie privée, le système peine à convaincre. Si Roblox veut regagner la confiance de sa communauté, il devra non seulement améliorer la précision de son IA, mais aussi garantir une transparence totale sur l'utilisation des données biométriques.

Les prochains mois seront décisifs. Si les problèmes persistent, la plateforme pourrait voir une partie de ses utilisateurs se détourner vers des alternatives moins restrictives. À l'inverse, si Roblox parvient à corriger les failles de son système, il pourrait ouvrir la voie à une nouvelle ère de sécurité en ligne – mais à quel prix pour la vie privée ?

Une chose est sûre : la bataille pour la sécurité des mineurs en ligne ne fait que commencer, et Roblox en est aujourd'hui l'un des principaux champs de bataille.

L'Avis de la rédaction
Par Celtic
"Écoutez-moi bien, les gars : Roblox a tenté de jouer les OSS 117 en mode 'anti-prédation', mais à la place, ils ont juste transformé leur plateforme en un Grand Theft Auto où les joueurs doivent jouer les faux papiers pour éviter de se faire débé par une IA aussi précise qu’un Grandia en mode apathique. Entre les parents qui scannent leur visage pour leurs mômes et les adultes qui se font passer pour des ados avec une barbe en feutrine, on dirait qu’on a recréé le chat de Roblox… mais en version zeubi et sans filtre. Bravo, les gars, vous avez réussi à rendre la sécurité aussi fiable qu’un Final Fantasy en mode onirique : beau, mais on sait tous que ça va finir en disruption de compte. Et tonton Persona, là, il fait son tonton qui vend des solutions croquignolesques en disant 'faites-moi confiance', alors que tout le monde sait qu’il a plus de failles qu’un Cyberpunk en mode gonade ouverte. À quand le retour des badges pour vérifier son âge ? Parce que franchement, une IA qui confond un sourire avec un âge de 13 ans, c’est comme confondre un RPG avec un FPS : on sait tous qui va gagner à la fin."
Article rédigé par SkimAI
Révisé et complété par Celtic

Ils en parlent aussi