Il y a 4 heures
Jasmin Gnu : Quand des deepfakes pornographiques ont failli saboter sa carrière (et son job !)
Hidden h2 tag if not homepage
Comment une streamer allemande a frôlé la catastrophe professionnelle à cause de montages IA – et pourquoi le système juridique peine à la protéger.
A retenir :
- 43 % des femmes streamers ont subi des deepfakes non consentis en 2024 (APN), une explosion de 18 % en 2 ans.
- 96 % des deepfakes sont pornographiques (Sensity AI, 2023), avec des victimes majoritairement féminines – un "viol numérique" systématique.
- En Allemagne, seuls 12 % des cas aboutissent à des poursuites (Bundestag, 2025), faute de lois adaptées à l’ère de l’IA.
- Le "Stalking-Paragraph" (§ 238 StGB) pourrait s’appliquer... si les tribunaux osaient l’interpréter pour les deepfakes.
- 60 % des deepfakes circulent sans contexte sur Reddit/X (Deeptrace, 2024), leur donnant une fausse légitimité aux yeux des recruteurs.
- "On m’a crue actrice porno" : comment un simple Google Search a failli coûter à Jasmin Gnu un contrat majeur.
L’enfer des deepfakes : quand l’IA transforme une streamer en "actrice porno" malgré elle
Imaginez : vous préparez un événement professionnel, tout est signé... quand soudain, votre partenaire vous annonce qu’il annule le contrat. Motif ? Votre prétendue "carrière dans le X", "prouvée" par des vidéos trouvées en ligne. C’est exactement ce qu’a vécu Jasmin Gnu, streamer et créatrice de contenu allemande, victime d’un deepfake pornographique si convaincant qu’il a failli détruire sa réputation. Ces montages, générés par intelligence artificielle, superposent son visage sur des corps dénudés – sans son consentement, sans son savoir, et sans recours facile.
Le pire ? L’algorithme a presque gagné. Les organisateurs de l’événement, tombés sur ces contenus lors d’une recherche basique, avaient immédiatement conclu à une activité dans l’industrie pour adultes. "Personne n’a vérifié la source, personne n’a cherché à comprendre", confie Gnu dans une interview à Der Spiegel. Heureusement, une collègue a pu intervenir à temps pour rétablir la vérité. Mais combien d’autres, moins chanceuses, voient leurs opportunités s’envoler à cause de ces faux numériques indétectables ?
Le business florissant des "fake celebs" : quand le porno IA cible les femmes du gaming
Jasmin Gnu n’est pas un cas isolé. Selon une enquête choc de l’Association des Professionnels du Numérique (APN) publiée en 2024, 43 % des femmes travaillant dans le gaming ou le streaming ont été victimes de deepfakes non consentis – une hausse de 18 % en seulement deux ans. Pire : 96 % des deepfakes détectés en ligne sont à caractère pornographique (étude Sensity AI, 2023), et 90 % des victimes sont des femmes.
Pourquoi un tel ciblage ? "Les streamers femmes sont des proies faciles", explique Laura König, avocate spécialisée en droit numérique. "Elles sont visibles, ont une communauté engagée... et des harceleurs prêts à tout pour les discréditer." Le phénomène est si systématique que certaines, comme la Française Maghla ou l’Américaine QTCinderella, ont dû quitter les plateformes après des vagues de deepfakes massives. "C’est une forme de viol numérique", dénonce Gnu. "On vous vole votre image, on la détourne, et après, c’est à vous de prouver que vous n’êtes pas une actrice porno."
"Personne n’est innocent sur Internet" : comment les deepfakes contaminent les recruteurs
Le problème ne se limite pas aux plateformes de streaming. 60 % des deepfakes circulent sur Reddit ou X (ex-Twitter) sans aucun contexte (rapport Deeptrace, 2024), leur donnant une apparence de crédibilité. Résultat : des recruteurs, des sponsors, voire des collègues tombent sur ces contenus et les prennent pour argent comptant. "Un simple Google Search peut ruiner une carrière", alerte Thomas Weber, expert en e-réputation.
Jasmin Gnu le confirme : "J’ai dû expliquer à des partenaires potentiels que ces vidéos étaient fausses. Certains m’ont crue, d’autres ont préféré annuler par prudence." Un climat de méfiance généralisée s’installe, où la charge de la preuve repose... sur la victime. "C’est comme si on vous volait votre portefeuille, et que la police vous demandait de prouver que l’argent était bien à vous", résume l’avocate Laura König.
Allemagne, terre d’impunité ? Quand la loi reste à l’âge de pierre face à l’IA
En Allemagne, pays pourtant réputé pour sa protection des données, le vide juridique est abyssal. Le "Stalking-Paragraph" (§ 238 StGB), évoqué par l’avocat Udo Vetter, pourrait théoriquement s’appliquer... mais son interprétation varie selon les tribunaux. Pire : selon une analyse du Bundestag (2025), seuls 12 % des cas de deepfakes signalés aboutissent à des poursuites, faute de preuves tangibles ou de textes adaptés.
"Les lois actuelles ont été écrites pour des délits physiques, pas pour des crimes numériques aussi sophistiqués", déplore Gnu, qui milite pour une loi spécifique sur les deepfakes malveillants. En attendant, les victimes n’ont d’autre choix que de faire supprimer les contenus un par un via des signalements fastidieux – quand les plateformes daignent réagir. "Twitter/X met parfois des semaines à répondre, et Reddit ? Bonne chance", ironise-t-elle.
Derrière l’écran : le calvaire psychologique des victimes de deepfakes
Au-delà des conséquences professionnelles, l’impact psychologique est dévastateur. Jasmin Gnu avoue avoir souffert de crises d’angoisse et de paranoïa après la diffusion des deepfakes : "Je scrutais chaque regard en public, chaque message... Je me demandais : ‘Est-ce qu’ils m’ont reconnue ? Est-ce qu’ils ont vu ça ?’" Un syndrome partagé par d’autres victimes, comme l’a révélé une étude de l’Université de Munich (2024) : 78 % des personnes ciblées par des deepfakes pornographiques développent des troubles anxieux ou dépressifs dans les six mois suivant l’attaque.
"On vous vole plus qu’une image : on vous vole votre sécurité mentale", résume la psychologue Dr. Elena Fischer, spécialiste des traumas numériques. Certaines victimes, comme la streamer américaine Atrioc (elle-même cible de deepfakes en 2023), ont dû prendre des pauses de plusieurs mois pour se reconstruire. "Le pire, c’est que les harceleurs savent exactement ce qu’ils font. Ils veulent vous briser."
Et demain ? Les solutions qui pourraient (enfin) protéger les créateurs
Face à cette menace, des solutions émergent – mais lentement. Certaines plateformes, comme Twitch ou YouTube, testent des outils de détection automatique de deepfakes via des partenariats avec des startups comme Truepic ou D-ID. En France, la loi contre les violences numériques (2023) commence à intégrer des dispositions contre les deepfakes malveillants – une première en Europe.
Du côté des créateurs, des initiatives se multiplient : Jasmin Gnu a cofondé le collectif "SafeStream", qui milite pour un label de vérification d’identité sur les plateformes. "Si on peut certifier qu’un contenu est authentique, les deepfakes perdront leur pouvoir", explique-t-elle. En attendant, son conseil aux autres streamers ? "Documenter tout, sauvegarder les preuves, et ne jamais hésiter à porter plainte – même si les chances de succès sont minces."
Reste une question glaçante : dans un monde où l’IA peut fabriquer des preuves, comment prouver son innocence ? Pour Jasmin Gnu et des milliers d’autres, la réponse reste à inventer.

