Il y a 8 jours
EA impose l'IA comme "partenaire intellectuel" à ses développeurs – entre promesses et craintes
h2
Electronic Arts pousse ses 15 000 employés à adopter l'IA comme "partenaire de réflexion", selon un rapport de Business Insider. Entre outils internes défaillants comme ReefGPT et craintes de suppressions d'emplois, cette stratégie soulève des questions éthiques et opérationnelles. Une révolution technologique qui divise, alors que le géant du jeu vidéo vient d'être racheté pour 55 milliards de dollars par un consortium incluant l'Arabie Saoudite.
A retenir :
- 15 000 employés contraints d'utiliser quotidiennement l'IA, du codage à l'évaluation des performances, sous peine de retarder leur carrière.
- ReefGPT, le chatbot maison d'EA, produit des "hallucinations" et du code défectueux, alourdissant la charge de travail selon des sources anonymes.
- Des artistes et level designers craignent que leurs créations servent à former l'IA... avant d'être remplacés par elle.
- Un ancien senior QA designer de Respawn licencié affirme que l'IA remplissait déjà son rôle avant son départ, parmi 100 suppressions de postes en 2024.
- Rachetée pour 55 milliards par un consortium lié à l'Arabie Saoudite et Jared Kushner, EA avertit elle-même des risques juridiques et réputationnels de l'IA mal maîtrisée.
L'IA comme dogme : quand EA transforme ses studios en laboratoires d'expérimentation
Depuis plus d’un an, Electronic Arts impose une révolution silencieuse à ses 15 000 employés : l’intégration systématique de l’intelligence artificielle dans chaque maillon de la chaîne de production. Selon les documents internes obtenus par Business Insider, la direction exige désormais que les développeurs, artistes et managers considèrent l’IA comme un "partenaire intellectuel" ("thought partner"), capable d’accélérer les processus créatifs comme les tâches administratives. Une approche qui rappelle les méthodes agressives de Ubisoft avec son outil Ghostwriter, mais à une échelle inédite.
Concrètement, les équipes doivent suivre des formations obligatoires sur des outils comme ReefGPT – un chatbot interne basé sur des modèles propriétaires – et l’utiliser au quotidien pour générer du code, des concepts artistiques, ou même des scripts pour les entretiens annuels. "L’objectif est de réduire les temps de production de 20 à 30 % d’ici 2025", confie une source proche de la direction sous couvert d’anonymat. Pourtant, les retours terrain sont sans appel : l’outil produit des erreurs grossières, comme des lignes de code incompatibles avec les moteurs de jeu maison (Frostbite, Ignite), ou des assets 3D déformés, forçant les équipes à repartir de zéro.
Pire, certains employés dénoncent une stratégie à double tranchant : EA leur demanderait de nourrir les modèles d’IA avec leurs propres créations (designs, animations, scénarios), sous prétexte d’"optimisation", tout en préparant des plans de restructuration massive. "On nous demande de former notre futur remplaçant", résume un level designer de DICE (studio derrière Battlefield), qui craint que les métiers artistiques ne deviennent "obsolètes d’ici trois ans".
ReefGPT : le chatbot qui sabote la productivité au lieu de l’améliorer
Au cœur de cette politique, ReefGPT – nommé en référence au reef (récif en anglais), symbole de l’écosystème interconnecté que veut créer EA – est présenté comme une percée technologique. Pourtant, les témoignages recueillis par Business Insider peignent un tableau bien différent. "Le chatbot invente des fonctions qui n’existent pas, ou génère des textures incompatibles avec nos pipelines", explique un développeur de BioWare (studio de Mass Effect et Dragon Age). "On passe plus de temps à corriger ses erreurs qu’à coder."
Les problèmes ne s’arrêtent pas là. Lors des tests internes, ReefGPT aurait fuité des données sensibles, comme des extraits de scénarios non finalisés de Star Wars Jedi: Survivor, ou des design documents confidentiels de projets annulés. "C’est un risque majeur pour la propriété intellectuelle", alerte un avocat spécialisé dans le droit du numérique, qui souligne que EA n’a pas encore clarifié la gouvernance des données utilisées pour entraîner ses modèles.
Ironie de l’histoire : en 2023, EA avait elle-même publié un rapport interne (fuité par The Verge) mettant en garde contre les "risques juridiques et réputationnels" de l’IA générative. Le document évoquait notamment la possibilité que les joueurs "perdent confiance" dans la marque si les jeux intégraient des contenus créés par IA sans transparence. "Un comble, quand on voit comment ils forcent leurs équipes à l’utiliser en catimini", commente un ancien employé de Maxis (studio de The Sims).
Licenciements et craintes : l’IA comme outil de "nettoyage" des effectifs
Les craintes des salariés ne sont pas infondées. En avril 2024, EA a licencié près de 100 employés, principalement dans les équipes de Respawn Entertainment (développeur de Apex Legends et Star Wars Jedi). Parmi eux, un senior quality-assurance designer affirme que son poste avait déjà été "automatisé" par des outils d’IA analysant les retours des playtesters. "Mon travail consistait à synthétiser les feedbacks des joueurs. L’IA le faisait en 10 minutes, avec une précision de 80 %. Pourquoi me garder ?", déclare-t-il à Business Insider.
Cette logique n’est pas nouvelle : dès 2022, EA avait testé des algorithmes pour générer des dialogues secondaires dans FIFA 23, réduisant le besoin en scénaristes juniors. "Ils appellent ça de l’‘augmentation’, mais en réalité, c’est de la substitution déguisée", dénonce un syndicaliste du secteur, qui évoque un "modèle Uber" où les créatifs deviennent des prestataires précaires pour nourrir la machine.
Le rachat d’EA pour 55 milliards de dollars en 2024 par un consortium incluant le fonds souverain saoudien (PIF) et des proches de Donald Trump (comme Jared Kushner) ajoute une couche d’inquiétude. "Les Saoudiens veulent des profits rapides, et l’IA est leur outil préféré pour réduire les coûts", analyse un économiste spécialisé dans les tech mergers. Reste à savoir si cette stratégie ne nuira pas à la qualité des franchises phares d’EA, comme Battlefield, The Sims, ou Star Wars.
Entre éthique et performance : le dilemme impossible d’EA
EA n’est pas la seule à miser sur l’IA : Ubisoft (avec Ghostwriter), Square Enix (pour les dialogues de Final Fantasy), et même Nintendo (via des outils internes non divulgués) explorent cette voie. Mais la différence réside dans l’ampleur et l’obligation imposée par EA. "Chez nous, c’est soit tu utilises l’IA, soit tu es considéré comme un frein", confie un producteur de EA Sports.
Pourtant, des voix s’élèvent pour rappeler que l’IA n’est pas une solution miracle. En 2023, le jeu Immortals of Aveum (développé par Ascendant Studios, un partenaire d’EA) avait été critiqué pour ses environnements générés par IA, jugés "froids et répétitifs" par la presse spécialisée. "L’IA excelle pour les tâches répétitives, mais elle tue la magie des détails uniques", explique Julie Chalmette, ancienne art director chez BioWare, aujourd’hui consultante.
Du côté des joueurs, l’accueil est mitigé. Une enquête de Newzoo (2024) révèle que 62 % des gamers refuseraient d’acheter un jeu où plus de 30 % du contenu est généré par IA, par crainte d’un "manque d’âme". "EA prend un risque énorme en misant sur une technologie que son propre public rejette", résume un analyste de NPD Group.
2025 et au-delà : vers une industrie du jeu vidéo sans humains ?
À court terme, EA prévoit d’étendre ReefGPT à ses studios externes, comme Criterion (développeur de Need for Speed) ou Hazelight (It Takes Two). Mais les défis sont colossaux :
- La qualité : comment garantir que les jeux gardent leur identité quand 40 % des assets sont générés par IA ?
- La propriété intellectuelle : qui possède les droits sur un personnage créé par un algorithme nourri avec des œuvres existantes ?
- La régulation : l’UE prépare un "AI Act" qui pourrait contraindre EA à révéler la part d’IA dans ses jeux – une transparence qu’elle évite aujourd’hui.
"D’ici 2030, 50 % des tâches créatives dans le jeu vidéo seront automatisées", prédit un rapport de McKinsey. Mais à quel prix ? "Si EA continue sur cette voie, elle risque de perdre ce qui a fait son succès : des franchises portées par des équipes passionnées, pas par des algorithmes", conclut Mark Long, vétéran de l’industrie et ancien directeur chez Zynga.
Une chose est sûre : avec son rachat par l’Arabie Saoudite et sa dépendance croissante à l’IA, EA devient le laboratoire le plus scruté de l’industrie. Réussira-t-elle à concilier innovation et éthique, ou deviendra-t-elle le symbole d’une créativité sacrifiée sur l’autel de la productivité ?
La stratégie d’Electronic Arts révèle un paradoxe criant : alors que l’entreprise met en garde contre les risques de l’IA, elle en fait un outil de management brutal, au mépris des réalités terrain. Entre ReefGPT qui sabote la productivité, des licenciements justifiés par l’automatisation, et un rachat par des investisseurs peu soucieux d’éthique, EA incarne les dérives d’une industrie en quête de profits immédiats. Pourtant, les joueurs, eux, restent attachés à l’authenticité – une valeur que même les algorithmes les plus sophistiqués peinent à reproduire.
Le vrai test arrivera en 2025, avec les sorties de Dragon Age: Dreadwolf et du prochain Battlefield. Si ces titres, partiellement conçus avec l’IA, déçoivent, la stratégie d’EA pourrait bien se retourner contre elle. "Les joueurs pardonnent les bugs, pas l’absence d’âme", rappelle un développeur anonyme. Dans cette course effrénée vers l’automatisation, EA oublie peut-être l’essentiel : un jeu vidéo, c’est d’abord une histoire humaine.
Une chose est certaine : avec 15 000 employés contraints à collaborer avec des machines défaillantes, et des milliards de dollars en jeu, le géant du jeu vidéo joue un dangereux jeu d’équilibriste. La prochaine erreur de ReefGPT pourrait coûter bien plus cher qu’un simple bug de texture.

