Adobe a dévoilé, lors de la conférence MAX 2025 à Los Angeles le 28 octobre, une série d’assistants IA conversationnels et d’agents intelligents pour transformer Creative Cloud en un allié direct de la création. Ces outils, intégrés à des applications phares comme Photoshop et Express, permettent de dialoguer en langage naturel pour déléguer tâches et obtenir des conseils personnalisés. Cette avancée marque un virage vers l’IA agentique, visant à libérer les créateurs des routines pour favoriser l’innovation.
À retenir
- Assistants IA dans Photoshop et Express : Beta privée pour Photoshop, publique pour Express web, avec commandes naturelles.
- Project Moonlight : Agent unifié en preview, beta privée prochaine, comme directeur créatif personnel.
- Firefly Image Model 5 : Résolution native de 4 mégapixels, édition par prompt en beta publique.
- Écosystème partenaires : Intégration de modèles Google, OpenAI, Runway, avec génération images illimitée jusqu’au 1er décembre.
- Outils audio et vidéo : Génération de soundtracks et voix-off multilingues, éditeur vidéo en beta privée.
- GenStudio étendu : Plateforme pour production contenu entreprise, intégrations publicitaires avec Amazon et Google.
Ces annonces, présentées par David Wadhwani, président des médias numériques chez Adobe, positionnent l’entreprise comme pionnière dans l’intégration de l’IA au cœur des workflows créatifs. Elles interviennent à un moment où la demande de contenu explose, boostée par les réseaux sociaux et la publicité numérique, tandis que les outils IA-natifs concurrencent les suites traditionnelles. Pour les professionnels du design, de la vidéo et de l’audio – graphistes, marketeurs, réalisateurs –, cela signifie une accélération tangible : moins de temps sur les tâches basiques, plus sur l’essence artistique. L’enjeu est clair : démocratiser l’accès à des IA avancées tout en maintenant un cadre éthique, via des partenariats sécurisés et des credentials de contenu. Adobe ne réinvente pas la création, mais la rend plus pratique et inclusive, au bénéfice d’une économie créative en pleine expansion.
Les assistants IA conversationnels intègrent Creative Cloud
Cette évolution commence par une refonte des interfaces, passant des menus labyrinthiques aux dialogues fluides.
L’intelligence agentique au service des professionnels
Adobe a introduit des assistants IA conversationnels, alimentés par l’IA agentique, pour déléguer les tâches répétitives. Dans Photoshop, l’Assistant IA, en beta privée sur liste d’attente, répond aux requêtes comme « améliore l’éclairage de ce portrait » en exécutant des ajustements précis. Les utilisateurs gagnent des tutoriels pas-à-pas et des recommandations adaptées à leur projet. Cette approche libère du temps : un graphiste peut se concentrer sur l’idée plutôt que sur les clics interminables. L’agent comprend le contexte, évitant les erreurs courantes dans les workflows complexes.
Project Moonlight : le manager créatif multicanal
Le clou du spectacle est Project Moonlight, un agent IA unifié en preview, beta privée attendue dans les mois à venir. Il agit comme un directeur créatif personnel, reliant les applications Adobe aux canaux sociaux. Pour une campagne, il analyse le contenu existant et suggère des ajustements pour une cohérence de marque. Imaginez : vous décrivez votre vision, et l’agent propose des visuels adaptés à Instagram ou LinkedIn. Testé sur des scénarios multicanal, il gère la production de bout en bout, de l’idée à la publication. Les créateurs apprécient cette centralisation, qui fluidifie les itérations sans quitter l’écosystème Creative Cloud.
Déploiement et accès par application
Dans Express, l’Assistant IA est déjà en beta publique sur le web. Une commande comme « rends cette invitation de mariage plus automnale » modifie couleurs et éléments en un clin d’œil. L’outil saisit le design global pour des résultats cohérents. Adobe prévoit un déploiement progressif : beta pour pros d’abord, puis large public. Les abonnés Creative Cloud accèdent via un plan unifié, avec des limites généreuses en générations. Ce rollout met l’accent sur la praticité, rendant l’IA accessible sans courbe d’apprentissage abrupte.

Firefly s’ouvre à un écosystème multimodal de modèles partenaires
Adobe positionne Firefly comme un studio IA créatif tout-en-un, intégrant des modèles tiers pour une flexibilité optimale.
Un catalogue de modèles tiers dans Creative Cloud
L’écosystème étendu inclut des géants comme Google avec Gemini 2.5 Flash Image, Veo 3.1 et Imagen 4, ou OpenAI pour les images GPT. Runway apporte Gen-4, Black Forest Labs le flux FLUX.1, et ElevenLabs des voix multilingues. Topaz Labs excelle en upscale génératif. Ces intégrations atterrissent dans Generative Fill de Photoshop ou les outils Firefly. Les créateurs choisissent le modèle idéal par tâche : Veo pour vidéo fluide, FLUX pour designs précis. Adobe reconnaît que ses propres modèles ne suffisent pas toujours, favorisant ainsi l’innovation collaborative.
Transparence et offre commerciale
La transparence est clé : des Content Credentials s’attachent automatiquement, indiquant le modèle utilisé – Firefly ou partenaire. Cela protège les droits et trace l’origine. Commercialement, les abonnés Creative Cloud Pro et Firefly profitent d’une génération d’images illimitée avec tous les modèles jusqu’au 1er décembre 2025. Après, un tarif unifié s’applique, sans surcoûts par partenaire. Cette ouverture démocratise l’accès aux IA premium, niveau entreprise pour tous. Les partenaires bénéficient d’une visibilité accrue dans l’écosystème dominant d’Adobe.
Partenariats stratégiques et intégrations d’entreprise
Le partenariat élargi avec Google Cloud infuse Gemini et Veo dans les apps Adobe. Avec YouTube, une section « Create for YouTube Shorts » débarque dans l’app mobile Premiere, pour édition et upload direct. Ces liens renforcent l’impact : un marketeur produit du contenu optimisé pour TikTok via GenStudio. GenStudio, étendu en plateforme de production, intègre Amazon Ads, Google Marketing Platform, Innovid, LinkedIn et TikTok. Pour les entreprises, cela scale la création : assets cohérents à volume industriel, sans compromettre la marque.

L’évolution de Firefly : de l’image à l’audio, avec personnalisation
Firefly avance sur tous les fronts, avec des mises à jour techniques qui élargissent ses capacités modales.
Firefly Image Model 5 : qualité photographique et édition par prompt
Le nouveau Firefly Image Model 5, en beta publique, délivre une résolution native de 4 mégapixels – environ 2240 x 1792 pixels – sans upscale. Les détails fidélisent, l’éclairage s’ajuste finement, l’anatomie humaine gagne en réalisme. Prompt to Edit permet des modifications naturelles : « supprime la personne en arrière-plan » réorganise l’image contextuellement. Layered Image Editing, en beta privée, offre un compositing précis, reportable dans Photoshop. Ces outils boostent l’efficacité : un designer itère en minutes, pas en heures.
Outils audio et vidéo : génération de pistes sonores et voix-off
Generate Soundtrack, beta publique, crée des instrumentales originales synchronisées au vidéo, via Firefly Audio Model – entièrement licenciables. Generate Speech, avec ElevenLabs, convertit texte en voix-off multilingue, contrôlant émotion et rythme. Pour la vidéo, Firefly Video Editor arrive en beta privée le mois prochain : timeline web pour générer, découper et styler clips en claymation ou anime. Ces ajouts multimodaux unifient le workflow : un réalisateur assemble son et image sans outils externes. L’impact est immédiat sur les productions courtes, comme les reels sociaux.
Firefly Custom Models et Foundry pour la marque
Firefly Custom Models, beta privée sur liste d’attente, permet de former un IA sur vos images référencées – droits acquis – pour un style cohérent. Une marque de mode upload des visuels, l’agent génère des variantes fidèles. Firefly Foundry cible les entreprises : co-développement de modèles profonds sur IP propriétaire, couvrant image, vidéo, audio, vecteur et 3D. Cela assure souveraineté : vos données restent sécurisées, l’IA s’aligne sur votre esthétique. Adobe facilite l’accès, mais exige conformité éthique.
Une stratégie pour contrer les IA-natives, sans ignorer les risques
Adobe défend sa dominance en misant sur l’IA comme accélérateur, mais des voix s’élèvent sur la dépendance aux tiers.
GenStudio et les intégrations publicitaires pour l’entreprise
GenStudio devient une chaîne d’approvisionnement complète : production, assemblage, optimisation de contenu on-brand. Les intégrations avec Amazon Ads et consorts automatisent la diffusion. Pour les marketeurs, cela signifie scaler sans perte de qualité.
L’IA comme accélérateur, non remplaçant de la créativité
La philosophie d’Adobe : l’IA booste l’humain, avec modèles sûrs et respect des droits.
« Nous croyons que chaque créateur devrait pouvoir exploiter les opportunités économiques et artistiques découlant de l’IA générative, de l’IA conversationnelle et de la demande mondiale croissante de contenu créatif. »
David Wadhwani, président des médias numériques chez Adobe.
Partenariats majeurs et accessibilité mobile
Les liens avec Google et YouTube étendent l’écosystème. Sur mobile, Premiere facilite les Shorts. Cependant, certains critiquent la reliance à des partenaires externes : que se passe-t-il si un modèle comme Gemini pose des biais ? Adobe répond par les credentials et audits, traitant loyalement ces objections pour bâtir la confiance. Cette transparence atténue les craintes de souveraineté, tout en ouvrant des horizons pour les créateurs européens, alignés sur le RGPD.
Avec ces lancements, Adobe trace la voie d’une création augmentée, où l’IA conversationnelle et multimodale redéfinit les possibles pour les pros – un pas vers une tendance inévitable.

















Laisser un commentaire
Vous devez vous connecter pour publier un commentaire.