Formation - Workflow des IA génératives pour les graphistes : écosystème, architectures, outils, pipelines
Maitriser les architectures IA et les environnements professionnels de production (Flux, Comfyui, Stable diffusion, Midjourney, API et workflows avancés)
Ce programme de formation de niveau avancé s'adresse à des créatifs qui utilisent déjà l'IA au quotidien mais qui se sentent enfermés dans les plateformes commerciales. Vous générez des images sur NanoBanana ou Midjourney, peut-être de la vidéo sur Kling ou Veo, mais vous ne comprenez pas vraiment ce qui se passe sous le capot. Vous suivez des recettes trouvées en ligne ? Vous ne savez pas diagnostiquer pourquoi quelque chose ne marche pas, ni comment vous différencier techniquement ?
Ce cours propose un changement de paradigme : passer de l'utilisateur de plateforme au créatif autonome qui comprend l'écosystème complet des IA génératives.
Cette formation s'organise autour de trois couches de compréhension indispensables :
- Les modèles : comprendre ce qui existe. Les modèles de fondation commerciaux (Nano Banana, Midjourney, Veo, Kling) vs les modèles open weight (Flux, SDXL, Wan, HunyuanVideo). Pourquoi ils donnent des résultats différents, quand choisir lequel, ce que chaque famille rend possible ou impossible. Stable Diffusion est à l'IA ce que Blender est à la 3D : un écosystème open source d'approche complexe mais aux possibilités infinies. Flux, son successeur, hérite de cette philosophie tout en étant plus accessible.
- Les interfaces et modes d'accès : un même modèle (Flux par exemple) peut être utilisé via une plateforme grand public (Freepik), via ComfyUI (en cloud ou en local), via une API (FAL, Replicate, ComfyUI API), ou directement en ligne de commande. Les modèles commerciaux aussi ont des API (Gemini API pour Nano Banana, etc.). Chaque mode d'accès offre un niveau de contrôle, un coût et une complexité différents. C'est cette compréhension des couches d'abstraction qui distingue l'utilisateur avancé d'un utilisateur lambda.
- L'orchestration intelligente avec les LLM : ChatGPT, Codex, Claude et Claude Code ou cowork ne sont pas des outils de génération d'images; mais ils deviennent des assistants d'orchestration essentiels dans le workflow pro. Rédiger et affiner des prompts complexes, analyser des résultats, écrire des scripts pour automatiser des appels API, générer du code pour ComfyUI, documenter ses workflows. C'est le liant qui manque dans la plupart des formations "IA image" et qui reflète la réalité du travail quotidien en 2026.
ComfyUI est au cœur de ce programme, sans en être le sujet unique ; il se positionne donc comme l'interface de référence pour manipuler les modèles open weight et orchestrer l'ensemble de l'écosystème. L'analogie entre ComfyUI et Blender ou After Effects est juste : c'est l'outil pro standard, nodal, extensible, qui demande un investissement mais donne un contrôle incomparable. Vous apprendrez à l'utiliser en cloud (pas besoin de GPU), à comprendre ses modes de déploiement (local, API), et surtout à savoir quand l'utiliser, quand en sortir, et quand choisir d'utiliser des plateformes API dans un workflow.
- Comprendre l'écosystème des IA génératives dans ses trois couches : modèles (fondation + open weight), interfaces et modes d'accès, orchestration avec les LLM
- Maîtriser les différences fondamentales entre modèles de fondation et modèles open weight
- Comprendre et utiliser les paramètres avancés des modèles open weight (CFG, samplers, schedulers)
- Maîtriser ComfyUI comme plateforme professionnelle (cloud, local, API)
- Exploiter les techniques avancées des modèles open weight (ControlNet, IP-Adapter, LoRAs, workflows vidéo)
- Savoir orchestrer plusieurs outils selon le besoin (Midjourney pour l'exploration, ComfyUI pour le contrôle, API pour la production)
- Intégrer les LLM (ChatGPT, Claude, Claude Code) comme assistants d'orchestration dans le workflow créatif
- Développer un esprit critique et une capacité d'auto-apprentissage face aux nouveaux outils
- Comprendre le fonctionnement réel des modèles IA (diffusion, latent space, transformers)
- Identifier quel modèle et quel mode d'accès utiliser selon le besoin créatif
- Construire des workflows dans ComfyUI (cloud) pour la génération, le contrôle et l'automatisation
- Utiliser les paramètres avancés des modèles open weight pour un contrôle fin des résultats
- Appliquer les techniques de ControlNet, IP-Adapter, inpainting et LoRAs
- Créer des workflows vidéo dans ComfyUI (Wan, HunyuanVideo)
- Orchestrer des pipelines multi-outils
- Utiliser les LLM pour améliorer ses prompts, documenter ses workflows et automatiser des tâches
- Évaluer de nouveaux modèles et outils de manière autonome
- Intégrer l'éthique dans sa pratique professionnelle de l'IA
Graphistes, motion designers, directeurs artistiques, photographes, créateurs de contenu, responsables marketing et communication, illustrateurs, concept artists, et tout professionnel de la création visuelle souhaitant dépasser l'usage superficiel des plateformes IA pour maîtriser l'écosystème complet et développer une vraie autonomie technique.
- Pratique régulière d'au moins un outil d'IA générative d'images (Midjourney, Firefly, NanoBanana, Flux, etc.)
- Culture visuelle et sensibilité créative
- Notions de prompt
- Anglais de base recommandé (interfaces et documentation)
- Aucun prérequis technique avancé; la compréhension des modèles et des paramètres sera construite pendant le cours
Introduction : l'écosystème des IA génératives en 2026
Comprendre le paysage complet et la logique avant de plonger dans les outils
- Histoire et acteurs : de Stable Diffusion à Flux, de GPT-2 à Claude, chronologie des ruptures
- Les deux familles de modèles : fondation commerciaux (boîtes noires, payants, simples) vs open weight (paramétrables, gratuits ou peu chers, complexes)
- Cartographie actualisée : Midjourney (exploration créative opinionated), NanoBanana (réalisme commercial conversationnel), Flux (open weight de qualité), Firefly (sécurité juridique), Ideogram (texte), modèles vidéo (Kling, Veo, Wan)
- Comment fonctionne une IA générative : diffusion, transformers, latent space; expliqué pour des créatifs, pas des ingénieurs
- Pourquoi NanoBanana donne des résultats différents de Flux : comprendre les architectures et les choix de design
Exercice : cartographie personnelle; mapper ses outils actuels sur la grille fondation/open weight, identifier les trous dans sa pratique
Les modes d'accès aux modèles : de la plateforme à l'API
Comprendre qu'un modèle n'est pas un outil en faisant la distinction entre modèle et interface
- Les niveaux d'abstraction : plateforme -- > interface graphique pro -- > API -- > ligne de commande
- Plateformes grand public : Freepik, Weavy, Ailio; simplicité vs contrôle limité
- ComfyUI comme hub universel : pas réservé aux modèles open weight, peut aussi appeler des API commerciales
- Les API de production : FAL, Replicate, ComfyUI API; payer à l'image, intégrer dans des pipelines
- Quand choisir quoi : vitesse vs contrôle vs coût
- Upscaling; panorama : Topaz, Magnific, upscalers intégrés, upscalers ComfyUI; essentiel pour le print
Exercice : même brief créatif généré via Freepik (interface simple), ComfyUI (contrôle), et une API (automatisation); comparer l'expérience
Les LLM dans le workflow créatif : assistant d'orchestration
Soivoir tirer parti de ChatGPT, là où il a un réel rôle d'accélérateur puissant dans votre workflow
- Ce qu'un LLM sait et ne sait pas : pourquoi ChatGPT donne des mauvais prompts Kling
- Les usages pertinents : brainstorming créatif, reformulation de concepts, analyse d'images pour génération de prompts
- LLM comme assistant de code : générer des portions de workflows ComfyUI, scripter des appels API
- Introduction à Claude Code : automatiser des tâches répétitives, documenter ses pipelines
- Stratégies de prompting pour les LLM : comment obtenir de meilleurs résultats
Exercice : utiliser ChatGPT ou Claude pour améliorer un brief créatif, puis analyser critiquement le résultat; qu'est-ce qui marche, qu'est-ce qui ne marche pas
Les modèles Open Weight : pourquoi et comment les utiliser
Passer de la position de consommateur, avec des outils grand public, à l'exigence et l'indépendance d'un créateur de workflows, sans s'essoufler
- Modèles commerciaux vs open weight : ce qu'on gagne, ce qu'on perd
- Les paramètres des modèles : CFG (guidance scale), samplers, schedulers, steps, seed; ce que chacun fait, pourquoi ça compte
- La différence fondamentale : sur une plateforme "ça marche ou ça marche pas" sans savoir pourquoi. Avec les modèles open weight, on contrôle.
- Les LoRAs : qu'est-ce que c'est, comment ça modifie un modèle, où les trouver (CivitAI, HuggingFace), comment les évaluer
- Où trouver et évaluer les modèles : HuggingFace, CivitAI, lire une fiche modèle, comprendre les licences
Exercice : même prompt sur un modèle open weight, varier CFG/sampler/steps; observer et comprendre l'impact de chaque paramètre
ComfyUI : l'interface de référence pour les modèles Open Weight
Démystifier sa logique nodale, ses modalités de déploiement en construisant son premier workflow
- Pourquoi ComfyUI : le standard de l'industrie, extensible, gratuit, mais aussi ses risques (extensions malveillantes)
- Les trois modes de déploiement : ComfyUI Cloud (pas de GPU, hébergement managé), local (contrôle total, GPU nécessaire), API (exposer ses workflows comme endpoints)
- Logique nodale : nodes, connexions, execution; comprendre le principe
- Le workflow de base : Text-to-Image from scratch; modèle, sampler, prompt, latent, decoder
- Accéder aux modèles commerciaux dans ComfyUI : utiliser NanoBanana, Flux Pro via API dans ComfyUI; c'est un hub universel, pas juste un outil pour l'open weight
Exercice : construire un workflow text-to-image complet sur ComfyUI Cloud, explorer les paramètres, comparer avec un workflow via API
Techniques avancées : ControlNet, IP-Adapter, Inpainting
Ce qui justifie le passage à ces outils pro pour permettre des résultats impossibles autrement
- ControlNet : contrôler la composition par des images de référence (pose, profondeur, canny edge)
- IP-Adapter : maintenir la cohérence visuelle d'un personnage, d'un style, d'un produit à travers une série d'images
- Inpainting et outpainting : retouche ciblée, extension d'images; comparaison avec les outils intégrés (Photoshop, NanoBanana)
- Upscaling en pratique : intégrer les nœuds d'upscale dans un workflow complet (génération -- > upscale -- > export)
- Automatisation de workflows : générer des variations multiples (poses, éclairages, formats) à partir d'un seul setup; batch processing
Exercice : construire un pipeline complet : image de référence -- > IP-Adapter -- > variations de poses avec ControlNet -- > upscale automatique
Vidéo dans comfyUI : Wan, HunyuanVideo et modèles Open Weight
Étendre la logique nodale à la vidéo pour savoir se tourner vers la bonne solution selon la finesse des contrôles recherchées
- Les modèles vidéo open weight : Wan, HunyuanVideo, AnimateDiff
- Workflows vidéo dans ComfyUI : Image-to-Video, Text-to-Video
- Comparaison avec les plateformes commerciales : Kling/Veo (rapidité, simplicité) vs ComfyUI (contrôle, coût)
- Cohérence temporelle : maintenir l'identité visuelle en mouvement
- Intégration dans un pipeline de production : ComfyUI pour le contrôle, platformes pour l'exploration
Exercice : workflow vidéo basique; image-to-video avec Wan dans ComfyUI, comparer avec un résultat Kling
Utiliser les LLM pour documenter et automatiser
Aller encore plus loin avec les LLM, comme Claude Code et ChatGPT, pour accélérateurs
- Documenter ses workflows : utiliser un LLM pour expliquer un pipeline ComfyUI complexe
- Générer du code : portions de workflows, scripts d'appels API
- Automatisation avec Claude Code : scripter des tâches répétitives, intégrer des API dans des pipelines
- Générer des prompts en batch : créer des variations systématiques pour des tests
- Les limites : quand le LLM hallucine, comment vérifier
Exercice : utiliser Claude pour documenter un workflow créé précédemment, ou ChatGPT pour générer 20 variations d'un prompt de base
Orchestration multi-outils : de l'exploration à la production
Chaque outil a sa place, aucun ne fait tout, un bon workflow c'est : savoir construire ces pipelines et quand utiliser quoi
- Midjourney dans l'orchestration : vitesse d'exploration, espace latent de styles, personnalisation; pourquoi ne pas l'abandonner
- Spécificités du prompting Midjourney : ce qui ne marche pas (copier ses prompts NanoBanana), style references, character references
- Pipeline multi-outils : Midjourney (exploration) -- > sélection -- > NanoBanana/Flux (production) -- > ComfyUI (automatisation) -- > Photoshop (finition)
- Même logique appliquée à la vidéo : exploration sur Kling/Veo -- > contrôle fin sur ComfyUI (Wan)
- Les plateformes API en production : FAL, Replicate, ComfyUI API; payer à l'image vs abonnement
- Intégrer les API dans un pipeline : quand une API est plus pertinente qu'une interface graphique
Exercice : Construire un pipeline multi-outils complet sur un brief concret (campagne UGC, série de visuels produit); documenter chaque transition
Construire son autonomie : apprendre à apprendre
Avoir l'outillage pour rester autonome face aux futures évolutions
- Lire une fiche modèle sur HuggingFace : comprendre les specs, les limites, les licences
- Évaluer un nouveau LoRA ou un nouveau modèle : critères de qualité, tests à faire
- Suivre l'évolution de l'écosystème : où trouver l'information fiable, comment trier le bruit
- Construire ses propres méthodes : documenter ses découvertes, capitaliser sur ses workflows
- L'esprit critique face aux recettes : pourquoi les tutos "magiques" ne marchent souvent pas
Exercice : Évaluer un modèle ou un LoRA jamais vu auparavant; le tester, comprendre ses forces/limites, documenter ses conclusions
Éthique et pratique responsable
Créer sans vampiriser, produire en conscience
- Créer sans "vampiriser" : ne pas copier le style d'artistes vivants, développer son esthétique personnelle
- Attribution et transparence : communication honnête sur les processus créatifs hybrides
- Propriété intellectuelle : droits d'usage commercial, licences des différents modèles (Firefly vs Flux vs Midjourney)
- Éthique client : transparence sur les méthodes de travail, ne pas survendre ses capacités
- Impact environnemental : conscience de l'empreinte carbone, pratiques durables (optimiser ses workflows, éviter les générations inutiles)
Exercice : analyse de cas éthiques réels, construction d'une charte éthique personnelle pour sa pratique pro
Conclusion et perspectives
Se projeter dans l'évolution de l'écosystème
- Tendances 2026-2027 : ce qui se dessine (modèles plus petits, edge computing, intégration 3D)
- Opportunités professionnelles : se positionner comme "créatif augmenté"
- Plan de développement post-formation : prochaines étapes pour continuer à progresser
Plusieurs dispositifs de financement sont accessibles via les OPCO (Opérateurs de Compétences), organismes agréés par le ministère du Travail dont le rôle est d’accompagner, collecter et gérer les contributions des entreprises au titre du financement de la formation professionnelle.
Pour plus d’information, une équipe de gestionnaires ABILWAYS spécialisée vous accompagne dans le choix de vos formations et la gestion administrative.
Modalités d'évaluation - évaluation en 3 phases :
Pendant la formation : un bilan journalier effectué par l'intervenant.
À chaud : à la fin de la formation, un bilan qualité pour mesurer l’atteinte des objectifs.
À froid : à J + 3 mois, une évaluation du transfert des acquis en situation professionnelle.
Matériel et logiciels nécessaires pour suivre cette formation :
Formation en présentiel : les ordinateurs sont équipés des logiciels nécessaires au suivi de cette formation.
Formation en distanciel : il est recommandé de se munir d'un double écran. S'il y a lieu, des accès pourront être créés par Pyramyd et vous seront communiqués en formation. Droits d'administration ouverts.
Formation intra-entreprise : un point sera nécessaire en amont de la formation pour connaître votre environnement de travail et les politiques internes en matière d'IA, afin de permettre leur utilisation pendant la formation :
ComfyUI Cloud / Crédits API pour FAL ou équivalent / Midjourney / ChatGPT et/ou Claude
Équipe pédagogique et techniques pédagogiques :
Un consultant expert de la thématique et une équipe pédagogique en support du stagiaire pour toute question en lien avec son parcours de formation.
Alternance de théorie, de démonstrations par l’exemple et de mise en pratique grâce à de nombreux exercices individuels ou collectifs.
Exercices, études de cas et cas pratiques rythment cette formation.
Ressources pédagogiques :
Un support de formation présentant l'essentiel des points vus durant la formation et proposant des éléments d'approfondissement est téléchargeable sur notre plateforme.