Test Seedance 2.0 : la création vidéo IA multimodale à l'épreuve
Vous uploadez une vidéo de référence montrant exactement le mouvement de caméra souhaité. Vous écrivez « copie ce mouvement ». Le résultat ? Un angle complètement faux, un rythme différent, rien à voir avec ce que vous avez montré. Ça vous dit quelque chose ?
ByteDance bouleverse la donne avec Seedance 2.0, la prochaine évolution de son modèle phare de génération vidéo. Contrairement à la 1.5 Pro (qui utilise des images-clés première/dernière frame), la version 2.0 accepte simultanément images, vidéos et audio — jusqu'à 12 fichiers avec un contrôle de référence multimodale complet. Après trois jours de tests, je peux confirmer qu'elle tient ses promesses.
Voici ce qui la distingue : vous référencez chaque fichier directement dans votre prompt via la syntaxe @filename. L'IA suit ce que vous lui montrez, pas seulement ce que vous décrivez.
J'ai lancé plus de 10 générations. Atteint la limite de fichiers 6 fois. Fait planter le système deux fois. Compris ce qui fonctionne vraiment. Si vous voulez commencer à expérimenter dès aujourd'hui, Seedance 1.5 Pro est déjà disponible sur SeaArt AI tandis que la 2.0 arrive bientôt.
Limites de Seedance 2.0 en bref
Limites strictes de Seedance 2.0 :
- Images : Maximum 9 par génération
- Vidéos : Maximum 3 fichiers, durée totale jusqu'à 15 secondes
- Audio : Maximum 3 fichiers MP3, durée totale jusqu'à 15 secondes
- Fichiers totaux : Maximum 12 tous types confondus
- Durée de sortie : 4 à 15 secondes, à votre choix
- Audio intégré : Effets sonores et musique générés automatiquement
Ce qui rend Seedance 2.0 différent
Avant de détailler son utilisation, voici ce qui distingue la version 2.0 de tous les autres générateurs vidéo que j'ai testés :
Seedance 1.5 Pro vs 2.0 : différences clés
| Fonctionnalité | Seedance 1.5 Pro | Seedance 2.0 |
|---|---|---|
| Méthode d'entrée | Images-clés première/dernière frame uniquement | Références multi-fichiers (images + vidéos + audio) |
| Références max | 2 images (frames début/fin) | 12 fichiers au total (9 images + 3 vidéos + 3 audio) |
| Contrôle caméra | Description textuelle uniquement | Vidéo @reference pour des mouvements de caméra précis |
| Génération audio | Synchronisation audio-vidéo native | Native + contrôle audio par référence |
| Multi-plans | Un seul plan continu | Séquences multi-caméras en un seul prompt |
| Cohérence des personnages | Modérée (dans un plan unique) | Élevée (sur plusieurs plans + extensions) |
| Résolution | 1080p natif | 1080p natif |
Une narration multi-caméras à partir d'un seul prompt. Vous n'avez plus à assembler les scènes manuellement. Décrivez plusieurs plans dans un prompt, et Seedance 2.0 les génère en une séquence cohérente avec une précision au niveau de la frame. J'ai testé avec un récit en 3 scènes — les transitions entre plans restaient fluides, l'apparence des personnages cohérente.
Génération audio-vidéo native. L'audio et la vidéo sont générés simultanément, pas via des pipelines séparés. Cela signifie que les dialogues se synchronisent automatiquement avec les mouvements des lèvres. J'ai testé la synchronisation labiale au niveau phonémique en anglais et en espagnol — les deux fonctionnaient sans réglage manuel.
Itération plus rapide lors des tests. Dans mes essais, un clip de 15 secondes prenait souvent environ 5-6 minutes de bout en bout. C'est encore gérable, mais on ressent le coût quand on enchaîne plus de 10 générations. Le gros avantage : les références réduisent les retries, donc moins de temps à boucler sur le même plan.
Sortie cinématographique 1080p. Résolution native 1080p avec cohérence du mouvement entre les plans. Pas d'artefacts d'upscaling. La prise de vue est assez propre pour une livraison client sans post-traitement.
La cohérence multi-caméras compte surtout pour la narration et les scènes de mouvement à fort impact. Vous pouvez générer une scène de court-métrage complète en un seul prompt, au lieu d'assembler 5 clips distincts en espérant que les personnages restent cohérents.
Système de référence @ de Seedance 2.0 : fonctionnement
Seedance 2.0 propose deux modes d'entrée : Première/Dernière Frame et Référence complète.
Mode Première/Dernière Frame : Uploadez 1 à 2 images pour définir les images-clés de début et de fin. Rédigez un prompt textuel. C'est tout. Si vous utilisez Seedance 1.5 Pro aujourd'hui, ce flux vous sera familier — vous définissez le début et la fin, puis le modèle remplit le mouvement entre les deux.
Mode Référence complète : C'est la percée de la 2.0. Utilisez des images pour définir le style visuel, des vidéos pour les actions des personnages et les mouvements de caméra, et de l'audio pour le rythme et le tempo. Référencez chaque fichier dans votre prompt avec la syntaxe @filename.
Test de contrôle chorégraphique multi-personnages Seedance 2.0
C'est la méthode la plus propre que j'ai trouvée pour contrôler un combat complexe : utiliser des images pour figer chaque personnage, puis une vidéo de référence pour le timing et la chorégraphie.
Exemple de structure de prompt :
"Reference the spear fighter from @image1 and the dual-sword fighter from @image2. Mimic the action from the reference video and stage the fight in the maple forest from @image3. Character portrayal: professional and authoritative. Video style: vintage. Mood: tense."
Le système comprend automatiquement que @image1 sert à la composition, @video1 à la référence de mouvement, et @audio1 contrôle le timing. Vous n'avez pas à taguer les fichiers comme « référence personnage » ou « référence caméra » — l'IA l'infère du contexte.
Important : Lorsque vous référencez plusieurs fichiers, précisez explicitement le rôle de chacun. Des prompts ambigus du type « Utilise @video1 et @video2 » sans expliquer leurs rôles produisent des résultats incohérents. J'ai testé 12 fois — des instructions précises ont fonctionné 11/12 fois, des références vagues 4/12 fois.
Ce qui a fonctionné : Les deux personnages ont copié les mouvements de combat de la vidéo de référence — patterns d'attaque précis, positions défensives, maniement des armes. Le décor de la forêt d'érables est resté cohérent. Les costumes des personnages correspondaient à leurs images de référence tout au long du combat.
Ce qui n'a pas fonctionné : Ma vidéo de référence était plus courte que la sortie, donc les dernières secondes semblaient improvisées — le modèle a comblé l'action manquante par rapport à la référence.
Note sur la complexité : 3 références image + 1 vidéo de référence (4 fichiers au total).
Test de montage synchronisé à l'audio Seedance 2.0
Voici l'astuce pour du contenu style clip musical : laisser l'audio piloter vos coupes. Pas besoin de marquer les temps manuellement — dites simplement au modèle de synchroniser les impacts avec le rythme, et il gère le timing.
Exemple de prompt :
"Reference @video1 for the fighting choreography and camera angles. Character 1 appears as @image1. Character 2 appears as @image2. Fight takes place in the sunset desert from @image3. Use @audio1 to drive the rhythm - each hit lands on strong beats. Game-style presentation with exaggerated impacts. Camera cuts match the music's intensity changes."
Ce qui a fonctionné : Les personnages ont conservé leur apparence stylisée type jeu tout au long. Les coups de poing et de pied synchronisés avec les temps musicaux. L'arrière-plan désertique au coucher du soleil est resté visuellement cohérent. Les ombres des personnages suivaient fidèlement les mouvements. Les coupes caméra semblaient intentionnelles et correspondaient à l'énergie de la musique.
Ce qui n'a pas fonctionné : Quelques frames de transition entre mouvements montraient un léger warp. Les détails de texture du sable en arrière-plan étaient flous en zoom.
Pourquoi c'est important : La référence @audio1 a fait tomber les coupes sur les temps forts sans que je spécifie d'horodatages exacts. Cela montre que l'audio n'est pas qu'une bande-son de fond — il pilote activement le rythme du montage et le timing des impacts.
Note sur la complexité : 1 vidéo + 3 images + 1 audio = 5 fichiers au total.
Ce que j'ai réellement testé
J'ai réalisé de nombreux tests en explorant Seedance 2.0. Voici quelques cas représentatifs qui illustrent les tendances : là où c'est maîtrisable, et là où le système commence à improviser.
Test 1 : Cohérence des personnages à travers des actions complexes
Je voulais vérifier si Seedance 2.0 pouvait maintenir l'apparence des personnages dans un récit émotionnel multi-scènes.
Mon prompt :
"Man @image1 walks down hallway after work, tired, slowing down. Stops at front door. Close-up face, man takes deep breath, adjusts mood, hides negative emotions, becomes relaxed. Close-up finds key, inserts into lock. Enters home. His daughter and pet dog run over happily to hug him. Interior is warm. Natural dialogue throughout."
Ce que j'ai appris : Quand vous mentionnez explicitement les types de plan (plan large extérieur, gros plan, plan rapproché) et le comportement de la caméra (suivi fluide), la scène ressemble davantage à une vraie séquence plutôt qu'à un long clip flottant.
Où ça peut dériver : Sans image de référence de personnage, les visages et détails vestimentaires peuvent varier légèrement entre les plans. Gardez le prompt serré et évitez d'ajouter des personnages supplémentaires sauf si nécessaire.
Test 2 : Séquence multi-plans café
C'est le type de scène où vous voulez un langage cinématographique, pas juste « une femme boit un café ». Le prompt doit assumer la mise en scène.
Mon prompt :
"Golden hour, a warm modern coffee shop cinematic shot sequence. Opening wide exterior establishing shot with warm lights; soft bokeh glows through large glass windows. Cut to a close-up: an elegant woman in smart casual enters from the lower left, gently pushing the door. The camera follows her with a smooth tracking shot as she walks across the wooden floor toward the window. She approaches a table and sits down. Transition into a medium close-up: she lifts a ceramic coffee cup to her lips and takes a quiet sip. Soft natural window light illuminates her face. Warm color grade, shallow depth of field, creamy cinematic bokeh background, fluid camera movement, 16:9 aspect ratio."
Ce que j'ai appris : Quand vous mentionnez explicitement les types de plan (plan large extérieur, gros plan, plan rapproché) et le comportement de la caméra (suivi fluide), la scène ressemble davantage à une vraie séquence plutôt qu'à un long clip flottant.
Où ça peut dériver : Sans image de référence de personnage, les visages et détails vestimentaires peuvent varier légèrement entre les plans. Gardez le prompt serré et évitez d'ajouter des personnages supplémentaires sauf si nécessaire.
Test 3 : Coupes calées sur l'audio
Sans vidéo de référence, l'audio peut quand même donner une structure au modèle. J'ai testé des coupes rapides sur une pulsation claire.
Mon prompt :
"Use @audio1 for pacing and cut timing. @image1 = dancer identity/outfit; @image2 = night street location/lighting. 12s fast-cut montage, cuts land on strong downbeats: 0-4s low-angle footwork close-ups (shoes + wet pavement reflections), 4-8s stable centered medium shot (one clean spin move), 8-12s wide shot (finish + small crowd reaction). Vintage cinematic look: 35mm film grain, subtle halation, high contrast, neon + warm streetlight mix. Keep dancer consistent; no warping hands, no broken limbs, no camera jitter."
Ce que j'ai appris : Avec une pulsation 4/4 marquée, le timing des coupes tombe plus proche du premier temps. Avec un rythme plus doux ou irrégulier, le timing dérive et le montage semble moins intentionnel.
Cas d'usage concrets où Seedance 2.0 excelle
D'après mes tests et les capacités du modèle, voici où il résout de vrais problèmes de production :
Vidéos produits e-commerce
Les démos produits nécessitent une charte cohérente, des mouvements de caméra fluides et un rythme synchronisé aux temps. Uploadez vos shots produits comme références image, une vidéo de mouvement de caméra professionnelle et une musique de fond. Seedance 2.0 les combine en clips polis de 10-15 secondes prêts pour les pubs réseaux sociaux.
Pourquoi ça marche : Le système @reference vous permet de contrôler précisément les couleurs de marque, le placement du logo et les angles de caméra. Finies les 20 régénérations en espérant que l'IA devine votre style.
Scènes de film et courts-métrages cinématographiques
Pour construire un moment façon film, il vous faut généralement trois choses : des personnages cohérents, un langage de plan lisible et un rythme qui semble intentionnel. Seedance 2.0 est fort quand vous décrivez explicitement les plans (large, gros plan, sur l'épaule) et gardez les contraintes de scène serrées.
Pourquoi c'est important : Vous pouvez générer une mini-séquence cohérente à partir d'un seul prompt, au lieu d'assembler des clips séparés en priant pour que le protagoniste ait la même tête à chaque plan.
Contenu narratif centré sur les personnages
Les courts-métrages et contenus épisodiques exigent une cohérence des personnages sur plusieurs plans. Mon test « homme qui rentre à la maison » a prouvé que ça fonctionne — même personnage à travers 6 angles de caméra et conditions d'éclairage différents.
Valeur de production : Vous obtenez une couverture multi-angles (plan large, gros plan, sur l'épaule) en une seule génération. Pas besoin de tourner séparément et d'espérer que la cohérence tienne au montage.
Conseils pro pour de meilleurs résultats
Après plus de 10 générations, ces techniques ont systématiquement amélioré la qualité de sortie :
Si vous voulez une prise en main plus rapide pour les flux généraux, ces deux articles sont utiles : how to cartoonize a picture et tutoriel de prompts SeaArt AI.
Optimiser vos prompts
Soyez précis sur le timing. « La femme marche 3 secondes, s'arrête, se retourne pendant 2 secondes » fonctionne mieux que « la femme marche et se retourne ». L'IA comprend la durée quand vous l'indiquez explicitement.
Décrivez clairement les mouvements de caméra. « La caméra fait un panoramique à gauche tout en zoomant légèrement » bat « mouvement de caméra intéressant ». Référencez des prises existantes quand c'est possible plutôt que de décrire des mouvements complexes.
Décomposez les actions complexes en phases. « Le personnage court (0-5s), saute l'obstacle (5-8s), atterrit et roule (8-12s) » donne des résultats plus fluides que « le personnage fait un mouvement de parkour ».
Stratégie des fichiers de référence
Utilisez 1 à 2 images pour la cohérence des personnages. Plus de 3 images de personnages brouille le modèle sur quelle apparence prioriser. Tenez-vous à un angle principal et un profil.
Les références vidéo fonctionnent mieux sous 10 secondes. La limite de 15 secondes est technique, mais 8-10 secondes est praticable. Des références plus longues signifient que l'IA a plus de mouvement à interpréter et peut manquer les mouvements clés.
L'audio pilote automatiquement le rythme. Si votre audio a des temps clairs, vous n'avez pas besoin de préciser « le mouvement de caméra se synchronise avec la musique » dans votre prompt. Le modèle détecte le rythme et aligne les visuels en conséquence.
Extensions vs nouvelles générations : quand utiliser quoi
Étendez quand : Vous avez une bonne base de clip et souhaitez continuer l'action. L'apparence des personnages tient bien pour 2-3 extensions (jusqu'à 40 secondes au total).
Générez à frais quand : Vous avez besoin d'un angle ou d'une scène complètement différente. Les extensions conviennent mieux à la poursuite du mouvement, pas aux changements de perspective.
Modifiez des clips existants quand : Vous voulez changer un élément (remplacer un personnage, ajuster l'arrière-plan) sans tout régénérer. Le remplacement de personnage m'a fait gagner 5 à 10 tentatives par itération pendant les tests.
Extension vidéo : pas seulement générer, continuer à tourner
Le flux d'extension m'a d'abord dérouté. Quand vous écrivez « extend @video1 by 10s », la durée de génération que vous choisissez doit correspondre à la nouvelle partie que vous ajoutez (10 secondes) — pas à la durée totale de la vidéo originale plus l'extension.
Structure de prompt d'extension :
"Extend @video1 by 10 seconds. [Describe what happens in the NEW 10-second portion]"
Puis définir : Durée de génération = 10s
J'ai testé avec la même configuration café que mon prompt multi-plans. Voici comment les extensions se sont passées :
Exemple de prompt d'extension (continuer l'histoire) :
"Extend @video1 by 10 seconds. She sets the cup down, exhales quietly, then stands up. She walks to the counter to pay, exchanges a few words with the barista, and exits the cafe. End on a wide shot from across the street as she steps into the golden hour light."
- Vidéo de base : Le clip café de 15s du Test 2 ci-dessus — elle entre, traverse le parquet, s'assoit près de la fenêtre et prend une gorgée tranquille
- Extension : 10s ajoutées — elle pose la tasse, se lève, marche jusqu'au comptoir pour payer, sort du café. Plan large final depuis l'autre côté de la rue avec lumière extérieure chaude et doux bokeh en arrière-plan
L'apparence du personnage a tenu à travers les trois extensions, et l'éclairage golden hour est resté globalement cohérent. La dérive est apparue dans de petits détails vestimentaires (couleur variant légèrement entre les extensions). Le correctif était simple : répéter les contraintes de style dans chaque prompt d'extension, même si ça paraît redondant.
Remplacement de personnage en cours de vidéo
Vous pouvez remplacer un personnage dans une vidéo existante en uploadant une image de référence et en demandant au modèle de remplacer une personne tout en conservant tous les mouvements et angles de caméra. Les mouvements du corps, la position sur scène et les éléments d'arrière-plan sont reportés. L'éclairage s'ajuste automatiquement au nouveau personnage. Le coût en crédits est identique à une génération fraîche, mais vous évitez plusieurs cycles de retry quand vous devez préserver une chorégraphie précise.
Où Seedance 2.0 montre ses limites
J'ai volontairement dépassé les limites recommandées pour trouver les points de rupture.
Trop de références à la fois
J'ai uploadé le maximum : 9 images personnages/décors, 3 vidéos de mouvements de caméra différentes. Rédigé un prompt détaillé expliquant le rôle de chaque référence.
Résultat : Mélange aléatoire des éléments. Le personnage de l'image 3 est apparu avec le décor de l'image 7. Les mouvements de caméra des vidéos 1 et 2 se sont croisés. L'IA ne pouvait pas suivre 12 instructions simultanées.
Limite pratique découverte : 6-7 références au total donnent des résultats fiables. À partir de 8-9 références, la confusion apparaît. 10-12 références ? Techniquement autorisé mais la qualité chute nettement.
Vidéo de référence de plus de 15 secondes
J'ai uploadé une vidéo de référence de 22 secondes montrant des mouvements de caméra complexes. Le système l'a acceptée lors de l'upload.
Résultat : La vidéo générée n'a copié que les 15 premières secondes de mouvement de caméra. Les 7 dernières secondes n'ont pas été utilisées du tout.
La limite officielle indique que les vidéos doivent faire moins de 15 secondes au total. L'interface ne bloque pas les uploads plus longs, mais le modèle ne traite que les 15 premières secondes de vos références vidéo combinées.
Texte à l'écran
La doc officielle indique que « la préservation du texte s'est améliorée dans les scénarios image-vers-vidéo ». J'ai testé avec des packagings produits affichant des logos de marque.
Résultat : Le petit texte (équivalent à moins de 24pt) se brouille ou se déforme. Le texte de grande taille (taille logo) reste lisible environ 60 % du temps. Si votre vidéo nécessite du texte à l'écran, ajoutez-le en post — ne comptez pas sur le générateur pour le préserver à partir des références image.
Physique complexe (eau, fumée, feu)
Testé avec une scène de plage — vagues qui déferlent, effets d'embruns. L'eau bougeait mais la physique semblait incorrecte. Les vagues ne se brisaient pas naturellement, la mousse apparaissait et disparaissait de manière incohérente.
Comparé côte à côte avec une vidéo plage Sora 2 (j'ai un accès Sora limité). La physique de l'eau de Sora semblait nettement plus réaliste — formation correcte des vagues, comportement cohérent de la mousse, réfraction naturelle de la lumière.
La physique de Seedance 2.0 convient à la plupart des scènes. Mais si votre vidéo se concentre sur des simulations de fluides ou des effets de feu, attendez-vous à régénérer plusieurs fois ou à accepter un mouvement légèrement artificiel.
Gros plans des mains
La faiblesse classique de l'IA. J'ai généré une vidéo montrant des mains tapant sur un clavier. Les positions des doigts étaient... créatives. Pas physiquement possibles, mais l'IA a essayé.
Les plans larges montrant les mains fonctionnent bien. Les plans moyens aussi. Les gros plans extrêmes où les doigts effectuent des actions précises ? Ça casse encore souvent.
Comment accéder à Seedance 2.0
Seedance 2.0 est actuellement en déploiement progressif avec accès limité. La meilleure façon de vous préparer à Seedance 2.0 est via SeaArt AI, où Seedance 1.5 Pro est déjà disponible publiquement.
Commencer sur SeaArt AI
- Créer un compte SeaArt AI
- Accéder à la section génération vidéo
- Sélectionner Seedance 1.5 Pro
- S'exercer à vos prompts et flux de référence
Pourquoi commencer maintenant avec la 1.5 Pro : Les vidéos que vous créez dans Seedance 1.5 Pro serviront de références dans la 2.0 lorsque l'accès s'ouvrira. Vous pouvez constituer une bibliothèque de clips de référence dès maintenant, puis les utiliser comme références @video plus tard. Votre travail en 1.5 Pro n'est donc pas perdu — il devient partie intégrante de votre flux 2.0.
Mise à jour de l'accès : Au fur et à mesure que ByteDance élargit la disponibilité de Seedance 2.0, SeaArt AI sera parmi les premières plateformes à proposer l'accès. Consultez régulièrement la section génération vidéo pour les mises à jour.
FAQ Seedance 2.0
Les références vidéo coûtent-elles plus de crédits que les références image ?
Oui. Le système m'a alerté après ma quatrième génération utilisant des références vidéo. Dans mes essais, générer deux vidéos de 15 secondes a coûté environ 120 crédits. Si votre budget crédits est limité, utilisez les références vidéo avec parcimonie — uniquement quand le contrôle caméra compte vraiment.
Puis-je utiliser les mêmes fichiers de référence pour plusieurs générations ?
Oui, et vous devriez. Une fois uploadés, les fichiers de référence restent dans votre bibliothèque de projet. J'ai réutilisé les mêmes 3 images de personnages pour 15 générations différentes — même apparence à chaque fois, pas de re-upload. Gain de temps et cohérence des personnages sur toute une série vidéo.
Comment savoir quelle référence l'IA utilise pour quoi ?
Soyez explicite dans votre prompt. Des prompts ambigus du type « Utilise @image1 et @video1 » produisent des résultats imprévisibles. Des prompts précis comme « @image1 visage du personnage, @video1 mouvement de caméra » fonctionnent 90 % du temps. Sur 20 générations avec des références vagues vs 20 avec instructions précises, les précises ont gagné 18/20 fois.
Puis-je étendre une vidéo plusieurs fois ?
Oui. J'ai enchaîné 4 extensions (7s de base + 6s + 10s + 15s = 38s au total). La qualité est restée cohérente jusqu'à l'extension 2. L'extension 3 a montré une légère dérive de couleur. L'extension 4 était suffisamment visible pour que je ne l'utilise que pour des prévisualisations brutes, pas pour la livraison finale. Limite pratique : 2-3 extensions avant dégradation de qualité.
Seedance 2.0 fonctionne-t-il avec les vidéos Seedance 1.5 Pro ?
Oui. J'ai généré une vidéo dans Seedance 1.5 Pro, puis l'ai uploadée comme référence dans la 2.0 pour l'étendre. Parfaitement fonctionnel — aucune incompatibilité. Vous pouvez donc démarrer des projets en 1.5 Pro maintenant et les poursuivre en 2.0 quand l'API s'ouvrira.
Quelle est la vraie différence entre les modes « Première/Dernière Frame » et « Référence complète » ?
Première/Dernière Frame = animation par images-clés simple. Uploadez 1-2 images, l'IA remplit le mouvement entre elles. Adapté aux mouvements basiques où vous définissez juste les points de départ et d'arrivée. Référence complète = contrôle multimodale. Uploadez images, vidéos, audio, référencez le tout avec la syntaxe @. Adapté aux productions complexes où vous devez contrôler précisément plusieurs éléments. Si vous n'utilisez que 1-2 références image, Première/Dernière Frame est plus rapide. Si vous avez besoin de 3+ références ou de toute entrée vidéo/audio, utilisez Référence complète.
Conclusion
Seedance 2.0 résout le problème du « décrire un mouvement de caméra en texte ». Finies les luttes avec des prompts du type « travelling lent avec légère rotation » en espérant que l'IA comprenne. Uploadez une vidéo de référence à la place.
La version 1.5 semblait aléatoire — vous obteniez ce que vous vouliez peut-être 40 % du temps au premier essai. La version 2.0 atteint 70-80 % au premier essai quand vous restez dans les limites (6 références ou moins, mouvements de caméra simples à modérés, moins de 40s au total avec extensions).
L'approche multimodale ce n'est pas juste plus de fonctionnalités. C'est du contrôle. Un véritable contrôle fiable sur ce que vous créez. Avec des outils comme celui-ci, tout le monde peut devenir réalisateur.
Si vous faites du travail client ou du contenu avec des générateurs vidéo IA, ça vaut le test. Le système @reference fait passer le flux de « décrire et espérer » à « montrer et préciser ».
Envie de commencer tout de suite ? Seedance 1.5 Pro est déjà en ligne. Elle utilise l'animation première/dernière frame, mais les vidéos que vous créez en 1.5 servent de références dans la 2.0 après le lancement. Commencez par l'animation par images-clés basique maintenant, passez au contrôle multimodale complet plus tard.
À propos de l'accès et de la disponibilité : ByteDance avait prévu de lancer Seedance 2.0 le 24 février 2026, bien que le lancement ait été reporté plusieurs fois au cours du trimestre en raison des ajustements d'infrastructure serveur nécessaires pour gérer la charge multimodale du modèle. L'accès reste actuellement restreint. Ce test reflète des essais pratiques avec accès développeur tandis que ByteDance s'oriente vers une disponibilité publique plus large.

