Lightricks améliore son modèle vidéo avec LTX-2.3 et sort un studio desktop

·

·

Studio de création vidéo avec un PC Windows puissant affichant un logiciel de génération vidéo IA LTX-2.3 de Lightricks, dans une ambiance nocturne professionnelle.
Résumer cet article avec :

Le 5 mars 2026, Lightricks a présenté LTX-2.3, un moteur vidéo multimodal qui bouscule la production créative. Ce modèle de 20,9 milliards de paramètres ne se limite pas à améliorer une interface : il revoit l’architecture même de la génération vidéo, avec une approche open-source et des performances techniques inédites. Pour les studios et les créateurs, cet outil peut devenir un standard, à condition de disposer du matériel adapté.


À retenir

  • LTX-2.3 est un moteur vidéo multimodal (texte, image, audio) open-source sous licence Apache 2.0, avec 20,9 milliards de paramètres et une architecture DiT (Diffusion Transformer).
  • Il génère des vidéos en 4K, 50 FPS et jusqu’à 20 secondes, avec deux variantes : Dev (40 étapes pour une qualité maximale) et Distilled (8 étapes pour une rapidité accrue).
  • Les améliorations incluent un nouveau VAE pour des détails visuels très précis, un traitement audio natif (dialogues et effets sonores synchronisés) et une adhérence 4 fois supérieure aux prompts.
  • LTX Desktop, une version locale pour Windows (GPU NVIDIA RTX 30/40/50), permet une exécution hors ligne avec 32 Go de VRAM recommandés, mais un mode cloud reste disponible pour les autres utilisateurs.
  • Le modèle supporte nativement le format vertical 9:16 (idéal pour TikTok et Reels) et offre des contrôles cinématographiques (dolly, jib, focus shift).
  • Bien que 18 à 19 fois plus rapide que certains concurrents comme Wan 2.2, LTX-2.3 pose encore des problèmes, comme la musique résiduelle non souhaitée ou le coût élevé du matériel.

Avec LTX-2.3, Lightricks ne livre pas une simple mise à jour logicielle : l’entreprise privilégie désormais la puissance du moteur de génération plutôt que l’ergonomie de l’interface. Cette ouverture du code, associée à des performances rarement atteintes, peut élargir l’accès à la vidéo professionnelle, malgré les contraintes matérielles et techniques. Pour les studios, les créateurs de contenu et les entreprises, cette technologie apparaît comme un accélérateur de production, mais aussi comme un nouveau terrain de concurrence face aux géants du cloud comme Sora ou Luma.


Un moteur open-source qui repousse les limites techniques

De l’interface au moteur : un virage architectural

Jusqu’à présent, les outils de génération vidéo misaient surtout sur des interfaces utilisateur toujours plus intuitives. LTX-2.3 inverse cette logique en mettant en avant son moteur interne, une architecture DiT (Diffusion Transformer) entraînée sur des milliards de paramètres. Contrairement aux modèles précédents, ce moteur génère vidéo et audio synchronisés en une seule passe, une première à cette échelle.

Ingénieur et créatrice vidéo devant un grand écran affichant l’interface du moteur vidéo IA open-source LTX-2.3 dans un bureau moderne.
Le moteur open-source LTX-2.3 de Lightricks bouscule les limites techniques de la génération vidéo multimodale.

Disponible sous licence Apache 2.0, LTX-2.3 autorise une utilisation commerciale et le fine-tuning via des techniques comme LoRA (Low-Rank Adaptation). Cette ouverture peut accélérer l’innovation, mais elle demande aussi des compétences et des ressources que tous les petits studios n’ont pas aujourd’hui.

Des performances techniques inédites : 4K, 50 FPS et 20 secondes de vidéo

Sur le plan technique, LTX-2.3 gère des résolutions jusqu’en 4K, des fréquences d’images de 24, 48 ou 50 FPS et des clips pouvant atteindre 20 secondes. La plupart des modèles concurrents restent limités à des durées plus courtes, souvent autour de 10 secondes, au prix d’une baisse de qualité.

Deux variantes sont proposées pour s’adapter aux usages :

  • Dev (40 étapes) : optimisée pour une qualité maximale, adaptée aux projets où chaque détail compte.
  • Distilled (8 étapes) : pensée pour une itération rapide, pratique pour les essais et prototypes.

Cette flexibilité intéressera autant les grands studios que les créateurs indépendants, dès lors que la configuration matérielle suit.


Des améliorations visuelles et audio qui changent la donne

Un nouveau VAE pour des détails visuels plus nets

L’un des principaux atouts de LTX-2.3 repose sur son nouvel auto-encodeur variationnel (VAE), retravaillé pour produire des textures plus réalistes, des traits faciaux mieux définis et une meilleure lisibilité des petits objets. Les créateurs y gagnent en netteté d’image et en réduction des artefacts fréquents dans la vidéo générée par IA.

Les tests internes de Lightricks indiquent aussi une amélioration marquée de la cohérence temporelle, avec moins d’effets de « gel » d’image qui rendaient certaines séquences artificielles. Cette stabilité reste déterminante pour les publicités, clips ou courts-métrages où le mouvement doit rester fluide.

Un traitement audio natif : dialogues et effets sonores synchronisés

Jusqu’ici, l’audio généré par IA souffrait souvent de dialogues mécaniques et d’effets mal synchronisés. LTX-2.3 corrige en partie ce point grâce à un nouveau vocodeur (BigVGAN v2) et à un nettoyage plus rigoureux des données d’entraînement pour limiter les bruits parasites.

Le modèle accepte désormais des lignes de dialogue directement dans le prompt texte-en-vidéo, ce qui facilite la production pour les réseaux sociaux ou la fiction courte.

Une femme marche en ville et lance : « Attends-moi, je n’ai pas fini ! ».
Prompt d’exemple communiqué par Lightricks.

Les premiers retours signalent toutefois un problème persistant : l’ajout aléatoire de musique de fond, même lorsque les prompts négatifs demandent de l’éviter. Lightricks devra corriger ce comportement pour élargir l’usage professionnel.

Une adhérence aux prompts quatre fois plus efficace

La compréhension précise des instructions reste un point faible de nombreux modèles vidéo. LTX-2.3 s’y attaque avec un connecteur de texte quatre fois plus large que sur la version précédente, ce qui améliore le respect des relations spatiales complexes et la description des mouvements.

Une demande telle que :

Un chat saute d’une étagère haute, atterrit sur un coussin rouge, puis fixe la caméra.
Exemple d’instruction complexe gérée par LTX-2.3.

sera exécutée avec une précision nettement supérieure, avec moins d’erreurs de position ou de timing. Ce gain intéresse particulièrement les projets à forte contrainte narrative, comme les animations ou les vidéos éducatives.


Des workflows créatifs repensés pour les réseaux sociaux et le cinéma

Le format vertical 9:16, enfin natif

Pour la première fois, LTX-2.3 prend en charge nativement le format portrait 9:16, entraîné sur des données verticales plutôt que simplement recadré. Les créateurs de contenu pour TikTok, Reels ou YouTube Shorts y gagnent un rendu mieux adapté à leurs plateformes.

Là où d’autres solutions se contentent de recadrer des vidéos horizontales, LTX-2.3 génère des contenus optimisés pour le vertical, avec un meilleur centrage des visages et des objets. Les mouvements de caméra suivent aussi plus naturellement ce format, ce qui limite les pertes d’information visuelle.

Des modes multimodaux pour une création fluide

LTX-2.3 propose sept points de terminaison API, qui couvrent l’essentiel des besoins des créateurs :

  • Texte-en-vidéo : génération à partir d’un prompt textuel.
  • Image-en-vidéo : extension d’une image fixe en séquence animée.
  • Audio-en-vidéo : création d’une vidéo à partir d’un fichier audio, utile pour les podcasters ou les musiciens.
  • Extension de vidéo : allongement d’une séquence existante.
  • Retake : régénération d’un clip avec des paramètres différents.

Ces fonctions offrent des workflows beaucoup plus souples et réduisent le temps passé sur les logiciels de montage classiques.

Interpolation de la dernière image et contrôles cinématographiques

Pour ceux qui veulent se rapprocher d’un rendu professionnel, LTX-2.3 intègre des contrôles de caméra avancés :

  • Interpolation de la dernière image : transitions plus fluides entre les plans, sans coupures nettes.
  • Mouvements de caméra : dolly, jib, static ou focus shift, pour créer des effets cinématographiques sans passer par un logiciel tiers.

Ces outils contribuent à rendre la qualité pro plus accessible, y compris pour les utilisateurs sans formation en réalisation.


LTX Desktop : la souveraineté des données à portée de main

Exécution locale et confidentialité des données

En parallèle du moteur cloud, Lightricks lance LTX Desktop, une application bêta qui permet une exécution locale complète sur Windows, à condition de disposer d’un GPU NVIDIA RTX 30/40/50. Cette option répond à une demande croissante des studios et des entreprises en matière de confidentialité et souveraineté des données.

Monteur vidéo travaillant sur un PC Windows avec l’application LTX Desktop ouverte en exécution locale, tour équipée d’un GPU NVIDIA RTX à côté de l’écran.
LTX Desktop permet une exécution locale hors ligne, idéale pour les studios qui privilégient la souveraineté et la confidentialité des données.

Contrairement aux services d’IA générative en ligne, LTX Desktop garantit que les données restent sur la machine, un point décisif pour les films, campagnes ou contenus sensibles. Les équipes peuvent ainsi travailler sans exposer leurs rushes à des serveurs externes.

Exigences matérielles : un obstacle pour les petits budgets

Cette puissance a toutefois un prix : LTX Desktop recommande au moins 32 Go de VRAM pour des générations locales fluides, même si des tests sont en cours avec des configurations à 8 Go. Ce seuil réserve pour l’instant l’usage intensif aux studios déjà équipés de GPU haut de gamme.

Pour les utilisateurs sous macOS ou ceux dont la configuration reste modeste, Lightricks maintient un mode API cloud, qui donne accès à LTX-2.3 sans investissement matériel majeur. Cette option permet de tester le modèle avant d’éventuelles dépenses en infrastructure.

Un éditeur vidéo intégré pour un workflow non destructif

LTX Desktop ne se limite pas à la génération : l’application embarque un éditeur de timeline qui gère plusieurs prises par clip de façon non destructive. Les créateurs peuvent multiplier les versions d’une même scène sans perdre les tentatives précédentes ni casser leur montage.

L’application inclut également :

  • Un éditeur de sous-titres intégré pour ajuster le texte plus rapidement.
  • Un support import/export SRT, le format standard de sous-titrage.

Ces fonctions parlent directement aux monteurs vidéo, qui peuvent ainsi centraliser une partie de leur flux de travail dans un seul outil.


Un outil puissant, mais des défis à relever

Accessibilité vs coût du matériel : un équilibre délicat

Si LTX-2.3 représente une avancée nette, sa diffusion large se heurte à un frein matériel. Avec une recommandation de 32 Go de VRAM, la configuration minimale dépasse les moyens d’une partie des créateurs indépendants et petites structures, qui devront investir ou se rabattre sur le cloud.

Pour les entreprises affichant plus de 10 millions de dollars de chiffre d’affaires annuel, Lightricks propose une licence commerciale dédiée. Les petits studios et freelances disposent donc de moins de marge de manœuvre et devront arbitrer entre coûts d’accès, usage intensif et alternatives concurrentes.

Défis techniques : musique résiduelle et effets Ken Burns

Malgré ses progrès, LTX-2.3 présente encore plusieurs limites relevées dans les premiers tests :

  • Musique résiduelle : même avec des prompts négatifs, le modèle ajoute parfois des fonds sonores non désirés, ce qui complique la maîtrise de la bande-son.
  • Effets de type Ken Burns : les effets de zoom progressif restent limités, même si les contrôles de caméra intégrés laissent entrevoir des améliorations possibles.

Ces points devront être corrigés dans les prochaines versions pour rassurer les utilisateurs les plus exigeants sur la qualité finale des rendus.

Positionnement face aux géants du cloud : Sora, Luma et les autres

Avec LTX-2.3, Lightricks se positionne comme une alternative open-source aux modèles fermés comme Sora (d’OpenAI) ou Luma (de Luma AI). Cette transparence, combinée à des performances élevées, peut séduire les studios et entreprises souhaitant mieux contrôler leur infrastructure d’IA.

La concurrence reste toutefois forte. Sora, par exemple, profite des moyens d’OpenAI et d’un modèle entraîné sur des volumes de données bien supérieurs. Pour s’imposer, LTX-2.3 devra démontrer sa fiabilité sur la durée, mais aussi une capacité à évoluer sans alourdir les coûts d’adoption.

Si Lightricks parvient à maintenir ce cap entre innovation technique, maîtrise des coûts et protection des données, le moteur peut trouver sa place dans un marché dominé par les solutions cloud.


Alors que LTX-2.3 entre en phase de déploiement, une question demeure : cette technologie rendra-t-elle la production vidéo professionnelle accessible à un plus grand nombre, ou restera-t-elle réservée aux studios les mieux équipés ? Ses performances et son approche open-source ont déjà fixé un nouveau standard, mais ce sont les usages réels dans les prochains mois qui trancheront.


Sur le même Thème :

Laisser un commentaire