- OpenAI a dévoilé son modèle texte-vidéo, Sora, générant des vidéos détaillées à partir de simples invites textuelles, continuant les vidéos existantes et créant des scènes basées sur une image fixe.

- Sora, basé sur un modèle de « diffusion » comme son prédécesseur DALL-E 3, peut créer des scènes de type film jusqu'à une résolution de 1080p avec plusieurs personnages, des types de mouvements spécifiques et des détails précis.

- Sora est reconnu pour avoir des faiblesses, telles que des difficultés avec une simulation physique précise, causant des problèmes avec les relations de cause à effet et les détails spatiaux.

- Le modèle est actuellement disponible pour les « équipes rouges » pour l'évaluation de la cybersécurité et pour sélectionner des concepteurs, des artistes visuels et des cinéastes pour recueillir des commentaires.

- Le PDG d'OpenAI, Sam Altman, s'est ouvert aux demandes de génération de vidéos personnalisées sur X, partageant sept vidéos générées par Sora, recevant des réactions positives de la part des utilisateurs.

- Malgré les éloges, des inquiétudes quant aux implications éthiques, en particulier après la révélation des outils d'IA de génération d'images formés sur du matériel illégal, ont été soulevées.

- Sora est décrit par Jim Fan, chercheur principal chez Nvidia, comme un « moteur physique basé sur les données » plutôt que comme un simple outil de création, car il crée de manière déterministe la physique des objets dans la scène.

#OpenAI #OpenAI's #SORA