– OpenAI hat sein Text-zu-Video-Modell Sora vorgestellt, das detaillierte Videos aus einfachen Textaufforderungen generiert, bestehende Videos fortsetzt und Szenen basierend auf einem Standbild erstellt.

- Sora basiert auf einem „Diffusions“-Modell wie sein Vorgänger DALL-E 3 und kann filmähnliche Szenen mit einer Auflösung von bis zu 1080p mit mehreren Charakteren, spezifischen Bewegungsarten und präzisen Details erstellen.

- Es wird anerkannt, dass Sora Schwächen hat, wie z. B. Schwierigkeiten mit der genauen physikalischen Simulation, was zu Problemen mit Ursache-Wirkungs-Beziehungen und räumlichen Details führt.

– Das Modell steht derzeit „Red Teamern“ zur Cybersicherheitsbewertung sowie ausgewählten Designern, bildenden Künstlern und Filmemachern zur Verfügung, um Feedback einzuholen.

- OpenAI-CEO Sam Altman öffnete sich für Anfragen zur benutzerdefinierten Videogenerierung auf X, teilte sieben von Sora generierte Videos und erhielt positive Reaktionen von den Benutzern.

– Trotz des Lobes wurden Bedenken hinsichtlich ethischer Implikationen geäußert, insbesondere nach der Enthüllung von KI-Bilderzeugungstools, die auf illegales Material trainiert wurden.

- Sora wird vom leitenden Nvidia-Forscher Jim Fan als „datengesteuerte Physik-Engine“ und nicht als einfaches kreatives Werkzeug beschrieben, da es die Physik von Objekten in der Szene deterministisch erstellt.

#OpenAI #OpenAI's #SORA