Adobe Firefly Video Editor geht in öffentliche Beta: Prompt-Based Editing ändert alles
Adobe veröffentlicht seinen browserbasierten Video-Editor in öffentlicher Beta mit Prompt to Edit, 4K-Hochskalierung über Topaz Astra und Multi-Track-Timeline. KI-Video-Bearbeitung wird real.

Vergessen Sie alles, was Sie über Video-Editing-Timelines wissen. Adobe hat gerade einen browserbasierten Video-Editor veröffentlicht, mit dem Sie "entfernen Sie diese Person im Hintergrund" eingeben und sie tatsächlich entfernen können. Dies ist die Funktion, von der wir träumen, seit KI-Videogenerierung zur Realität wurde.
Der Editor ist endlich da
Adobe hatte dies bei MAX angedeutet. Sie zeigten es hinter verschlossenen Türen. Sie ließen einige Creator es testen. Jetzt ist es für alle offen. Der Firefly Video Editor ist offiziell in öffentlicher Beta, und er läuft vollständig in Ihrem Browser.
Was unterscheidet dies von jedem anderen KI-Video-Tool? Adobe bietet nicht nur Generierung an. Sie bieten Bearbeitung an. Echte Bearbeitung. Die Art, bei der Sie von KI generierte Clips mit Ihrem eigenen Videomaterial in einer Multi-Track-Timeline kombinieren und dann präzise Anpassungen mit natürlicher Sprache vornehmen können.
Prompt to Edit: Die Headline-Funktion
Hier ist, was mich begeistert. Die traditionelle Video-Bearbeitung erfordert, dass Sie komplexe Maskierungswerkzeuge, Rotoscoping-Workflows und Keyframe-Animationen erlernen, nur um etwas aus einer Aufnahme zu entfernen. Prompt to Edit, unterstützt durch das Aleph-Modell von Runway, ändert diese Gleichung grundlegend.
Geben Sie "Ändern Sie den Hintergrund auf Sonnenuntergang" oder "Entfernen Sie die Kaffeetasse vom Tisch" ein, und die KI führt automatisch das Tracking, die Maskierung und das Compositing durch.
Dies ist keine Text-zu-Video-Generierung. Dies ist KI-gestützte Nachbearbeitung von Material, das bereits vorhanden ist. Sie können:
- Unerwünschte Objekte ohne Maskierung entfernen
- Hintergründe ohne Greenscreen austauschen
- Beleuchtung nachträglich anpassen
- Farben und Atmosphäre verändern
Der Unterschied zwischen Generierung und Bearbeitung ist wesentlich. Generierung schafft von Grund auf. Bearbeitung verfeinert das, was Sie bereits haben. Für Profis, die mit Kundenmaterial, Stock-Clips oder ihrem eigenen Material arbeiten, ist dies das fehlende Stück.
Zwei Bearbeitungsmethoden
Adobe hat die Benutzeroberfläche flexibel gestaltet. Sie erhalten zwei unterschiedliche Workflows:
Klassischer Multi-Track-Ansatz. Ziehen Sie Clips, schneiden Sie, überlagern Sie Audio, kontrollieren Sie das Tempo Frame für Frame. Vertraut für jeden, der Premiere oder Final Cut verwendet hat.
Bearbeiten Sie Ihr Video durch Bearbeitung seines Transkripts. Perfekt für Interviews, Podcasts und Talking-Head-Inhalte. Schneiden Sie einen Satz, indem Sie seinen Text löschen.
Der textbasierte Ansatz klingt nach Spielerei, bis Sie ihn mit Interview-Material versuchen. Das Finden dieser einen perfekten Soundbite dauert Minuten statt Stunden, wenn Sie ein Transkript durchsuchen und direkt von dort aus schneiden können.
4K-Hochskalierung über Topaz Astra
Adobe arbeitete mit Topaz Labs zusammen, um die Astra-Hochskalierung direkt in Firefly Boards zu bringen. Dies löst ein Problem, das jeden Video-Produzenten heimsucht: Archiv-Material.
Rettung von Archiv-Aufnahmen
Dieses Interview, das Sie 2018 in 720p gedreht haben? Hochskalieren Sie es auf 4K. Diese alten Familienvideos? Stellen Sie Details wieder her, die ursprünglich nicht einmal vorhanden waren. Die KI rekonstruiert Textur und Schärfe auf eine fast magische Weise.
Die Integration läuft im Hintergrund, während Sie an anderen Aufgaben arbeiten. Laden Sie Ihr Material hoch, stellen Sie es zum Hochskalieren ein, und machen Sie weiter mit der Bearbeitung. Wenn Sie mit Ihren Schnitten fertig sind, ist die 4K-Version bereit.
Das Modell-Ökosystem expandiert
Über Prompt to Edit hinaus integriert Adobe weiterhin Partner-Modelle in Firefly. Die neuesten Ergänzungen:
| Modell | Funktion | Warum es wichtig ist |
|---|---|---|
| FLUX.2 (Black Forest Labs) | Fotorealistische Bilder mit Textwiedergabe | Endlich, KI-Bilder, bei denen Text korrekt aussieht |
| Gemini 3 (Nano Banana Pro) | hochwertige Bildgenerierung | Mehr Optionen, unterschiedliche ästhetische Sensibilität |
| Runway Aleph | Prompt-basierte Video-Bearbeitung | Treibt die gesamte Prompt to Edit-Funktion an |
Dieser Multi-Modell-Ansatz wirkt strategisch. Anstatt alles auf ein Modell zu setzen, gibt Adobe Creators eine Wahl. Verschiedene Projekte profitieren von verschiedenen Engines.
Was dies für Creator bedeutet
Lassen Sie mich direkt sein, wer davon profitiert:
- ✓YouTube-Creator, die schnelle Bearbeitungsumläufe benötigen
- ✓Agenturen, die mit Kundenmaterial arbeiten
- ✓Solo-Creator ohne fortgeschrittene VFX-Fähigkeiten
- ✓Content-Teams, die große Mengen plattformübergreifend produzieren
Wenn Sie bereits tief im Premiere-Ökosystem sind, ergänzt dies Ihr Toolkit, anstatt es zu ersetzen. Von KI generierte Clips und KI-Bearbeitungen können direkt in Ihren vorhandenen Creative Cloud Workflow fließen.
Das größere Bild
Adobe konkurriert nicht mit Runway oder Sora um reine Generierungsqualität. Sie konkurrieren um Workflow-Integration. Die Adobe-Runway-Partnerschaft machte das bereits klar: Adobe möchte der Ort sein, an dem KI-Videos entstehen, auch wenn die zugrundeliegenden Modelle von Partnern stammen.
Dies ist wichtig, weil Video-Produktion nicht nur um die Erstellung von Clips geht. Es geht um:
- Organisieren von Material
- Treffen von Auswahlen
- Verfeinern und Polieren
- Lieferung in mehreren Formaten
Adobe kontrolliert die Schritte 2-4 für die meisten Profis. Durch das Hinzufügen von KI-Generierung und KI-Bearbeitung schließen sie die Schleife.
Hier ist der Knackpunkt beim browserbasierten Zugang: Kein Creative Cloud-Abonnement erforderlich. Sie können dennoch direkt auf Firefly zugreifen. Dies senkt die Einstiegshürde für Creator, die die vollständige Suite nicht rechtfertigen können.
Erste Schritte
Der Firefly Video Editor ist jetzt verfügbar unter firefly.adobe.com. Sie benötigen ein Adobe-Konto, und die Benutzeroberfläche führt Sie durch verfügbare Funktionen.
Für diejenigen mit Pro- oder Premium-Plänen bot Adobe unbegrenzte Generierungen bis zum 15. Januar an. Diese Aktionszeit ist abgelaufen, aber die Kernfunktionen bleiben mit standardmäßigen Guthaben zugänglich.
Meine Empfehlung: Beginnen Sie mit Material, das Sie bereits haben. Die Prompt to Edit-Funktion glänzt, wenn Sie sehen können, wie sie reale Szenarien handhabt, nicht nur Demos. Versuchen Sie, etwas aus einer Aufnahme zu entfernen. Versuchen Sie, die Stimmung durch Beleuchtungsanpassungen zu ändern. Bekommen Sie ein Gefühl dafür, was die KI kann und nicht kann.
Was kommt als Nächstes
Die Adobe Express-Integration kommt diesen Monat. Das bedeutet, dass Mobile Creator Zugang zu denselben Tools in einer vereinfachten Benutzeroberfläche bekommen. Die Unterscheidung zwischen "professionellen" und "gelegentlichen" Video-Tools verschwimmt weiter.
Für einen tieferen Blick auf den Vergleich von KI-Videogenerierungsmodellen, schauen Sie sich unseren Sora 2 vs Runway vs Veo 3 Vergleich an. Und für Hintergrund zu diffusionsgestützten Ansätzen, die diese Tools antreiben, erklärt unser Diffusions-Transformer Deep Dive die Architektur.
Die eigentliche Frage ist nicht, ob Prompt to Edit funktioniert. Es ist, ob dies zum Standard für Video-Bearbeitung wird. Wenn Adobe gut umsetzt, braucht jedes Video-Tool eine Version der natürlichsprachigen Bearbeitung, um konkurrenzfähig zu bleiben.
Adobe hat gerade die Messlatte höher gelegt. Wieder.
War dësen Artikel hëllefräich?

Henry
Kreativen TechnologKreativen Technolog aus Lausanne, deen erfuerscht wou KI an Konscht sech treffen. Experimentéiert mat generativen Modeller tëscht elektroneschen Musiksessiounen.
Verbonne Artikelen
Entdeckt weider mat dësen verbonnenen Artikelen

Adobe an Runway vereinen hir Kräften: Wat d'Gen-4.5 Partnerschaft fir Video-Createure bedeit
Adobe huet de Runway Gen-4.5 zum Réckgrat vum AI Video a Firefly gemaach. Dës strategesch Allianz formt d'kreativ Workflows fir Professionnellen, Studioen a Marken op der ganzer Welt nei.

Google Flow an Veo 3.1: KI-Videoschnëtt trëtt an eng nei Ära
Google lancéiert grouss Aktualiséierunge fir Flow mat Veo 3.1, introduzéiert Insert an Remove Editing-Tools, Audio iwwer all Features, a bréngt KI-Videoschnëtt iwwer einfach Generéierung eraus op richteg kreativ Kontroll.

AI Video Storytelling Platforms: Wéi Serie Content alles im 2026 ännert
Vu eenzele Clips bis komplett Serien, AI Video entwéckelt sech vu Generéierungstool zu Geschichterzähl-Motor. Léiert d"Plattformen kennen, déi dat méiglech maachen.