Midjourney, jeden z najpopularniejszych startupów zajmujących się generowaniem obrazów za pomocą sztucznej inteligencji, ogłosił w środę premierę długo wyczekiwanego modelu AI do generowania wideo — V1.
V1 to model typu obraz-na-wideo, w którym użytkownicy mogą przesłać obraz — lub wykorzystać obraz wygenerowany przez jeden z wcześniejszych modeli Midjourney — a V1 na jego podstawie wygeneruje zestaw czterech pięciosekundowych filmów. Podobnie jak w przypadku modeli obrazów, V1 jest dostępny wyłącznie za pośrednictwem Discorda i tylko w wersji webowej w dniu premiery.
Premiera V1 stawia Midjourney w bezpośredniej konkurencji z innymi modelami AI do generowania wideo, takimi jak Sora od OpenAI, Gen 4 od Runway, Firefly od Adobe czy Veo 3 od Google. Podczas gdy wiele firm koncentruje się na tworzeniu sterowalnych modeli wideo do zastosowań komercyjnych, Midjourney od początku wyróżniało się podejściem skierowanym do twórców i artystów.
Firma deklaruje, że jej ambicje dotyczące modeli wideo AI wykraczają poza tworzenie materiałów uzupełniających (B-roll) do filmów z Hollywood czy spotów reklamowych. W poście na blogu CEO Midjourney, David Holz, napisał, że model wideo AI to kolejny krok w kierunku ostatecznego celu firmy — tworzenia modeli AI „zdolnych do symulacji otwartego świata w czasie rzeczywistym”.
Po modelach wideo Midjourney planuje rozwijać modele AI generujące rendery 3D oraz modele działające w czasie rzeczywistym.
Midjourney V1 szybko zyskuje użytkowników
Premiera modelu V1 zbiegła się w czasie z pozwem sądowym, jaki przeciwko startupowi złożyły dwa z największych hollywoodzkich studiów filmowych — Disney i Universal. W pozwie zarzuca się, że obrazy tworzone przez modele Midjourney naruszają prawa autorskie studiów, przedstawiając postacie takie jak Homer Simpson czy Darth Vader.
Hollywood od dłuższego czasu zmaga się z rosnącą popularnością narzędzi do generowania obrazów i wideo z wykorzystaniem AI, takich jak te tworzone przez Midjourney. Coraz większe są obawy, że te technologie mogą zastąpić lub zdewaluować pracę twórców w branżach kreatywnych. Kilka firm medialnych zarzuciło także, że produkty te były trenowane na chronionych prawem autorskim materiałach.
Midjourney stara się przedstawiać jako startup inny niż reszta — bardziej skoncentrowany na kreatywności niż na natychmiastowych zastosowaniach komercyjnych — jednak nie zdołał uniknąć oskarżeń.
Na początek firma zapowiedziała, że generowanie wideo będzie kosztować osiem razy więcej niż typowe generowanie obrazu, co oznacza, że użytkownicy znacznie szybciej zużyją swój miesięczny limit, jeśli będą tworzyć wideo zamiast obrazów.
Najtańszy sposób na wypróbowanie V1 to wykupienie podstawowego planu za 10 dolarów miesięcznie. Abonenci planu Pro (60 dolarów miesięcznie) i Mega (120 dolarów miesięcznie) będą mogli generować nieograniczoną liczbę filmów w wolniejszym trybie „Relax”. W ciągu najbliższego miesiąca firma zamierza ponownie ocenić model cenowy dla generowania wideo.
V1 oferuje kilka ustawień niestandardowych, które pozwalają użytkownikom kontrolować efekt końcowy.
Można wybrać automatyczną animację, która sprawia, że obraz porusza się losowo, lub manualną — wtedy użytkownik opisuje tekstowo, jaką animację chciałby dodać do filmu. Można też dostosować poziom ruchu kamery i obiektu, wybierając opcję „low motion” lub „high motion”.
Chociaż filmy generowane przez V1 mają tylko 5 sekund długości, użytkownicy mogą przedłużyć je o 4 sekundy nawet czterokrotnie — oznacza to, że maksymalna długość filmu może wynosić 21 sekund.
Podobnie jak w przypadku modeli obrazów Midjourney, wczesne dema wideo stworzone przez V1 mają nieco oniryczny, nierzeczywisty charakter, a nie hiperrealistyczny wygląd. Początkowe reakcje na V1 są pozytywne, choć nadal nie wiadomo, jak dobrze wypada na tle konkurencyjnych modeli wideo AI, które są dostępne na rynku od miesięcy, a nawet lat.
Czytaj też: