OpenAI chwali się gigantycznymi możliwościami modelu Sora 2

Na początku października 2025 roku OpenAI wypuściło na świat nową wersję swojego modelu, który na podstawie AI tworzy filmy. Z punktu widzenia rozwoju AI jest to dość duże wydarzenie, ponieważ model ten przynosi ogromne usprawnienia i poprawki względem pierwszej wersji wydanej w grudniu 2024 roku, która i tak okazała się rewolucyjna.

Reklama

Poprzedni model był przełomowy ze względu na rozwiązanie wielu problemów, które dręczyły podobne modele do generowania wideo. Chodzi o halucynacje czy obiekty, które znikały w trakcie trwania takich wideo. Sora 2 zaś skupia się na wierniejszym odwzorowaniu praw fizyki w środowiskach, które symulują prawdziwy świat.

Oznacza to, że nowy model jest w stanie robić rzeczy nieosiągalne dla dotychczas dostępnych narzędzi, bazujących na AI. OpenAI twierdzi nawet, że właśnie Sora 2 jest odpowiednikiem ChatGPT 3.5 dla wideo.

- Dzięki Sora 2 przeskakujemy od razu do tego, co naszym zdaniem może być momentem GPT-3.5 dla wideo. Sora 2 może robić rzeczy, które są wyjątkowo trudne - a w niektórych przypadkach wręcz niemożliwe - dla modeli poprzedniej generacji wideo: ćwiczenia gimnastyczne w stylu olimpijskim, salta w tył na desce wiosłowej, które dokładnie modelują dynamikę pływalności i sztywności oraz potrójne obroty z kotem na głowie. - czytamy na oficjalnej stronie firmy OpenAI.

Trwa ładowanie wpisu

Rzeczywiście, próbki możliwości, które zostały zaprezentowane, są imponujące i robią wrażenie nie tylko poziomem dokładności, czy detalami, ale także płynnością animacji oraz tym, że naprawdę trudno jest wyłapać jakiekolwiek artefakty graficzne, czy wizualne. Nie spotkamy tutaj też typowego dla AI naginania praw fizyki, czy deformacji elementów w ruchu tak, aby spełnić wymagania, które wpisywane były w komendach (no, chyba że akurat o to poprosimy).

Sora 2 jest także w stanie dostosować generowane wideo do stylu, który chcemy uzyskać. Fotorealizm to oczywiście jedna z opcji, ale nic nie stoi na przeszkodzie, aby wygenerować sobie obraz stylizowany na japońskie anime, a pewnie nawet w przypadku starych polskich animacji byłoby to możliwe i całkiem skutecznie.

Oczywiście, Sora 2 nadal miewa problemy i wygenerowane filmy nadal potrafią zaskakiwać dziwnymi błędami. Zdarza się bowiem zaobserwować dziwne "falowanie" elementów, zbyt dużą liczbę palców lub nienaturalnie płynne animacje, jednak są to już raczej detale, które często mogą umykać na pierwszy rzut oka.

Sora 2 wygeneruje także dźwięk

Kolejną rzeczą, w której Sora 2 wybija się na tle wielu innych modeli do generowania wideo za pomocą AI, jest kwestia dźwięku. Oczywiście, taką opcją jeszcze do niedawna pochwalić się mógł tylko model Veo 3 od Google. OpenAI nie tylko dogoniło swojego rywala, ale też go przegoniło, oferując lepszą (choć nadal nieidealną) jakość audio.

Trwa ładowanie wpisu

O tym, jak bardzo jest to duża zmiana, niech świadczy kolejne wideo promocyjne Sory 2, w której "bierze udział" Sam Altman. Firma zarzeka się, że wszystkie kadry, wizerunki osób oraz dźwięki powstały wyłącznie dzięki mocy wspomnianego modelu.

Nawet jeśli miejscami dźwięk wydaje się nieco płaski i pewnie i tak przeszedł pewne korekty na etapie montażu, tak nadal jest to imponujące. Dzięki tak potężnemu narzędziu, jak Sora 2 jesteśmy w stanie generować filmiki kompletne, które nie tylko dobrze wyglądają, ale są też realistycznie udźwiękowione.

Sora 2 dostała aplikację. Ma być to realny konkurent dla TikToka

Przy okazji premiery nowego modelu do generowania filmów za pomocą AI, Altman i spółka wydali nową aplikację, która ma być swoistym "TikTokiem dla filmów wygenerowanych przez AI". Oznacza to, że użytkownicy mogą bez przeszkód udostępniać publicznie generowane przez siebie wideo, a inni użytkownicy mogą je dowolnie remiksować.

Co więcej, my sami możemy stać się częścią taki generatywnych eskapad. Wystarczy, że wrzucimy do generatora samych siebie i tak możemy wkomponować siebie samych np. w centrum westernowych wydarzeń lub sceny z ratowania świata. OpenAI na swojej oficjalnej stronie twierdzi, że używanie tej konkretnej funkcji "to najlepszy sposób na doświadczenie magii Sora 2".

Już teraz zaczęli pojawiać się pierwsi "sztuczni influencerzy", którzy wykorzystując swój wizerunek, tworzą krótkie wideo w pełni wygenerowanie w modelu od OpenAI. Wszystko to wygląda dokładnie tak samo, jak możemy kojarzyć to ze wspomnianego TikToka - dynamiczne cięcia, szybko wypowiadane kwestie, krótkie ujęcia, z tą różnicą, że wszystko wygenerowano za pomocą AI.

Reklama

Patrząc na poziom zaawansowania i jakość udostępnianych wideo można mieć spore obawy o przyszłość niektórych social mediów. W końcu wygenerowanie niespełna 60-sekundowej rolki może być z czasem łatwiejsze i bardziej efektowne niż napisanie scenariusza, nagranie i zmontowanie analogicznego materiału w "tradycyjny sposób".

Sora 2 dostępna, ale nie dla wszystkich

Możliwości opisywane modelu wydają się imponujące i niemal nieskończone, jednakże na ten moment Sora 2 nie jest dostępna w Polsce i większości państw świata. Początkowo udostępniono ją wyłącznie na terenie USA oraz Kanady.

Co więcej, aby zyskać dostęp do nowego modelu, trzeba zyskać specjalny kod, który pozwala na korzystanie z nowego modelu. Oczywiście w sieci już pojawiło się sporo ofert sprzedaży takich, jednak wielu ludzi ostrzega, iż są to próby oszustwa.