DErykJasinski

Czerń kontra róż, czyli rozdział 9, epizodu Shamanpunk, właśnie się pojawił. Nie przegap tej rozpierduchy!
          	https://www.wattpad.com/story/404858845

DErykJasinski

@ Foka_Na_Haju  Jak zwykle się rozpisałem jak to bywa z moim niezdiagnozowanym prawdopodobnie ADHD/ADD XD. 
          
          Ale na koniec dodam, że też chodzi o to, aby głównie robić materiały promocyjne, które są dobre jakościowo, ale też nie pochłaniają niewiadomo jak dużo czasu. Dlatego póki co myślę o jakiś prostszych filmikach, krótkich, które mam nadzieję przeciągną czytelników. 
          Myślę, że chciałbym pójść też śladami Death Stranding 1, które przed premierą i przed pierwszym faktycznym zwiastunem wrzucało enigmatyczne motywy, które wyrwane z kontekstu wydawały się nie mieć sensu xd ale jednocześnie człowiek wiedział intuicyjnie, że to zapewne ma jakiś sens. A nawet jak się pojawił pierwszy zwiastun, wiele rzeczy wydawało się enigmatyczne. 
          Ale przed pierwszym trailerem były np. sceny, że kamera wchodzi do gardła, a tam niemowlę, albo Sam z niemowlęciem w tej kapsule, którą ja ochrzciłem słoikiem xd. Albo motywy jak właśnie pojawiają się dziwne istoty jak ten olbrzymi humanoidalny stwór z prawie początku gry. Bez kontekstu wydawało się to mega enigmatyczne. 
          
          Czy takie filmiki się sprawdzą dla kogoś nieznanego? Ciężko powiedzieć, ale na pewno spróbuję kilka takich wrzucić. 
          
          Psychoza Vandi ma pełno dziwnych rzeczy, które myślę są dziwne nawet jak jest kontekst, a co dopiero wyrwane z kontekstu. 
          
          Ale pójdę też tą drogą z Przytul Mnie. 
          
          Zarówno sceny z książki, jak i jakieś symboliczne filmiki, nie będące bezpośrednim odwzorowaniem sceny, ale niosącym przesłanie związane z książką. 
          
          I czasem takie rzeczy nie potrzebują więcej jak 10s. filmiku. 
          
          Ogólnie cały czas staram się próbować nowych rzeczy, by przebić się do nowych czytelników i przede wszystkim znaleźć swoją grupę docelową, co wcale nie jest łatwe. Oni gdzieś tam są...

DErykJasinski

@ Foka_Na_Haju  Jeśli chodzi o AI do filmów to kilka razy próbowałem zrobić nawet proste filmiki na Sora , ale te filmiki to była tragedia, nawet coś prostego nie wychodziło, tak więc spróbowałem kilka razy i odpuściłem. Inne, lepsze AI do robienia filmów było tylko płatne i bardzo drogie. Także nie mam doświadczenia w generowaniu filmów AI, tylko w generowaniu obrazów.
          Dopiero teraz dorwałem się do Sora 2, która nie jest dostępna w Europie (używam VPN). 
          
          Pierwszy film miał być inny: chciałem zrobić anime scenę: halucynacyjny koncert Eryka ze splotu.Zrobiłem znaczną jego część, ale nauczyłem się lepiej to promptować, więc wyrzuciłem projekt do kosza, bo tam chociażby nie było consinstent character (nie działa ta funkcja w aplikacji na Androida, ale działa na stronie o czym nie wiedziałem), a także było to w pionie (bo też aplikacja pozwala tylko na pionowe wideo). Wiec jak odkryłem, że strona ma te funkcje, których nie ma aplikacja wywaliłem projekt do kosza. 
          
          Może kiedyś zrealizuję to od nowa. 
          
          Po tym projekcie zająłem się od razu tworzeniem consistent postaci głównych z PV. Ale znowu zrobiłem to źle, filmik bazowy ma chociażby muzykę jakąś w tle, więc teraz ta muzyka odpala się prawie zawsze jak generuje coś z tymi postaciami xddd Muszę więc zrobić wiele postaci od nowa, bo prompt z podpisem „no music" czasem ignoruje to polecenie. 
          
          A nastepnie od razu zrobiłem filmik z Tridarą i ten prolog. 
          
          Na razie się uczę, część promptów piszę jak scenariusze filmowe, czy coś bliskiego temu, tylko uproszczonego. A w innych scenach daję proste prompt. W zależności od sceny czasem to działa lepiej, a czasem to. 
          
          Póki co, muszę się nauczyć jak to robić lepiej i będę robić jakieś krótkie filmiki typu zwiastuny, czy coś for fun. 
          
          Myślałem np. nad serią typu gdyby postać X żyła w naszym świecie i robiła filmiki do internetu xd

DErykJasinski

@ Foka_Na_Haju  No i też dopiero od niedawna się uczę tym posługiwać. Tyle dobrze, że mam doświadczenie z jakimś tam montażem, gdyż wcześniej prowadziłem kanał na YouTube o grach, a także zdarzało się robić na innym kanale jakieś Mush Upy pod moje utwory muzyczne. Nawet raz zrobiłem machinima na Skyrim jako teledysk do jednego z moich utworów. 
          
          Również w podstawówce będąc, zrobiłem kilka machinim na Gothicu xd ale to było w czasach, gdy YouTube służył bardziej do przesyłania sobie filmików i nie wyglądał jak teraz. 
          
          Ale też nie jestem jakimś super montażystą pro xd . 
          
          

DErykJasinski

@ Foka_Na_Haju  Myślę też, że Przytul Mnie z jednej strony nadawałby się, by odtworzyć scenki. Z drugiej strony fakt, że przez 80% czasu jest mnóstwo bohaterów w jednej scenie nie pozwala oddać tego w pełni. Czasem można to oszukać w montażu (w scenie są dwie postacie, a w drugiej kolejne dwie, ale zmontować to tak, jakby wyglądało jakby były razem cały czas). Tak w niektórych przypadkach ominięcie tego wymagałoby ogromnej kreatywności. Np. Sceny pościgu wypadłyby drętwo gdyby nie było widać za postaciami biegnącej reszty grupy. 

DErykJasinski

@ Foka_Na_Haju  Mimo to, to co potrafi teraz AI, a co potrafiło chociażby rok temu to niebo, a ziemia. O ile marzę o pełnej adaptacji, a liczenie na to, że zrobi to jakieś studio, Netflix, Amazon, czy cokolwiek to mocne myślenie życzeniowe. Zrobienie, więc pełnej adaptacji AI wydaje się być nie tak złym pomysłem. 
          
          Ale to nie tylko ogromne wyzwanie techniczne i czasowe, ale też ograniczenia chociażby w związku z przemocą itp. 
          
          Póki co, główną funkcją takich scenek jest promowanie powieści w internecie i ukazanie potencjału adaptacyjnego, co mam nadzieję zwróci uwagę także wydawców. W sensie, że wraz z propozycjami wydawniczymi wyśle im to. 
          
          Też w środowiskach książkowych bardzo dużo ludzi podchodzi negatywnie do używania AI do promocji książki. Co ciekawe ten filmik zgarnął dobre opinie i aż 52 polubienia do tej pory, co jak na mój kanał jest jednym z najlepszych wyników jeśli chodzi o polubienia. Myślę, że ludzie inaczej podeszli do AI w tej sytuacji, bo docenili wartość artystyczną. 
          
          Myślę jednak, że AI dobrze się sprawdza przy tych bardziej surrealistycznych scenach. Jeśli ma zrobić coś co z natury jest dziwne, to nawet ewentualne błędy, mogą wyglądać na zamierzone xd

DErykJasinski

@ Foka_Na_Haju  Inna sprawa, że chciałem zwizualizować cały rozdział I. To jednak bardzo duże wyzwanie, a w trakcie myślenia o tym, przyszły mi do głowy pomysły, których nie ma w książce, ale pasują do klimatu książki. Np. Teledysk pokazujący życie w mieście i od razu ukazujący Ulfryka. Nie za bardzo bym wiedział jak zrobić to w książce, a do wersji filmowej pasuje o wiele bardziej w takiej formie jak to wymyśliłem. Paradoksalnie temat teledysku zaczął rodzić w mojej głowie pomysł, czy aby nie wykorzystać tego do napisania dodatkowego rozdziału Rezydencji Obłędu, który ukazałby Ulfryka i jego interesy. 
          
          Natomiast największym wyzwaniem przy używaniu AI jest spójność np. lokacji, czy też grafiki – czasem jest bardzo realistyczba, a czasem wygląda jak hiperrealizm 3D. Kiedy natomiast próbuję wymusić grafikę rodem z gry, ale tak bardzo realistycznej jak np. Death Stranding to wychodzi prędzej grafika gier z 2015 xd 
          
          Sora 2 ma też ogólnie bardzo duże ograniczenia np. walka wygląda fatalnie, często blokuje za samą przemoc, nie wspominając już o krwi itp. Przedewszystkim dlatego, że traktuje consistent character jakby były prawdziwymi osobami (tak, można zrobić samego siebie w wersji AI) I z tego względu jest jeszcze bardziej restrykcyjne tam, gdzie użyte jest consistent character, by uniknąć nadużyć (że np. ktoś wykorzysta twoją twarz, by zrobić niepochlebne filmiki). Z kolei bez consistent character postacie różnie się mocno. 
          
          Ale znowu consistent character potrafią mieć wadę – wszystko co jest na filmiku bazowym zostaje przypisane do niej np. strój, przez co niekiedy ciężko, aby ta sama postać, była ubrana inaczej. Ja utworzyłem Eryka w wersji epizod 5, a całe jego odzienie z epizodu 1 wpisuję osobno w prompt, co sprawia, że nie wygląda identycznie na każdym ujęciu. 

DErykJasinski

@ Foka_Na_Haju  Dziękuję  :) Z kilku powodów:
          1. Dostanie tego, co się chce w AI to często kilkanaście, albo i kilkadziesiąt podejść do jednej sceny. Z jednej strony im bardziej szczegółowy prompt tym lepiej, a z drugiej jak jest zbyt wiele AI zaczyna wybierać co robić, a co nie. Też nie wszystko jest w stanie zrealizować, ma sporo ograniczeń technicznych np. Max 2 consistent characters w jednej scenie. Na każdym kroku też się czepia o np. brutalność, albo że coś uznaje za zbyt erotyczne, albo że twarz postaci wychodzi zbyt podobnie do kogoś prawdziwego, lub do kogoś z jakiejś innej marki itp. Też kwestia skrzydeł: czarne łzy mają w książce błoniaste skrzydła, a w wizualizacji bardziej owadzie – ilekroć próbowałem to wygenerować to albo coś było nie tak graficznie, lub z zachowaniem postaci, albo łzy nie chciały wylecieć z oczy w taki sposób (częściej wylatywały z policzków), albo właśnie same łzy się różniły. Uznałem, że rodzaj skrzydeł jest mniej istotny, niż to skąd wylatują, by było jasne, że to łzy. 
          
          2. Drugim powodem jest to, że jak to mówią: Nie wszystko co działa w książce, działa w filmie. W przypadku tego prologu zrezygnowałem z dźwięków idących od końca do przodu, a potem od nowa od przodu. Zamiast tego są odtworzone od razu od przodu. Zrezygnowałem też w wulgaryzmów, by nie ograniczyło to zasięgów na tiktok, który potrafi różnie do tego podchodzić, ale akurat zastanawiałem się czy tego nie zmienić także w samej książce. Ogólnie zmiany w wersji adaptacyjnej są raczej drobne. Krzyk Eryka, odpowiedź Nagevir są identyczne. 
          3. Tak oniryczny prolog może też podlegać różnej interpretacji: np. „Widział, że wstał, choć nadal klęczał...” w adaptacji zrobiłem tak, że postać wstaje, a następnie widzi siebie, wciąż klęczącego. Również nastąpiło to równocześnie z odgłosami kroków itp. Myślę, że tę scenę można by zrealizować na kilka sposobów i wszystkie byłyby dobre :)

Foka_Na_Haju

Hej, minęło już relatywnie dużo czasu od twojej ostatniej aktywności, wszystko tam u ciebie w porządku? Mam nadzieję, że to raczej jakiś odpoczynek od wattpada a nie jakieś problemy 

Foka_Na_Haju

@DErykJasinski  Widziałem twoją wizualizację, robi wrażenie :D 
            I tak z ciekawości. Pisałeś, że nieco się różni od oryginału. Te różnice są specjalnie bo, na przykład, twoja wizja tej sceny uległa zmianie? Czy może to przez fakt, że nie do końca byłeś wstanie odtworzyć tę scenę na 100% więc musiałeś się zadowolić czymś, co pokrywa się z twoją wizją na 90%? Pytam jako osoba, której jedyna styczność z AI ogranicza się do zadania kilku pytań do operowej wersji chat'a gpd :P
Reply

DErykJasinski

@ Foka_Na_Haju  Także spokojnie. Nadrobimy zaległości ;⁠)
Reply

DErykJasinski

@ Foka_Na_Haju  Wszystko w porządku, po prostu dużo pracy i nie mam głowy do pisania. Ostatnio chociażby pracowałem też w sobotę, a porządki domowe przeszły na niedzielę i nie było nawet dnia wolnego. 
            Ale w międzyczasie (często w drodze do pracy, czy na przerwach w pracy, albo jak znajdę odrobinę siły po pracy) robię na tiktok filmiki promujące książkę, od niedawna na Sorze 2. Polecam sprawdzić najnowszy film, bo to adaptacja prologu Psychoza Vandi do wersji kinowej. Odrobinę różni się od oryginału, ale jest bardzo blisko ;) Jest też adaptacja pewnej sceny z Tridarą 
Reply