Tworzenie grafiki z wykorzystaniem sztucznej inteligencji… na domowym komputerze

Większość ludzi kupuje potężne laptopy i desktopy, aby grać w gry i streamować swoje wyczyny. Jednak teraz jest zupełnie nowy powód kupna mocnego komputera: tworzenie własnej grafiki z udziałem sztucznej inteligencji (AI).

Fot. wł.

AI tworzy dzieła sztuki w fascynujący sposób. Wystarczy wpisać odpowiedni monit, czyli rodzaj instrukcji, a algorytm wygeneruje obraz zgodny ze specyfikacją. Ogólnie rzecz biorąc, plastyczne dzieła można tworzyć w internecie za pomocą algorytmów takich jak DALL-E, Craiyon, Latitude Voyage, Midjourney i innych. Przetwarzanie w chmurze ma jednak swoją cenę: żądania często czekają w kolejce, ich liczba jest ograniczona lub należy za nie zapłacić. Na przykład tworzenie za pomocą Midjourney kosztuje 10 dolarów za 200 obrazów miesięcznie.

Zarabianie na dziełach sztucznej inteligencji było jednym z powodów, dla których modele algorytmiczne nie zostały upublicznione. Innym powodem ukrycia algorytmów jest to, że ich twórcy obawiali się, że mogą zostać wykorzystane do dezinformacji, tworzenia obrazów zawierających przemoc lub przedstawiania osób publicznych w niepochlebny sposób. Projekt Stability.Ai i jego model Stable Diffusion to pierwsze oprogramowanie AI, które jest publicznie dostępne i może działać na konsumenckich procesorach graficznych.

Zobacz również:

  • Chińska sztuczna inteligencja. Ją także obejmuje cenzura
  • Chatbot Google zdradził, że ma uczucia

Stable Diffusion jest dostępny za pośrednictwem usługi opartej na kredytach – DreamStudio, a także na HuggingFace, platformie rozwoju projektów AI. Z tego serwisu można także pobrać kod modelu, aby w nieograniczony sposób generować grafikę bezpośrednio na własnym komputerze. Wystarczy do tego utworzenie darmowego konta.

Stability.Ai udostępnił swój model na licencji CreativeML OpenRAIL-M, dostępnej w pliku Readme dołączonym do kodu. W skrócie stwierdza ona, że obrazy nie mogą być fotorealistyczne, nie mogą zawierać drastycznych i pełnych nienawiści scen, a dzieła powinny być udostępnione w serwisie HuggingFace. Stable Diffusion zawiera filtr treści, ale został on już ominięty w różnych wersjach modelu.

Instalacja Stable Diffusion

Przed instalacją modelu w oryginalnej wersji można skorzystać z samouczka AssemblyAI, który jest dostępny na ich stronie internetowej lub z oddzielnych poradników dotyczących wariantu kodu, który został zoptymalizowany, aby zużywać mniej pamięci VRAM. Należy przy tym pamiętać, że to oprogramowanie nie zostało stworzone przez Stability.Ai, więc teoretycznie istnieje pewne ryzyko związane z zainstalowaniem nieznanego kodu na komputerze.

Tak czy inaczej, musisz pobrać sam model (około 4 GB) i kilka plików pomocniczych. Jeżeli używasz Windowsa, będziesz także musiał zainstalować interpreter języka Python innej firmy lub użyć oprogramowania WSL2 (pozwala uruchomić Linuksa w Windowsie).

Na razie Stability.Ai zaleca użycie karty graficznej z co najmniej 6,9 GB pamięci RAM. Niestety, obecnie obsługiwane są tylko procesory graficzne Nvidia, a wsparcie dla procesorów AMD ma być dodane w przyszłości.

Aplikacja nie jest ładna, ale działa

Chociaż dzisiaj obsługa modelu opiera się na wierszu poleceń, to w przyszłości będzie można kontrolować Stable Diffusion za pomocą aplikacji z GUI zarówno w wersji na Linuksa, jak i dla Windows.

Obecnie monity są wprowadzane za pomocą interfejsu wiersza poleceń systemu Linux. Nie jest to tak traumatyczne, jak mogłoby się wydawać, ponieważ można sobie przygotować polecenie w dowolnym edytorze tekstowym, a potem wkleić je do linii komend.

Monity będą wyglądać mniej więcej tak:

python scripts/txt2img.py --prompt "wieża czarodzieja wznosi się na pustyni, wieczorem, artystyczna, szczegółowa, fantastyczna estetyka"

Możesz także dodać parametry, takie jak rozmiar wynikowego obrazu, ile iteracji algorytm ma użyć do jego wygenerowania itp. Szereg dodatkowych funkcji znajdziesz w samouczku AssemblyAI.

Twój komputer będzie miał co robić!

Tworzenie większej liczby obrazów lub obrazów o wyższej rozdzielczości i liczne iteracje wymagają dodatkowej mocy obliczeniowej. Algorytm wydaje się najbardziej obciążać pamięć systemową, dysk SSD oraz procesor graficzny i jego pamięć RAM.

W testach uruchomienie Stable Diffusion na Surface Laptop Studio (H35 Core i7-11370H, 16 GB RAM, GeForce RTX 3050 Ti z 4 GB GDDR6 VRAM) powoduje błędy „braku pamięci VRAM”. Nawet na laptopie z Core i7-11800H, 16 GB pamięci RAM i procesorem graficznym RTX 3060 z 6 GB pamięci VRAM GDDR6 działała tylko wersja kodu zoptymalizowanego pod kątem niższego użycia pamięci VRAM, ale nawet wtedy wygenerowanie serii 5 obrazów w rozdzielczości 512×512 z 50 iteracjami wymagało około 50 minut. Natomiast w DreamStudio ten sam algorytm może zostać ukończony w dwie sekundy, chociaż otrzymasz tam ograniczoną liczbę kredytów do wygenerowania obrazów.

Spośród algorytmów sztucznej inteligencji służących do generowania grafiki, najlepsze wydają się Midjourney i Latitude Voyage, a Stable Diffusion wyraźnie im ustępuje. Mimo to jakość dzieł AI w znacznej mierze zależy od „podpowiedzi”: wprowadzania odpowiednich poleceń, aby wygenerować coś naprawdę fajnego. Wspaniałe w modelu Stability.Ai jest też to, że jeśli posiadasz potężny komputer, możesz poświęcić nieograniczony czas na dopracowanie swojej algorytmicznej grafiki i wymyślenie czegoś naprawdę imponującego.

Źródło: PC World