Tel: +48 519 323 891
Mail:
info@fotokrr.pl
krrgrafika@gmail.com
AI w naprawie zdjęć
Temat jest bardzo dynamiczny, a tekst aktualny na połowę listopada 2025 roku. Algorytmów AI, które można wykorzystać do pracy nad starymi fotografiami, jest dziś naprawdę sporo. Krótko opisuję te, z których korzystam najczęściej. Na własny użytek dzielę je na trzy grupy:
Generatory online, takie jak Nano Banana, Seedream czy GPT Image.
Algorytmy offline do odbudowy twarzy, np. GFPGAN i CodeFormer.
Generatory offline do rekonstrukcji całych fotografii, uruchamiane lokalnie – Stable Diffusion XL, Flux i Qwen.
Opisuję je wyłącznie w kontekście pracy nad starymi fotografiami i tylko te, które faktycznie stosuję w codziennej pracy. To moje osobiste, subiektywne obserwacje oparte na praktyce.
Generatory online
Generatory online to jedna z opcji pracy z AI przy starych fotografiach. Działają w przeglądarce, nie wymagają instalacji i pozwalają zobaczyć, jak algorytmy „interpretują” uszkodzone zdjęcie.
W mojej pracy traktuję je wyłącznie jako narzędzie pomocnicze do testów i tworzenia półproduktów, a nie jako gotowe rozwiązanie do wysyłki klientowi.
Nano Banana
Nano Banana od Google w krótkim czasie stała się jednym z najpopularniejszych generatorów obrazów . Trzeba przyznać, że jeśli nie analizować szczegółów, efekty potrafią zrobić wrażenie. Nano Banana najlepiej radzi sobie z twarzami, przynajmniej na pierwszy rzut oka. Przy zdjęciach w dobrym stanie algorytm poradzi sobie całkiem nieźle, ale przy większych uszkodzeniach AI „domyśla się” brakujących szczegółów, często tworząc dość podobną, ale jednak inną osobę. Nano Banana sprawdzi się więc głównie przy takich zdjęciach, gdy podobieństwo postaci nie ma istotnego znaczenia np. w przypadku fotografii osób, których nie znaliśmy. Wtedy efekt może wydawać się przekonujący. Jeśli jednak rekonstruujemy zdjęcie osoby, którą znaliśmy, rezultat może rozczarować, będzie to ktoś bardzo podobny, ale nie ta sama osoba. Wygenerowane grafiki bywają użyteczne jako półprodukt do dalszej obróbki.
Seedream 4.0
Drugim generatorem, z którego korzystam, jest Seedream 4.0. Sprawdza się dobrze przy zdjęciach z lat 80. i 90. XX wieku, zwłaszcza przy korygowaniu poruszeń i nieostrości. Bywa niezastąpiony przy naprawie amatorskich zdjęć z tego okresu. Nie nadaje się jednak do uzupełniania mocno uszkodzonych twarzy w takich przypadkach zmienia je zbyt mocno. Przy specyficznych zdjęciach używam grafik z Seedream jako półproduktów np. masek pomocniczych w Photoshopie.
GPT Image -1
Kolejnym narzędziem jest GPT Image – 1. Jego największą zaletą jest podatność na prompty, można dość precyzyjnie kontrolować zmiany w obrazie. Sprawdza się przy modyfikacjach poszczególnych elementów, np. przy zmianie ubrania. Styl grafik z GPT Image – 1 jest charakterystyczny, mają swój urok, ale zwykle wymagają dalszej obróbki. Nie używam go do odbudowy twarzy, ponieważ detale bywają przesadzone, a podobieństwo do osoby z oryginału jest raczej umowne. Podobnie jak inne generatory, traktuję GPT Image -1 jako źródło materiału do dalszej pracy.
Uwaga o generatorach online
Warto podkreślić, że efekt działania takich narzędzi, jeśli potraktować go jako produkt końcowy – nie jest odnowieniem ani retuszem, tylko raczej reinterpretacją zdjęcia. W mojej pracy nie zdarzyło się, abym przesłał klientowi gotowy obraz wygenerowany w całości przez AI. Traktuję je jako pomoc, półprodukt lub punkt wyjścia do dalszej, ręcznej obróbki.
Szczegółowy opis tego, jak łączę pracę ręczną z algorytmami AI przy naprawie zdjęć, znajdziesz na stronie poświęconej naprawie starych fotografii.
Algorytmy do odbudowy twarzy
Przywracanie twarzy to osobny etap pracy, ponieważ stanowi najtrudniejszy element naprawy zdjęcia, wymaga największej precyzji i doświadczenia, by zachować zgodność z oryginałem.
Do odbudowy twarzy najczęściej używam dwóch algorytmów: GFPGAN i CodeFormer. Oba mają tendencję do zamieniania elementów twarzy, oczu, nosa, ust czy uszu, dlatego efekty ich pracy wymagają korekty w Photoshopie. Im gorszy stan zdjęcia źródłowego, tym bardziej wynik odbiega od oryginału.
Przy mocno uszkodzonych fotografiach, bez kontroli i maskowania, widać typowe ślady działania AI: zmienione rysy, artefakty, nadmierne wygładzenie, a czasem nawet zmianę ogólnego charakteru twarzy. Dlatego przed uruchomieniem algorytmu przygotowuję zdjęcie w Photoshopie, ręcznie usuwam najpoważniejsze uszkodzenia, a później, po przetworzeniu, poprawiam efekty. W trudnych przypadkach potrzebne jest zazwyczaj kilka takich przebiegów z różnym kryciem oraz ręczne maskowanie.
Więcej informacji o rekonstrukcji zdjęć oraz przykładach mojej pracy umieściłem na stronie z ofertą poświęconej naprawie starych fotografii.
Przy bardziej zniszczonych zdjęciach lepsze efekty daje CodeFormer (choć mniej wiernie oddaje oryginał), natomiast GFPGAN sprawdza się przy zdjęciach w lepszym stanie. Zaletą CodeFormer jest możliwość regulacji siły działania, różne ustawienia dają różne efekty.
Oba algorytmy uruchamiam lokalnie przez Forge. W moim skrypcie tworzę jedną grafikę z GFPGAN i trzy z CodeFormer, z różnymi ustawieniami. Najczęściej ostatecznie wybieram rezultat z GFPGAN, ale nie ma tu stałej reguły.
(Na dole tej strony znajduje się starsza wersja tego tekstu z września 2023 roku, dziś już częściowo nieaktualna, ale dobrze pokazuje typowe problemy i workflow przy pracy z AI).
Generatory offline - lokalne
Podczas lokalnej pracy używam Stable Diffusion XL, Flux i Qwen uruchamianych przez ComfyUI, Forge lub Fooocus. Generatory offline dają mi pełną kontrolę nad procesem, pozwalają pracować bez połączenia z internetem, co ma znaczenie przy większych projektach i zachowaniu prywatności.
Stable Diffusion XL
Zacznę od najstarszego modelu Stable Diffusion XL (SDXL). To model z 2023 (SDXL 1.0) roku, więc jak na realia AI jest dojrzały i dobrze dopracowany. Można powiedzieć, że to „stara technologia”, ale nadal użyteczna. Ma wiele dodatków społecznościowych, ogromną liczbę specjalizowanych checkpointów i LoRA oraz niewielkie wymagania sprzętowe (do sensownej pracy wystarczy karta z ok. 8 GB VRAM), dzięki czemu działa relatywnie szybko. Najczęściej używam go przez Fooocus. SDXL w tym środowisku sprawdza się świetnie przy inpaintingu, czyli uzupełnianiu lub poprawie fragmentów zdjęcia. Przy odpowiednich checkpointach i LoRA można szybko tworzyć różne warianty wybranego obszaru fotografii, jednak wymaga to doświadczenia i wyczucia parametrów. W Fooocus można pracować na plikach o dużym rozmiarze, co eliminuje potrzebę ręcznej zmiany ich rozmiaru i bardzo przyspiesza pracę.
Jakość efektów pracy SDXL można porównać z generatorami online, ale tylko w zakresie edycji fragmentów zdjęcia. W tym obszarze działa znacznie szybciej, szczególnie gdy potrzebne są liczne warianty tej samej grafiki. Najczęściej wykorzystuję go do poprawy ubrań lub elementów tła jako alternatywę dla wypełnienia generatywnego w Photoshopie.
Nie polecam natomiast SDXL do rekonstrukcji całych zdjęć, ponieważ twarze często ulegają zniekształceniu, a przy większej sile działania (denoising strength – parametr określający intensywność modyfikacji obrazu) pojawiają się artefakty.
Flux
Flux to nowsza technologia w porównaniu do Stable Diffusion XL – pierwsze wersje pojawiły się w 2024 roku. Model występuje w wielu odmianach: Schnell – szybki, uproszczony wariant do testów, Dev – wariant bazowy z większą kontrolą nad detalami, oraz Pro – wariant komercyjny dostępny przez API. Flux ma sporo narzędzi pomocniczych – m.in. Kontext, Krea i Fill. Używam go głównie przez ComfyUI lub Forge.
Do Flux dostępnych jest wiele dodatków społecznościowych: checkpointy i LoRA trenowane pod kątem określonych zastosowań. Nie ma ich jeszcze tyle co dla SDXL, ale wybór jest solidny.
W przeciwieństwie do SDXL, Flux lepiej nadaje się do rekonstrukcji całokształtu fotografii, choć z twarzami w standardowych wariantach radzi sobie słabo. Ma skłonność do zbyt dużych zmian na scenie, ale przy niskim denoisingu (sile działania) potrafi być bardzo użyteczny.
Twarze generowane przez Flux często wyglądają sztucznie, są przesadnie gładkie, o karykaturalnej mimice. Ze zmodyfikowanymi checkpointami i LoRA wygląda to lepiej, ale moim zdaniem nadal nie wygląda naturalnie. Czasem wykorzystuję Flux do naprawy włosów lub okolic szyi, ale do twarzy go nie używam.
Flux wymaga mocniejszej karty graficznej, realnie komfortowo pracuje się przy 12–16 GB VRAM
Qwen Image i Qwen Image Edit
Najnowszym modelem, z którego korzystam, jest Qwen w wersjach Qwen Image oraz do rekonstrukcji zdjęć Qwen Image Edit (2509). Używam go wyłącznie przez ComfyUI. Qwen to nowy projekt, który szybko się rozwija i ma coraz większe wsparcie społeczności.
Na początku byłem przekonany, że Flux jest lepszy, ale po dłuższej pracy z Qwen i pojawieniu się kilku dodatków społecznościowych nie jestem już tego pewien. Qwen lepiej radzi sobie z mniej uszkodzonymi zdjęciami, detale wyglądają naturalniej, a artefakty są mniej widoczne. Przy mocniej zniszczonych fotografiach lepsze efekty daje Flux. W praktyce zależy to od rodzaju zdjęcia i rodzaju uszkodzeń.
Qwen ma większe wymagania sprzętowe niż Flux, oprócz VRAM-u potrzebna jest też spora ilość RAM-u w systemie. Generowanie obrazów trwa dłużej, choć można je przyspieszyć, korzystając z LoRA Lightning (kosztem części detali i spójności tekstur).
Na dziś trudno wskazać, który model jest lepszy. Flux i Qwen są porównywalne, ale każdy sprawdza się w innych zadaniach. Flux, moim zdaniem, wydaje się mieć niewielką przewagę, ale wraz ze społecznościowym rozwojem Qwen różnica się zmniejsza. Z drugiej strony pojawiają się informacje o nowej wersji Flux, która może zmienić układ sił. Efekty pracy Qwen, podobnie jak w przypadku pozostałych modeli, traktuję jako punkt wyjścia do dalszej obróbki.
Interfejsy graficzne, z których korzystam
Pisząc „Interfejsy graficzne” mam na myśli „nakładki graficzne” -środowiska – na modele generujące grafikę, ułatwiają one pracę, pozwalają wygodnie sterować parametrami i porządkować cały proces bez konieczności ręcznego uruchamiania skryptów.
Fooocus
Fooocus – najstarszy z wymienionych, dziś praktycznie już niewspierany. Działa tylko z Stable Diffusion XL (oraz ze starszym Stable Diffusion 1.5), co jest jego największą wadą. Ma jednak kilka zalet. Dzięki wbudowanym mechanizmom podczas inpaintingu można pracować na zdjęciach o dużych rozmiarach bez konieczności skalowania, to bardzo wygodne i przyspiesza pracę. Sam inpaint działa prosto i skutecznie. W większości nowszych interfejsów, łącznie z ComfyUI, przy dużych obrazach trzeba korzystać z pomniejszania lub kafelkowania (dzielenia obrazu na fragmenty). Fooocus używam wyłącznie ze względu na możliwość inpaintingu bez skalowania zdjęć.
Forge
Forge – jest wersją rozwojową Automatic1111. W Forge można pracować ze Stable Diffusion XL i Flux, standardowa wersja Forge nie współpracuje z Qwen (wymaga on Forge Neo). Z Forge korzystam głównie z Flux. Jego największą zaletą jest optymalizacja i szybkość działania. W porównaniu z moimi typowymi workflowami w ComfyUI generowanie obrazów bywa nawet o około 40% szybsze. Jeśli potrzebuję większej liczby wariantów, ma to duże znaczenie. Podstawowa funkcjonalność jest zbliżona do Fooocus, jednak Forge obsługuje ControlNet i posiada ogromną liczbę dodatków społecznościowych. Podsumowują, Forge nie jest zły, ale wolę ComfyUI. Używam go wyłącznie ze względu na optymalizację i szybkość. Gdyby nie te zalety, korzystałbym tylko z ComfyUI.
ComfyUI
ComfyUI – to narzędzie o największych możliwościach z całej trójki. Pozwala uruchamiać każdy model do generowania grafiki, a także tworzyć video i audio. Praca opiera się na węzłach (nodach). Jeśli ktoś miał do czynienia z Blenderem, DaVinci Resolve lub n8n, bardzo szybko odnajdzie się w ComfyUI, logika pracy jest podobna i opiera się na łączeniu elementów w czytelny przepływ pracy.
ComfyUI świetnie nadaje się do nietypowych przepływów pracy, eksperymentów i automatyzacji. Jest najbardziej elastyczne, umożliwia tworzenie własnych schematów i dowolne ich modyfikowanie. Dzięki temu sprawdza się zarówno przy prostych zadaniach, jak i złożonych projektach wymagających precyzyjnej kontroli nad procesem generowania obrazu.
Gdyby nie konkretne zalety Fooocus i Forge, o których wspomniałem wyżej, prawdopodobnie korzystałbym wyłącznie z ComfyUI.
Uwaga o kontekście kulturowym
Należy pamiętać, że modele AI, zarówno online, jak i lokalne, były trenowane głównie na zachodnich i azjatyckich zbiorach zdjęć. Fotografie z Polski prawdopodobnie stanowią w nich margines albo nie występują wcale. Dlatego przy rekonstrukcji starych zdjęć efekty mogą wydawać się „amerykańskie” lub w przypadku Qwena z azjatyckim zabarwieniem. To efekt innego kontekstu kulturowego, dlatego tak ważne jest kontrolowanie wyników i ręczna korekta.
Adobe Photoshop
Photoshop również ma coraz więcej funkcji opartych na AI. Najbardziej znane to wypełnienie generatywne i generatywne rozszerzenie. W nowszych wersjach Photoshop potrafi korzystać z różnych modeli (m.in. Firefly, Nano Banana i FLUX.1 Kontext Pro), które można wybierać w ustawieniach. Pierwsze z nich stosuję rzadko przy pracy nad starymi fotografiami, drugie – częściej, np. przy rozszerzaniu kadru.
Bardzo przydatne jest usuwanie obiektów – zarówno przez zaznaczenie, jak i narzędzie pędzla. Program nie tylko usuwa niechciany fragment, ale też inteligentnie wypełnia tło. To ogromna oszczędność czasu.
Z filtrów neuronowych najczęściej korzystam z Retuszu zdjęcia, ale bardzo delikatnie, zbyt mocne ustawienia (sugerowane przez Adobe) potrafią zniszczyć zdjęcie. Czasem używam też filtru Inteligentny portret, szczególnie funkcji „Kierunek spojrzenia”. Przydaje się, gdy klient chce, by osoba na zdjęciu patrzyła w obiektyw. Filtr nie przesuwa oczu, tylko je wymienia, więc wymaga późniejszej korekty, ale mimo to bywa pomocny. Pozostałe filtry neuronowe stosuję sporadycznie.
Photoshop a sztuczna inteligencja
Choć Photoshop ma coraz więcej funkcji AI, traktuję go przede wszystkim jako narzędzie do przygotowania zdjęć pod zewnętrzne algorytmy oraz do końcowego dopracowania efektów. To właśnie w Photoshopie wykonuję najważniejsze poprawki i dopracowuję szczegóły.
Nie oznacza to, że AI zastępuje Photoshopa. Wręcz przeciwnie – praca ręczna, zarówno na początku, jak i na końcu procesu, jest równie istotna jak użycie algorytmów AI. Trudno wskazać równie wszechstronną alternatywę dla Photoshopa (choć kibicuję GIMP-owi). Pojawiające się w sieci tezy, że AI „zabiła” Photoshopa, to mit lub próba przyciągnięcia uwagi.
O autorze
Mam na imię Krzysztof. Od wielu lat zajmuję się renowacją starych fotografii, naprawą uszkodzonych zdjęć i retuszem cyfrowym.
Na co dzień łączę klasyczne techniki pracy w Photoshopie z algorytmami AI, o których piszę na tej stronie, testuję je na realnych zleceniach, a nie tylko na przykładach z internetu.
Pracuję w 100% zdalnie, przygotowując cyfrowe pliki do druku dla klientów z całej Polski. Szczegóły naprawy zdjęć i zasady współpracy znajdziesz na stronie „Naprawa starych zdjęć”.
FAQ – Najczęstsze pytania o AI w naprawie zdjęć
AI potrafi podnieść kontrast, zredukować szum, złagodzić ślady uszkodzeń i częściowo uzupełnić brakujące fragmenty. Na pierwszy rzut oka zdjęcie będzie wyglądać lepiej. Problem w tym, że algorytm, nawet przy dobrze napisanym promcie, nie wie, kogo ani co dokładnie odtwarza, działa na statystyce podobieństw, nie zna osoby na zdjęciu, a jego trening opiera się głównie na zagranicznych materiałach. Gdy zdjęcia są mocno zniszczone, AI często wymyśla detale, zmienia rysy twarzy i klimat zdjęcia.
W praktyce AI ma sens głównie przy zdjęciach w dość dobrym stanie, gdzie tak naprawdę niewiele trzeba naprawiać.
Dlatego efekty AI traktuję jako półprodukt, który dopiero po ręcznych poprawkach nadaje się do pokazania klientowi.
Większość generatorów AI, zarówno online, jak i uruchamianych lokalnie, działa na zasadzie „domyślania się” braków, a nie wiernego odtworzenia konkretnej osoby ze zdjęcia. Model szuka podobnych wzorców w tym, na czym był trenowany, i tworzy nową wersję twarzy lub sceny, zgodną raczej z jego „wyobrażeniem” niż z oryginałem. Technicznie wygląda to efektownie, ale często jest to inne zdjęcie, inspirowane materiałem źródłowym, a nie jego renowacja.
Nic nie stoi na przeszkodzie, żeby samodzielnie spróbować narzędzi AI, zwłaszcza przy zdjęciach w dość dobrym stanie, gdzie nie trzeba wiele poprawiać. W takich sytuacjach jest szansa, że efekt będzie przynajmniej przyzwoity.
Przy mocno zniszczonych fotografiach, szczególnie rodzinnych i nagrobkowych, ryzyko jest dużo większe, ponieważ AI często wymyśla brakujące fragmenty, zmienia rysy twarzy i sprawia, że podobieństwo do zdjęcia źródłowego staje się bardzo umowne. W przypadku zdjęć o dużej wartości sentymentalnej lepiej powierzyć renowację profesjonaliście.
Jak przy każdej nowej technologii, AI rozwiązuje sporo problemów, ale jednocześnie tworzy nowe.
AI przyspiesza wiele etapów, na przykład uzupełnianie tła, naprawę ubrań, redukcję szumu czy tworzenie kilku wariantów tej samej sceny. Przy słabszej jakości zdjęć pojawiają się jednak problemy ze zgodnością z oryginałem oraz różne artefakty, które wymagają ręcznych korekt. Lokalnie uruchamiane modele do generowania grafiki mają spore wymagania sprzętowe, a praca z AI wymaga wiedzy i doświadczenia. Mimo wszystko AI znacząco zwiększa możliwości i wyraźnie przyspiesza pracę.
Jeśli pracujemy na skanach lub cyfrowych kopiach, samo działanie AI nie ma wpływu na oryginał, zawsze można wrócić do pliku źródłowego. Problem jest gdzie indziej, łatwo zaakceptować efekt, który wygląda atrakcyjnie, ale ma niewiele wspólnego z pierwotnym wyglądem osoby na zdjęciu. Dlatego przy ważnych fotografiach warto zachować ostrożność i dbać o to, żeby renowacja nie przerodziła się w całkowitą zmianę charakteru zdjęcia.
Poniżej znajdziesz skróconą wersję artykułu z września 2023, która nadal zawiera wartościowe spostrzeżenia na temat workflow z AI. Choć niektóre opisane w nim techniki dziś stosuję tylko w wybranych przypadkach, materiał znakomicie ilustruje typowe wyzwania i proces naprawy zdjęć przy pomocy algorytmów do odbudowy twarzy.
AI w naprawie zdjęć - algorytmy do rekonstrukcji twarzy
W tym tekście opiszę, jak wykorzystuję AI w naprawie zdjęć, łącząc algorytmy sztucznej inteligencji z ręczną obróbką. Połączenie obu metod wynika z tego, że użycie wyłącznie sztucznej inteligencji, bez ręcznych poprawek, nie daje dobrych rezultatów. Temat ten szybko się rozwija, a opisuję tutaj stan na koniec 2023 roku.
Zdjęcie źródłowe, które wykorzystuję pochodzi ze strony https://www.flickr.com/photos/simpleinsomnia. Jest to portret dziewczyny, który to jak widać ma wiele defektów i braków. Najbardziej widoczne problemy to: uszkodzone oko oraz okolice nosa , brak detali, problemy z kontrastem.
Z lewej (mob. wyżej) strony znajduje się zdjęcie przed rekonstrukcją z prawej po rekonstrukcji.
Czas nie obszedł się ze zdjęciem łagodnie w konsekwencji czego na zdjęciu źródłowym postać zlewa się z tłem. Dlatego pierwszą czynnością jest ręczne poprawienie kontrastu i usunięcie kolorowej poświaty tak aby było więcej widać.
Po pierwszych korektach zdjęcie nie jest ani trochę lepsze, jednak widać więcej, także problemów. Powyższe zdjęcie będzie bazą do dalszych prac.
Próba rekonstrukcji "surowego" zdjęcia bez zastosowania ręcznych korekt
Testowo (nigdy na tym etapie pracy tego nie robię) przedstawię sposób działania kilku popularnych algorytmów do rekonstrukcji twarzy. Przykładem będzie powyższe, niewykończone jeszcze zdjęcie.
Pierwszy algorytm to popularny i moim zdaniem najlepszy do rekonstrukcji twarzy: GFPGAN – Practical face restoration algorithm for old photos or AI-generated faces.
Twarz w jakiś sposób została zrekonstruowana, a raczej wygładzona, reszta … sami widzicie. Pomimo marnych efektów i tak uważam, że ten algorytm jest dobry.
Drugi algorytm to: VQFR – Blind Face Restoration with Vector-Quantized Dictionary and Parallel Decoder
Ten algorytm przeprowadził rekonstrukcję trochę inaczej, ale efekt jest równie słaby jak poprzednio.
Trzecim algorytmem jakiego użyję jest: Microsoft bringing old photos back to life
Jak widać ten algorytm jest wydaje się być najbardziej subtelny, może dlatego, że najmniej zrobił.
Kolejnym, czwartym algorytmem jest AI o nazwie: GPEN – Blind Face Restoration in the Wild
W tym przypadku wyniki działania są trochę dziwne. Algorytm usiłował postarzyć dziewczynę (widać na powiększeniu). Ciekawe jest to, że wszystkie algorytmy (poza AI Microsoftu, który nie podjął się wykonania) uszkodzenie okolic oczu potraktowały jak okulary lub monokl.
Pierwsze podsumowanie
Jak widać, rezultat pierwszego podejścia do rekonstrukcji we wszystkich przypadkach był, delikatnie mówiąc, słaby.
Można wysnuć wniosek, że AI w naprawie zdjęć ma jeszcze wiele nauki przed sobą. Należy jednak pamiętać, że wyniki działania algorytmów zależą od wielu czynników. Są to głownie: jakość zdjęcia źródłowego i rodzaj uszkodzeń na fotografii. Wszystkie (lub prawie wszystkie) algorytmy mają w nazwie “Blind” co w tym przypadku oznacza, że działają “na ślepo” nie wiedząc kogo rekonstruują (nie znają kontekstu). W jakiś sposób to tłumaczy takie a nie inne działanie. Algorytmów do naprawy i rekonstrukcji zdjęć jest dużo więcej niż powyżej zaprezentowałem. Każdy z algorytmów sprawdza się lepiej lub gorzej przy różnych rodzajach fotografii i uszkodzeń na fotografiach. Ciężko było by opisać działanie wszystkich AI w naprawie zdjęć, należy sprawdzić je praktycznie.
Ręczne poprawki i działanie AI po ich zastosowaniu.
Choć AI w naprawie zdjęć zyskuje na popularności, nie zastąpi pracy grafika.Na podstawie powyższych doświadczeń, można wysnuć wniosek, że sztuczna inteligencja nie radzi sobie z „surowymi” , słabej jakości zdjęciami.
Postanowiłem, więc ręcznie doprowadzić zdjęcie do sensowniejszego wyglądu. Z mojego doświadczenia wynika, że właśnie pierwszym etapem rekonstrukcji powinno być ręczne poprawienie największych defektów, a następnej kolejności można użyć AI. Choć AI w naprawie zdjęć zyskuje na popularności. to nie zastąpi pracy grafika.
Na powyższym zdjęciu zastosowałem kilka prostych zabiegów, aby poprawić jego jakość. Usunąłem „ręcznie” najbardziej widoczne uszkodzenia oraz pozbyłem się resztek koloru. Aby zredukować uszkodzoną teksturę z twarzy, zdjęcie zostało delikatnie rozmyte. Na końcu planuję dodać sztuczną fakturę, aby uzyskać lepszy efekt.
Dzięki temu, że usunąłem już najbardziej widoczne uszkodzenia i poprawiłem ogólną jakość zdjęcia, algorytm AI będzie miał łatwiejsze zadanie.
Zdjęcie ponownie „przepuściłem” przez AI tym razem tylko przez : GFPGAN, ponieważ tak jak napisałem wyżej ten algorytm jest moim zdaniem najlepszy.
Jak widać, efekt (zdjęcie z lewej) jest bez wątpienia lepszy niż w przypadku pierwszego podejścia. Niemniej jednak, nadal nie jest idealny. Podczas ręcznych poprawek (celowo) nieco niedbale dosztukowałem oko, co zostało błędnie zinterpretowane przez algorytm AI jako monokl. Niestety, AI nie był w stanie zauważyć, że monokl nie pasuje do osoby na zdjęciu. Nie należy jednak wymagać zbyt wiele – niewątpliwie jest postęp, zdjęcie wygląda lepiej. Nie pozostało nic innego, jak ręcznie poprawić efekty pracy AI, przede wszystkim usuwając ten nieszczęsny monokl (zdjęcie z prawej).
Kolejnym etapem było nałożenie poprawionego efektu pracy AI na wcześniej obrabianą wersję zdjęcia. Chciałem zaznaczyć, że nie pracuję bezpośrednio na wersji wygenerowanej przez AI, ponieważ może ona wyglądać dość sztucznie.Nałożyłem warstwę z efektem pracy AI jako warstwę z kryciem 50%. Oprócz nałożenia warstwy z efektem AI, dokonałem także kilku poprawek w okolicy oczu, skóry i włosów.
AI ponowne użycie
Po zastosowaniu powyższych poprawek „ponownie” przepuściłem zdjęcie przez GFPGAN, dzięki czemu jestem bliżej celu, jednak zdjęciu nadal sporo brakuje.
Tym razem żadnych ręcznych poprawek bezpośrednio na wyniku pracy AI nie zrobiłem. Warstwę skopiowałem do poprzednio edytowanego pliku z kryciem 65%, częściowo maskując fragmenty które w poprzedniej wersji były przyzwoite. Na całości jednak wprowadziłem sporo korekt.
W finalnej wersji zdjęcia skupiłem się na poprawie detali, wykonując wiele poprawek. Starałem się dopasować usta i oczy do tego jak wyglądały na zdjęciu źródłowym. Na tego typu zdjęciach nie ma raczej mowy o współcześnie pojmowanym foto-realizmie. Dodałem, więc sporo kontrastu i zastosowałem sztuczną fakturę, która ma za zadanie zamaskować defekty i nadać klimatu zdjęciu. Sztuczna faktura jest widoczna tylko przy powiększeniu zdjęcia. Na zdjęcie dodałem również poświatę, która jest podobna do tego, jaka była na zdjęciu źródłowym.
AI do rekonstrukcji twarzy - podsumowanie
Oznacza to, że aby AI dobrze zadziałało, musi mieć odpowiednio (ręcznie) przygotowany materiał wejściowy.Podsumowując, korzystając z AI w naprawie zdjęć, warto pamiętać o ograniczeniach, zwłaszcza w przypadku mocno uszkodzonych fotografii. Wyniki takiej naprawy mogą być odwrotne od zamierzonych, lub marne.
Jednak połączenie ręcznej obróbki z naprawą proponowaną przez AI może prowadzić do bardzo dobrych rezultatów. Warto zauważyć, że im lepszy jest stan zdjęcia, tym lepszy będzie końcowy efekt po procesowaniu przez AI. Oznacza to, ze aby AI dobrze zadziałało musi mieć odpowiednio (ręcznie) przygotowany materiał wejściowy.
Jeśli temat Cię zainteresował, zapraszam do obejrzenia przykładów i zapoznania się z zasadami współpracy na stronie poświęconej naprawie starych zdjęć.
