AI w naprawie zdjęć

Strona w przebudowie.

Temat jest bardzo dynamiczny, a tekst aktualny na połowę listopada 2025 roku. Algorytmów AI, które można wykorzystać do pracy nad starymi fotografiami, jest dziś naprawdę sporo. Krótko opisuję te, z których korzystam najczęściej. Na własny użytek dzielę je na trzy grupy:

  • Generatory online, takie jak Nano Banana, Seedream czy GPT Image.

  • Algorytmy offline do odbudowy twarzy, np. GFPGAN i CodeFormer.

  • Generatory offline do rekonstrukcji całych fotografii, uruchamiane lokalnie – Stable Diffusion XL, Flux i Qwen.

Opisuję je wyłącznie w kontekście pracy nad starymi fotografiami i tylko te, które faktycznie stosuję w codziennej pracy. To moje osobiste, subiektywne obserwacje oparte na praktyce.

Generatory online

Generatory online to najszybszy sposób na sprawdzenie, co współczesne algorytmy potrafią „wyciągnąć” ze starej fotografii. Działają w przeglądarce, nie wymagają instalacji i pozwalają szybko przetestować różne podejścia do rekonstrukcji.
W praktyce traktuję je jako narzędzie pomocnicze – dobre do testów i tworzenia półproduktów.

Nano Banana

Nano Banana od Google w krótkim czasie stała się jednym z najpopularniejszych generatorów . Trzeba przyznać, że jeśli nie analizować szczegółów, efekty potrafią zrobić wrażenie. Nano Banana najlepiej radzi sobie z twarzami – przynajmniej na pierwszy rzut oka. Przy zdjęciach w dobrym stanie algorytm poradzi sobie całkiem nieźle, ale przy większych uszkodzeniach AI „domyśla się” brakujących szczegółów, często tworząc dość podobną, ale jednak inną osobę. Nano Banana sprawdzi się więc głównie przy takich zdjęciach, gdy podobieństwo postaci nie ma kluczowego znaczenia – np. w przypadku fotografii osób, których nie znaliśmy. Wtedy efekt może wydawać się przekonujący. Jeśli jednak rekonstruujemy zdjęcie osoby, którą znaliśmy, rezultat może rozczarować – będzie to ktoś bardzo podobny, ale nie ta sama osoba. Wygenerowane grafiki bywają użyteczne jako półprodukt do dalszej obróbki.

Seedream 4.0

Drugim generatorem, z którego korzystam, jest Seedream 4.0. Sprawdza się dobrze przy zdjęciach z lat 80. i 90. XX wieku – zwłaszcza przy korygowaniu poruszeń i nieostrości. Bywa niezastąpiony przy naprawie amatorskich zdjęć z tego okresu. Nie nadaje się jednak do uzupełniania mocno uszkodzonych twarzy – w takich przypadkach zmienia je zbyt mocno. Przy specyficznych zdjęciach używam grafik z Seedream jako półproduktów – np. masek pomocniczych w Photoshopie.

GPT Image 1

Kolejnym narzędziem jest GPT Image 1. Jego największą zaletą jest podatność na prompty – można dość precyzyjnie kontrolować zmiany w obrazie. Sprawdza się przy modyfikacjach poszczególnych elementów, np. przy zmianie ubrania. Styl grafik z GPT Image jest charakterystyczny – mają swój urok, ale zwykle wymagają dalszej obróbki. Nie używam go do odbudowy twarzy – detale bywają przesadzone, a podobieństwo do osoby z oryginału jest raczej umowne. Podobnie jak inne generatory, traktuję GPT Image jako źródło materiału do dalszej pracy.

Uwaga o generatorach online

Warto podkreślić, że efekt działania takich narzędzi – jeśli potraktować go jako produkt końcowy – nie jest odnowieniem ani retuszem, tylko raczej reinterpretacją zdjęcia. W mojej pracy nie zdarzyło się, abym przesłał klientowi gotowy obraz wygenerowany w całości przez AI. Traktuję je jako pomoc, półprodukt lub punkt wyjścia do dalszej, ręcznej obróbki. Szczegółowy opis mojej oferty renowacji zdjęć – opartej na pracy ręcznej oraz AI – znajdziesz tutaj.

Algorytmy do odbudowy twarzy

Przywracanie twarzy to osobny etap pracy, ponieważ stanowi najtrudniejszy element naprawy zdjęcia – wymaga największej precyzji i doświadczenia, by zachować zgodność z oryginałem.

Do odbudowy twarzy najczęściej używam dwóch algorytmów: GFPGAN i CodeFormer. Oba mają tendencję do zamieniania elementów twarzy – oczu, nosa, ust czy uszu – dlatego efekty ich pracy wymagają korekty w Photoshopie. Im gorszy stan zdjęcia źródłowego, tym bardziej wynik odbiega od oryginału.

Przy mocno uszkodzonych fotografiach, bez kontroli i maskowania, widać typowe ślady działania AI: zmienione rysy, artefakty, nadmierne wygładzenie, czasem nawet zmianę wyglądu etnicznego osoby. Dlatego przed uruchomieniem algorytmu przygotowuję zdjęcie w Photoshopie – ręcznie usuwam najpoważniejsze uszkodzenia, a później, po przetworzeniu, poprawiam efekty. W trudnych przypadkach potrzebne jest zazwyczaj kilka takich przebiegów z różnym kryciem oraz ręczne maskowanie.
Więcej informacji o rekonstrukcji zdjęć oraz przykładach mojej pracy umieściłem na tej stronie.

Przy bardziej zniszczonych zdjęciach lepsze efekty daje CodeFormer (choć mniej wiernie oddaje oryginał), natomiast GFPGAN sprawdza się przy zdjęciach w lepszym stanie. Zaletą CodeFormer jest możliwość regulacji siły działania – różne ustawienia dają różne efekty.

Oba algorytmy uruchamiam lokalnie przez Forge. W moim skrypcie tworzę jedną grafikę z GFPGAN i trzy z CodeFormer, z różnymi ustawieniami. Najczęściej ostatecznie wybieram rezultat z GFPGAN, ale nie ma tu stałej reguły.

(Na dole tej strony znajduje się starsza wersja tego tekstu z września 2023 roku – dziś już częściowo nieaktualna, ale dobrze pokazuje typowe problemy i workflow przy pracy z AI).

Generatory offline - lokalne

Podczas lokalnej pracy używam Stable Diffusion XL, Flux i Qwen – uruchamianych przez ComfyUI, Forge lub Fooocus. Generatory offline dają mi pełną kontrolę nad procesem, pozwalają pracować bez połączenia z internetem, co ma znaczenie przy większych projektach i zachowaniu prywatności.

Stable Diffusion XL

Zacznę od najstarszego modelu Stable Diffusion XL (SDXL). To model z połowy 2023 roku, więc jak na realia AI jest dojrzały i dobrze dopracowany. Można powiedzieć, że to „stara technologia”, ale nadal użyteczna. Ma wiele dodatków społecznościowych – ogromną liczbę specjalizowanych checkpointów i LoRA – oraz niewielkie wymagania sprzętowe (8 GB VRAM wystarcza), dzięki czemu działa relatywnie szybko. Najczęściej używam go przez Fooocus. SDXL w tym środowisku sprawdza się świetnie przy inpaintingu, czyli uzupełnianiu lub poprawie fragmentów zdjęcia. Przy odpowiednich checkpointach i LoRA można szybko tworzyć różne warianty wybranego obszaru fotografii, jednak wymaga to doświadczenia i wyczucia parametrów. W Fooocus można pracować na plikach o dużym rozmiarze, co eliminuje potrzebę ręcznej zmiany ich rozmiaru i bardzo przyspiesza pracę.

Jakość efektów pracy SDXL można porównać z generatorami online, ale tylko w zakresie edycji fragmentów zdjęcia. W tym obszarze działa znacznie szybciej, szczególnie gdy potrzebne są liczne warianty tej samej grafiki. Najczęściej wykorzystuję go do poprawy ubrań lub elementów tła jako alternatywę dla wypełnienia generatywnego w Photoshopie.

Nie polecam natomiast SDXL do rekonstrukcji całych zdjęć, ponieważ twarze często ulegają zniekształceniu, a przy większej sile działania (denoising strength – parametr określający intensywność modyfikacji obrazu) pojawiają się artefakty.

Flux

Flux to nowsza technologia w porównaniu do Stable Diffusion XL – pierwsze wersje pojawiły się w 2024 roku. Model występuje w wielu odmianach: Schnell – szybki, uproszczony wariant do testów, Dev – wariant bazowy z większą kontrolą nad detalami, oraz Pro – wariant komercyjny dostępny przez API. Flux ma sporo narzędzi pomocniczych – m.in. Kontext, Krea i Fill. Używam go głównie przez ComfyUI lub Forge.

Do Flux dostępnych jest wiele dodatków społecznościowych – checkpointy i LoRA trenowane pod kątem określonych zastosowań. Nie ma ich jeszcze tyle co dla SDXL, ale wybór jest solidny.

W przeciwieństwie do SDXL, Flux lepiej nadaje się do rekonstrukcji całokształtu fotografii – choć z twarzami w standardowych wariantach radzi sobie słabo. Ma skłonność do zbyt dużych zmian na scenie, ale przy niskim denoisingu (sile działania) potrafi być bardzo użyteczny.

Twarze generowane przez Flux często wyglądają sztucznie – są przesadnie gładkie, o karykaturalnej mimice. Ze zmodyfikowanymi checkpointami i LoRA wygląda to lepiej, ale moim zdaniem nadal nie wygląda naturalnie. Czasem wykorzystuję Flux do naprawy włosów lub okolic szyi, ale do twarzy go nie używam.

Flux wymaga mocniejszej karty graficznej – do komfortowej pracy potrzeba co najmniej 16 GB VRAM.

Qwen Image i Qwen Image Edit

Najnowszym modelem, z którego korzystam, jest Qwen – w wersjach Qwen Image oraz do rekonstrukcji zdjęć Qwen Image Edit (2509). Używam go wyłącznie przez ComfyUI. Qwen to nowy projekt, który szybko się rozwija i ma coraz większe wsparcie społeczności.

Na początku byłem przekonany, że Flux jest lepszy, ale po dłuższej pracy z Qwen i pojawieniu się kilku dodatków społecznościowych nie jestem już tego pewien. Qwen lepiej radzi sobie z mniej uszkodzonymi zdjęciami – detale wyglądają naturalniej, a artefakty są mniej widoczne. Przy mocniej zniszczonych fotografiach lepsze efekty daje Flux. W praktyce zależy to od rodzaju zdjęcia i rodzaju uszkodzeń.

Qwen ma większe wymagania sprzętowe niż Flux – potrzebny jest nie tylko VRAM, ale też sporo RAM-u. Generowanie obrazów trwa dłużej, choć można je przyspieszyć, korzystając z LoRA Lightning (kosztem jakości).

Na dziś trudno wskazać, który model jest lepszy. Flux i Qwen są porównywalne, ale każdy sprawdza się w innych zadaniach. Flux, moim zdaniem, wydaje się mieć niewielką przewagę, ale wraz ze społecznościowym rozwojem Qwen różnica się zmniejsza. Z drugiej strony pojawiają się informacje o nowej wersji Flux, która może zmienić układ sił. Efekty pracy Qwen, podobnie jak w przypadku pozostałych modeli, traktuję jako punkt wyjścia do dalszej obróbki.

Interfejsy graficzne, z których korzystam

Pisząc „Interfejsy graficzne” mam na myśli  „nakładki graficzne” -środowiska – na modele generujące grafikę – ułatwiają pracę, pozwalają wygodnie sterować parametrami i porządkować cały proces bez konieczności ręcznego uruchamiania skryptów.

Fooocus

Fooocus – najstarszy z wymienionych, dziś praktycznie już niewspierany. Działa tylko z Stable Diffusion XL (oraz ze starszym Stable Diffusion 1.5), co jest jego największą wadą. Ma jednak kilka zalet. Dzięki wbudowanym mechanizmom podczas inpaintingu można pracować na zdjęciach o dużych rozmiarach bez konieczności skalowania – to bardzo wygodne i przyspiesza pracę. Sam inpaint działa prosto i skutecznie. W żadnym nowszym interfejsie, łącznie z ComfyUI, nie ma możliwości pracy na dużych obrazach bez zmniejszenia ich rozmiaru lub kafelkowania (dzielenia dużego obrazu na mniejsze fragmenty). Fooocus używam wyłącznie ze względu na możliwość inpaintingu bez skalowania zdjęć.

Forge

Forge – jest wersją rozwojową Automatic1111. W Forge można pracować ze Stable Diffusion XL i Flux, standardowa wersja Forge nie współpracuje z Qwen (wymaga on Forge Neo). Z Forge korzystam głównie z Flux. Jego największą zaletą jest optymalizacja i szybkość działania. W porównaniu do ComfyUI generowanie obrazów jest około 40% szybsze. Jeśli potrzebuję większej liczby wariantów, ma to duże znaczenie. Podstawowa funkcjonalność jest zbliżona do Fooocus, jednak Forge obsługuje ControlNet i posiada ogromną liczbę dodatków społecznościowych. Podsumowując – Forge nie jest zły, ale wolę ComfyUI. Używam go wyłącznie ze względu na optymalizację i szybkość. Gdyby nie te zalety, korzystałbym tylko z ComfyUI.

ComfyUI

ComfyUI – to narzędzie o największych możliwościach z całej trójki. Pozwala uruchamiać każdy model do generowania grafiki, a także tworzyć video i audio. Praca opiera się na węzłach (nodach). Jeśli ktoś miał do czynienia z Blenderem, DaVinci Resolve lub n8n, bardzo szybko odnajdzie się w ComfyUI – logika pracy jest podobna i opiera się na łączeniu elementów w czytelny przepływ pracy.

ComfyUI świetnie nadaje się do nietypowych przepływów pracy, eksperymentów i automatyzacji. Jest najbardziej elastyczne – umożliwia tworzenie własnych schematów i dowolne ich modyfikowanie. Dzięki temu sprawdza się zarówno przy prostych zadaniach, jak i złożonych projektach wymagających precyzyjnej kontroli nad procesem generowania obrazu.
Gdyby nie zalety Fooocus i Forge, o których wspomniałem wyżej, korzystałbym wyłącznie z ComfyUI.

Uwaga o kontekście kulturowym

Należy pamiętać, że modele AI – zarówno online, jak i lokalne – były trenowane głównie na zachodnich i azjatyckich zbiorach zdjęć. Fotografie z Polski stanowiły w nich margines lub nie było ich wcale. Dlatego przy rekonstrukcji starych zdjęć efekty mogą wydawać się „amerykańskie” lub w przypadku Qwena – z azjatyckim zabarwieniem. To efekt innego kontekstu kulturowego, dlatego tak ważne jest kontrolowanie wyników i ręczna korekta.

Adobe Photoshop

Photoshop również ma coraz więcej funkcji opartych na AI. Najbardziej znane to wypełnienie generatywne (po ostatnich aktualizacjach oparte m.in. na Nano Banana i Flux Kontext Pro) i generatywne rozszerzenie. Pierwsze z nich stosuję rzadko przy pracy nad starymi fotografiami, drugie – częściej, np. przy rozszerzaniu kadru.

Bardzo przydatne jest usuwanie obiektów – zarówno przez zaznaczenie, jak i narzędzie pędzla. Program nie tylko usuwa niechciany fragment, ale też inteligentnie wypełnia tło. To ogromna oszczędność czasu.

Z filtrów neuronowych najczęściej korzystam z Retuszu zdjęcia, ale bardzo delikatnie – zbyt mocne ustawienia (sugerowane przez Adobe) potrafią zniszczyć zdjęcie. Czasem używam też filtru Inteligentny portret, szczególnie funkcji „Kierunek spojrzenia”. Przydaje się, gdy klient chce, by osoba na zdjęciu patrzyła w obiektyw. Filtr nie przesuwa oczu, tylko je wymienia, więc wymaga późniejszej korekty, ale mimo to bywa pomocny. Pozostałe filtry neuronowe stosuję sporadycznie.

Photoshop a sztuczna inteligencja

Choć Photoshop ma coraz więcej funkcji AI, traktuję go przede wszystkim jako narzędzie do przygotowania zdjęć pod zewnętrzne algorytmy oraz do końcowego dopracowania efektów. To właśnie w Photoshopie wykonuję najważniejsze poprawki i dopracowuję szczegóły.

Nie oznacza to, że AI zastępuje Photoshopa. Wręcz przeciwnie – praca ręczna, zarówno na początku, jak i na końcu procesu, jest równie istotna jak użycie algorytmów AI. Trudno wskazać równie wszechstronną alternatywę dla Photoshopa (choć kibicuję GIMP-owi). Pojawiające się w sieci tezy, że AI „zabiła” Photoshopa, to mit lub próba przyciągnięcia uwagi.

Poniżej znajdziesz skróconą wersję artykułu z września 2023, która nadal zawiera wartościowe spostrzeżenia na temat workflow z AI. Choć niektóre opisane w nim techniki dziś stosuję tylko w wybranych przypadkach, materiał znakomicie ilustruje typowe wyzwania i proces naprawy zdjęć przy pomocy algorytmów do odbudowy twarzy.

AI w naprawie zdjęć - algorytmy do rekonstrukcji twarzy

W tym tekście opiszę, jak wykorzystuję AI w naprawie zdjęć, łącząc algorytmy sztucznej inteligencji z ręczną obróbką. Połącznie obu metod spowodowane jest tym, że  użycie tylko sztucznej inteligencji, bez ręcznych poprawek nie daje dobrych rezultatów. Temat ten szybko się rozwija, a opisuję tutaj stan na koniec 2023 roku
Zdjęcie źródłowe, które wykorzystuję pochodzi ze strony https://www.flickr.com/photos/simpleinsomnia. Jest to portret dziewczyny, który to jak widać ma wiele defektów i braków. Najbardziej widoczne problemy to: uszkodzone oko oraz okolice nosa , brak detali, problemy z kontrastem. 

Z lewej (mob. wyżej) strony znajduje się zdjęcie przed rekonstrukcją z prawej po rekonstrukcji.

Czas nie obszedł się ze zdjęciem łagodnie w konsekwencji czego na zdjęciu źródłowym postać zlewa się z tłem. Dlatego pierwszą czynnością jest ręczne poprawienie kontrastu i usunięcie kolorowej poświaty tak aby było więcej widać.

Po pierwszych korektach zdjęcie nie jest ani trochę lepsze, jednak widać więcej, także problemów. Powyższe zdjęcie będzie bazą do dalszych prac.

Próba rekonstrukcji "surowego" zdjęcia bez zastosowania ręcznych korekt

Testowo (raczej nigdy na tym etapie pracy tego nie robię), przedstawię sposób działania popularnych algorytmów do rekonstrukcji twarzy  Przykładem będzie powyższe niewykończone zdjęcie. 
Pierwszy algorytm to popularny i moim zdaniem najlepszy do rekonstrukcji twarzy: GFPGANPractical face restoration algorithm for old photos or AI-generated faces.

Twarz w jakiś sposób została zrekonstruowana, a raczej wygładzona, reszta … sami widzicie. Pomimo marnych efektów i tak uważam, że ten algorytm jest dobry.

Drugi algorytm to:  VQFR Blind Face Restoration with Vector-Quantized Dictionary and Parallel Decoder

Ten algorytm przeprowadził rekonstrukcję trochę inaczej, ale efekt jest bez wątpienia równie słaby jak poprzednio.

Trzecim algorytmem jakiego użyję jest:  Microsoft bringing old photos back to life

Jak widać ten algorytm jest wydaje się być najbardziej subtelny, może dlatego, że najmniej zrobił.

Kolejnym, czwartym algorytmem jest AI o nazwie: GPENBlind Face Restoration in the Wild 

W tym przypadku wyniki działania są trochę dziwne. Algorytm usiłował postarzyć dziewczynę (widać na powiększeniu). Ciekawe jest to, że wszystkie algorytmy (poza AI Microsoftu, który nie podjął się wykonania) uszkodzenie  okolic oczu potraktowały jak okulary lub monokl.

Pierwsze podsumowanie

Jak widać rezultat pierwszego podejścia do rekonstrukcji w przypadku wszystkich algorytmów był delikatnie rzecz ujmując słaby .
Można wysnuć wniosek, że AI w naprawie zdjęć ma jeszcze wiele nauki przed sobą. Należy jednak pamiętać, że wyniki działania algorytmów zależą od wielu czynników. Są to głownie: jakość zdjęcia źródłowego i rodzaj uszkodzeń na fotografii. Wszystkie (lub prawie wszystkie) algorytmy mają w nazwie “Blind” co w tym przypadku oznacza, że działają “na ślepo” nie wiedząc kogo rekonstruują (nie znają kontekstu). W jakiś sposób to tłumaczy takie a nie inne działanieAlgorytmów do naprawy i rekonstrukcji zdjęć jest dużo więcej niż powyżej zaprezentowałem. Każdy z algorytmów sprawdza się lepiej lub gorzej przy różnych rodzajach fotografii i uszkodzeń na fotografiach. Ciężko było by opisać działanie wszystkich AI w naprawie zdjęć, należy sprawdzić je praktycznie.

Ręczne poprawki i działanie AI w naprawie zdjęć po zastosowaniu poprawek.

Na podstawie powyższych doświadczeń, można wysnuć wniosek, że sztuczna inteligencja nie radzi sobie z „surowymi” , słabej jakości zdjęciami.
Postanowiłem, więc ręcznie doprowadzić zdjęcie do sensowniejszego wyglądu. 
Z mojego doświadczenia wynika, że właśnie pierwszym etapem rekonstrukcji powinno być ręczne poprawienie największych defektów, a następnej kolejności można użyć AI. Choć AI w naprawie zdjęć zyskuje na popularności. to nie zastąpi pracy grafika.

Na powyższym zdjęciu zastosowałem kilka prostych zabiegów, aby poprawić jego jakość. Usunąłem „ręcznie” najbardziej widoczne uszkodzenia oraz pozbyłem się resztek koloru. Aby zredukować uszkodzoną teksturę z twarzy, zdjęcie zostało delikatnie rozmyte. Na końcu planuję dodać sztuczną fakturę, aby uzyskać lepszy efekt. 

Dzięki temu, że usunąłem już najbardziej widoczne uszkodzenia i poprawiłem ogólną jakość zdjęcia, algorytm AI będzie miał łatwiejsze zadanie.

 Zdjęcie ponownie „przepuściłem” przez AI tym razem tylko przez : GFPGAN, ponieważ tak jak napisałem wyżej ten algorytm jest moim zdaniem najlepszy.

Jak widać, efekt (zdjęcie z lewej) jest bez wątpienia lepszy niż w przypadku pierwszego podejścia. Niemniej jednak, nadal nie jest idealny. Podczas ręcznych poprawek (celowo) nieco niedbale dosztukowałem oko, co zostało błędnie zinterpretowane przez algorytm AI jako monokl. Niestety, AI nie był w stanie zauważyć, że monokl nie pasuje do osoby na zdjęciu. Nie należy jednak wymagać zbyt wiele – niewątpliwie jest  postęp, zdjęcie wygląda lepiej. Nie pozostało nic innego, jak ręcznie poprawić efekty pracy AI, przede wszystkim usuwając ten nieszczęsny monokl (zdjęcie z prawej).  

Kolejnym etapem było nałożenie poprawionego efektu pracy AI na wcześniej obrabianą wersję zdjęcia. Chciałem zaznaczyć, że nie pracuję bezpośrednio na wersji wygenerowanej przez AI, ponieważ może ona wyglądać dość sztucznie.Nałożyłem warstwę z efektem pracy AI jako warstwę z kryciem 50%. Oprócz nałożenia warstwy z efektem AI, dokonałem także kilku poprawek w okolicy oczu, skóry i włosów. 

AI ponowne użycie

Po zastosowaniu powyższych poprawek „ponownie” przepuściłem zdjęcie przez GFPGAN, dzięki czemu jestem bliżej celu, jednak zdjęciu nadal sporo brakuje.

Sztuczna Inteligencja w naprawie i koloryzacji starych zdjęć. Koloryzacja zdjęć, baza czarno biała do koloryzacji.
Sztuczna Inteligencja w naprawie i koloryzacji starych zdjęć. Koloryzacja zdjęć, baza czarno biała do koloryzacji.

Tym razem żadnych ręcznych poprawek bezpośrednio  na wyniku pracy AI nie zrobiłem. Warstwę skopiowałem do poprzednio edytowanego pliku z kryciem 65%, częściowo maskując fragmenty które w poprzedniej wersji były przyzwoite. Na całości jednak wprowadziłem sporo korekt.

W finalnej wersji zdjęcia skupiłem się na poprawie detali, wykonując wiele poprawek. Starałem się dopasować usta i oczy do tego jak wyglądały na zdjęciu źródłowym. Na tego typu zdjęciach nie ma raczej mowy o współcześnie pojmowanym foto-realizmie. Dodałem, więc sporo kontrastu i zastosowałem sztuczną fakturę, która ma za zadanie zamaskować defekty i nadać klimatu zdjęciu. Sztuczna faktura jest widoczna tylko przy powiększeniu zdjęcia. Na zdjęcie dodałem również poświatę, która jest podobna do tego, jaka była na zdjęciu źródłowym.

AI w naprawie zdjęć - podsumowanie

Podsumowując, korzystając z AI w naprawie zdjęć, warto pamiętać o ograniczeniach, zwłaszcza w przypadku mocno uszkodzonych fotografii. Wyniki takiej naprawy mogą być odwrotne od zamierzonych, lub marne.
Jednak
połączenie ręcznej obróbki z naprawą proponowaną przez AI może prowadzić do bardzo dobrych rezultatów. Warto zauważyć, że im lepszy jest stan zdjęcia, tym lepszy będzie końcowy efekt po procesowaniu przez AI. Oznacza to, ze aby AI dobrze zadziałało musi mieć odpowiednio (ręcznie) przygotowany materiał wejściowy. 

Jeśli jesteście Państwo zainteresowani zapraszam do obejrzenia przykładów, zapoznania się z zasadami współpracy i składania zleceńWięcej przykładów znajduje się w moim portfolio.

www.fotokrr.pl – Retusz i Szparowanie zdjęć. Tel. +48 519 323 891 mail: info@fotokrr.pl , krrgrafika@gmail.com    Z A P R A S Z A M