

Retusz zdjęć
Aranżacje AI
Renowacja starych fotografii
Przygotowanie fotografii produktowej
Sztuczna inteligencja w renowacji zdjęć to temat, który rozwija się bardzo dynamicznie. Tekst napisałem w połowie listopada 2025 roku z aktualizacją w lutym 2026 roku. Algorytmów AI, które można wykorzystać do pracy nad starymi fotografiami, jest dziś naprawdę sporo. Krótko opisuję te, z których korzystam najczęściej. Na własny użytek dzielę je na trzy grupy:
Opisuję je wyłącznie w kontekście pracy nad starymi fotografiami i tylko te, które faktycznie stosuję w codziennej pracy. To moje osobiste, subiektywne obserwacje oparte na praktyce.
Generatory online to najprostszy sposób na wykorzystanie AI w renowacji zdjęć. Działają w przeglądarce, nie wymagają instalacji, nie potrzebują lokalnych zasobów komputerowych – pozwalają zobaczyć, jak algorytmy „interpretują” uszkodzone zdjęcie.
W mojej pracy traktuję je jako narzędzie pomocnicze do testów i tworzenia półproduktów, a nie jako gotowe rozwiązanie do wysyłki klientowi.
Nano Banana od Google oraz jego nowsza wersja, Nano Banana Pro, w krótkim czasie stały się jednymi z najpopularniejszych generatorów obrazów. Trzeba przyznać, że jeśli nie analizować szczegółów, efekty potrafią zrobić wrażenie. Nano Banana najlepiej radzi sobie z twarzami – przynajmniej na pierwszy rzut oka.
Przy zdjęciach w dobrym stanie algorytm radzi sobie całkiem nieźle, ale przy większych uszkodzeniach AI „domyśla się” brakujących szczegółów, często tworząc dość podobną, ale jednak inną osobę. Nano Banana sprawdzi się więc głównie przy takich zdjęciach, gdzie idealne podobieństwo nie jest kluczowe (np. fotografie osób, których nie znaliśmy osobiście). Wtedy efekt bywa przekonujący.
Jeśli jednak rekonstruujemy zdjęcie bliskiej osoby, rezultat może rozczarować – otrzymamy kogoś bardzo podobnego, ale to nie będzie ta sama osoba. Wygenerowane grafiki bywają jednak użyteczne jako półprodukt do dalszej obróbki.
Drugim generatorem, z którego korzystam, jest Seedream 4.0. Sprawdza się dobrze podczas pracy ze zdjęciami z lat 80. i 90. ubiegłego wieku, zwłaszcza przy korygowaniu poruszeń i nieostrości. Bywa niezastąpiony przy naprawie amatorskich zdjęć z tego okresu. Nie nadaje się jednak do uzupełniania mocno uszkodzonych twarzy – w takich przypadkach zmienia je zbyt mocno. Przy specyficznych zdjęciach używam grafik z Seedream jako półproduktów np. masek pomocniczych w Photoshopie.
Kolejnym narzędziem jest GPT Image, obecnie w wersji 1.5. Jego największą zaletą pozostaje wysoka podatność na prompty, co pozwala dość precyzyjnie kontrolować zmiany w obrazie. Sprawdza się to świetnie przy modyfikacjach poszczególnych elementów, np. przy zmianie ubrania czy wymianie elementów drugiego planu.
Choć w wersji 1.5 widać wyraźny skok jakościowy i większy realizm, grafiki nadal zachowały swój specyficzny urok. Są estetyczne, ale technicznie – zawsze wymagają dalszej obróbki.
Ze względu na tę specyfikę, kompletnie nie używam tego narzędzia do rekonstrukcji twarzy. Generowane detale są zbyt ostre i przerysowane, a podobieństwo do osoby z oryginału pozostaje w sferze domysłów. Traktuję GPT-Image wyłącznie jako generator tekstur lub tła, a nie narzędzie do kompleksowej rekonstrukcji.
Warto podkreślić, że efekt działania takich narzędzi, jeśli potraktować go jako produkt końcowy – nie jest odnowieniem ani retuszem, tylko raczej reinterpretacją zdjęcia. W mojej pracy nie zdarzyło się, abym przesłał klientowi gotowy obraz wygenerowany w całości przez AI. Traktuję je jako pomoc, półprodukt lub punkt wyjścia do dalszej, ręcznej obróbki.
Szczegółowy opis tego, jak łączę pracę ręczną z algorytmami AI przy naprawie zdjęć, znajdziesz na stronie poświęconej naprawie starych fotografii.
Rekonstrukcja twarzy to najbardziej wymagający etap renowacji. Tutaj margines błędu jest najmniejszy – każda zmiana kształtu oczu, ust czy nosa może sprawić, że osoba na zdjęciu przestaje być do siebie podobna.
Do tego zadania wykorzystuję dwa algorytmy: GFPGAN oraz CodeFormer. Choć nie są to najnowsze rozwiązania, zostały stworzone stricte do odbudowy twarzy i w tym zadaniu wciąż sprawdzają się lepiej niż wiele nowych generatorów ogólnego przeznaczenia.
Te narzędzia nie są bezbłędne. Używane bez nadzoru mają tendencję do zastępowania elementów twarzy (oczu, nosa, ust) generowanymi od nowa wzorcami, których nauczyły się podczas treningu. Im bardziej zniszczone jest zdjęcie źródłowe, tym mocniej algorytm ingeruje w rysy twarzy.
Często algorytm potrzebuje pomocy jeszcze przed startem. Jeśli zdjęcie jest mocno zniszczone (np. rysa przecina oko lub twarz jest nieczytelna), najpierw wstępnie naprawiam i przygotowuję plik w Photoshopie. Dzięki temu AI otrzymuje czytelniejszy obraz i popełnia mniej błędów interpretacyjnych.
Następnie, aby zachować kontrolę, uruchamiam modele lokalnie w środowisku Forge, generując kilka wariantów:
Rzadko zdarza się, by efekt był idealny. Finalny portret powstaje w Photoshopie, gdzie ręcznie łączę najlepsze fragmenty z wygenerowanych wersji, używając różnych wartości krycia warstw.
Więcej informacji o usłudze naprawy znajdziesz na stronie: Naprawa starych zdjęć.
Starszą analizę tego procesu, opartą na przykładach z września 2023 roku, znajdziesz w osobnym artykule. Mimo upływu czasu, dobrze obrazuje ona typowe błędy algorytmów i konieczność ręcznej korekty.
Do zaawansowanych zadań wykorzystuję modele uruchamiane na własnym sprzęcie: Stable Diffusion XL, Flux oraz Qwen (obsługiwane przez ComfyUI, Forge lub Fooocus) Generatory offline dają mi pełną kontrolę nad procesem, pozwalają pracować bez połączenia z internetem, co ma znaczenie przy większych projektach i zachowaniu prywatności.
Zacznę od najstarszego modelu Stable Diffusion XL (SDXL). To model z 2023 (SDXL 1.0) roku, więc jak na realia AI jest dojrzały i dobrze dopracowany. Można powiedzieć, że to „stara technologia”, ale nadal użyteczna. Ma wiele dodatków społecznościowych, ogromną liczbę specjalizowanych checkpointów i LoRA oraz niewielkie wymagania sprzętowe (do sensownej pracy wystarczy karta z ok. 8 GB VRAM), dzięki czemu działa relatywnie szybko.
Najczęściej używam go przez Fooocus. SDXL w tym środowisku sprawdza się świetnie przy inpaintingu, czyli uzupełnianiu lub poprawie fragmentów zdjęcia. Przy odpowiednich checkpointach i LoRA można szybko tworzyć różne warianty wybranego obszaru fotografii, jednak wymaga to doświadczenia i wyczucia parametrów. W Fooocus można pracować na plikach o dużym rozmiarze, co eliminuje potrzebę ręcznej zmiany ich rozmiaru i bardzo przyspiesza pracę.
Jakość efektów pracy SDXL można porównać z generatorami online, ale tylko w zakresie edycji fragmentów zdjęcia. W tym obszarze działa znacznie szybciej, szczególnie gdy potrzebne są liczne warianty tej samej grafiki. Najczęściej wykorzystuję go do poprawy ubrań lub elementów tła jako alternatywę dla wypełnienia generatywnego w Photoshopie.
Nie polecam natomiast SDXL do rekonstrukcji całych zdjęć, ponieważ twarze często ulegają zniekształceniu, a przy większej sile działania (denoising strength – parametr określający intensywność modyfikacji obrazu) pojawiają się artefakty.
Flux to technologia nowsza w porównaniu do Stable Diffusion XL – pierwsze wersje pojawiły się w połowie 2024 roku, a niedawno rodzina ta powiększyła się o potężny model Flux 2. Podstawowy Flux występuje w kilku odmianach: Schnell (szybki wariant do testów), Dev (wariant bazowy dla twórców) oraz Pro.
W codziennej pracy najczęściej korzystam z modeli specjalistycznych, takich jak Kontext (świetny do zachowania spójności fotografii) czy Flux Fill (dedykowany do inpaintingu). Całość obsługuję lokalnie przez ComfyUI lub Forge.
Baza dodatków społecznościowych (checkpointy, LoRA) jest solidna, choć mniejsza niż dla starszego SDXL.
W przeciwieństwie do SDXL, Flux (a zwłaszcza nowy Flux 2) znacznie lepiej „rozumie” całą scenę. Świetnie nadaje się do rekonstrukcji tła, ubrań czy ogólnego klimatu fotografii. Nie używam go jednak jako gotowego rozwiązania „jeden do jednego”. Wygenerowany obraz traktuję jako półprodukt – w Photoshopie nakładam go jako nową warstwę i za pomocą maski odkrywam interesujące mnie elementy fotografii (np. fakturę marynarki).
Mimo postępu, standardowe warianty Fluxa słabo radzą sobie z twarzami w kontekście renowacji. Generowane postacie często wyglądają sztucznie, mają idealnie gładką, „plastikową” skórę i karykaturalną mimikę. Zmodyfikowane checkpointy nieco poprawiają sytuację, ale efekt wciąż nie jest dla mnie w pełni naturalny. Dlatego Fluxa używam do naprawy włosów, szyi czy ubrań, ale do twarzy – nie.
Warto zaznaczyć, że lepsza jakość ma swoją cenę. Flux wymaga przyzwoitej karty graficznej – realny komfort pracy zaczyna się dopiero przy 12–16 GB VRAM. Nowy Flux 2 podnosi poprzeczkę jeszcze wyżej. Jest to model bardzo „ciężki” i powolny w generowaniu nawet na mocnych stacjach roboczych, co bywa uciążliwe.
Flux 2 występuje także w wersji Klein. W tym wariancie wymagania sprzętowe są mniejsze, a generacja szybsza, odbywa się to jednak kosztem jakości.
W moim lokalnym warsztacie istotne miejsce zajmuje model Qwen Image Edit, uruchamiany przez środowisko ComfyUI. Obecnie korzystam głównie z wersji wrześniowej z 2025 roku (oznaczonej jako 2509), która w zadaniach renowacyjnych sprawdza się lepiej niż nowsze wydania.
Dlaczego wersja 2509, a nie nowsza 2511? Choć nowsza edycja (2511) wprowadziła usprawnienia, skupiły się one głównie na lepszym rozumieniu tekstu (OCR) i filtrach bezpieczeństwa. W renowacji to przeszkadza – nowszy model bywa zbyt zachowawczy. Starsza wersja (2509) jest bardziej „odważna” w interpretacji. Jest to nieocenione przy zdjęciach w stanie tragicznym, gdzie struktura obrazu jest prawie nieczytelna i trzeba zrekonstruować formę niemal od zera.
Metoda pracy: Mieszanie warstw i maskowanie. Surowy wynik z Qwena traktuję wyłącznie jako półprodukt. W Photoshopie nakładam go na oryginał, ale rzadko korzystam z pełnego krycia. Kluczem jest odpowiednie ustawienie przezroczystości warstwy oraz precyzyjne maskowanie. Pozwala to „wtopić” nowe elementy w stare zdjęcie tak, aby naprawić uszkodzenia, a jednocześnie nie przesłonić całkowicie oryginalnej faktury i klimatu fotografii.
Wydajność i porównanie z Flux. Oba modele – Flux i Qwen – traktuję jako komplementarne. Dzięki zastosowaniu odpowiednich dodatków przyspieszających (np. LoRA Lightning 4 lub 8 kroków), praca z Qwenem jest płynna i nie odstaje tempem od konkurencji, zwłaszcza że przy starych fotografiach nie zawsze walczymy o ekstremalnie wysoką rozdzielczość.
Ostatecznie trudno wskazać, który model jest „lepszy”. Flux ma inną charakterystykę plastyczną, a Qwen inną logikę rekonstrukcji. W praktyce efekt końcowy zależy zawsze od specyfiki konkretnego zdjęcia i rodzaju uszkodzeń. Czasem kluczem do sukcesu jest Flux, innym razem to Qwen (2509) ratuje ujęcie, na którym inne algorytmy się poddają.
Pisząc „Interfejsy graficzne”, mam na myśli „nakładki graficzne” – środowiska – na modele generujące grafikę. Ułatwiają one pracę, pozwalają wygodnie sterować parametrami i porządkować cały proces bez konieczności ręcznego uruchamiania skryptów.
Fooocus – najstarszy z wymienionych, dziś praktycznie już niewspierany. Działa tylko z Stable Diffusion XL (oraz ze starszym Stable Diffusion 1.5), co jest jego największą wadą. Ma jednak kilka zalet. Dzięki wbudowanym mechanizmom podczas inpaintingu można pracować na zdjęciach o dużych rozmiarach bez konieczności skalowania, to bardzo wygodne i przyspiesza pracę. Sam inpaint działa prosto i skutecznie.
W większości nowszych interfejsów, łącznie z ComfyUI, przy dużych obrazach trzeba korzystać z pomniejszania lub kafelkowania (dzielenia obrazu na fragmenty). Fooocus używam wyłącznie ze względu na możliwość inpaintingu bez skalowania zdjęć.
Forge – jest wersją rozwojową Automatic1111. W Forge można pracować ze Stable Diffusion XL i Flux, standardowa wersja Forge nie współpracuje z Qwen (wymaga on Forge Neo). W Forge korzystam głównie z modeli Flux. Jego największą zaletą jest optymalizacja zarządzania pamięcią i dzięki temu szybkość działania. W porównaniu z niektórymi workflow w ComfyUI generowanie obrazów bywa nawet o około 40% szybsze.
Jeśli potrzebuję większej liczby wariantów, ma to duże znaczenie. Podstawowa funkcjonalność jest zbliżona do Fooocus, jednak Forge obsługuje ControlNet i posiada ogromną liczbę dodatków społecznościowych. Podsumowując, Forge nie jest zły, ale wolę ComfyUI. Używam go wyłącznie ze względu na optymalizację i szybkość. Gdyby nie te zalety, korzystałbym tylko z ComfyUI.
ComfyUI – to narzędzie o największych możliwościach z całej trójki. Pozwala uruchamiać każdy model do generowania grafiki, a także tworzyć video i audio. Praca opiera się na węzłach (nodach). Jeśli ktoś miał do czynienia z Blenderem, DaVinci Resolve lub n8n, bardzo szybko odnajdzie się w ComfyUI, logika pracy jest podobna i opiera się na łączeniu elementów w czytelny przepływ pracy.
ComfyUI świetnie nadaje się do nietypowych przepływów pracy, eksperymentów i automatyzacji. Jest najbardziej elastyczne, umożliwia tworzenie własnych schematów i dowolne ich modyfikowanie. Dzięki temu sprawdza się zarówno przy prostych zadaniach, jak i złożonych projektach wymagających precyzyjnej kontroli nad procesem generowania obrazu.
Gdyby nie konkretne zalety Fooocus i Forge, o których wspomniałem wyżej, prawdopodobnie korzystałbym wyłącznie z ComfyUI.
Interfejs ComfyUI z prostym workflow służącym do koloryzacji zdjęć. Węzłowa struktura pozwala precyzyjnie sterować przebiegiem pracy.
Należy pamiętać, że modele AI, zarówno online, jak i lokalne, były trenowane głównie na zachodnich i azjatyckich zbiorach zdjęć. Fotografie z Polski prawdopodobnie stanowią w nich margines albo nie występują wcale. Dlatego przy rekonstrukcji starych zdjęć efekty mogą wydawać się „amerykańskie” lub w przypadku Qwena z azjatyckim zabarwieniem. To efekt innego kontekstu kulturowego, dlatego tak ważne jest kontrolowanie wyników i ręczna korekta.
Montaż i finalna korekta odbywają się w Photoshopie na wielu niezależnych warstwach.
Photoshop, będący sercem mojego procesu, również ewoluuje, oferując coraz więcej funkcji opartych na sztucznej inteligencji. W najnowszych wersjach zyskał dostęp do tzw. modeli partnerskich, co pozwala uruchamiać potężne silniki (m.in. Nano Banana Pro, FLUX.1 Kontext Pro czy Flux 2 Pro) bezpośrednio z poziomu programu.
Modele partnerskie – wygoda vs. kontrola. Teoretycznie jest to rozwiązanie idealne – dostęp do najnowszych technologii bez wychodzenia z aplikacji. W praktyce napotykam tu jednak na istotne bariery. Po pierwsze, wersje dostępne w Photoshopie są wariantami podstawowymi – poza wpisaniem promptu, nie mam dostępu do kluczowych parametrów decydujących o precyzji.
Po drugie, modele te są objęte restrykcyjną cenzurą, co przy zdjęciach historycznych (np. żołnierzy) często blokuje pracę. Do tego dochodzi ekonomia pracy – korzystanie z tych modeli wymaga dodatkowych opłat (kredyty), które przy metodzie prób i błędów kończą się błyskawicznie. Dlatego traktuję tę funkcję jako pomocniczą, a precyzyjną pracę wykonuję na własnym sprzęcie.
Narzędzia natywne: Wypełnianie i Usuwanie. Z wbudowanych funkcji Photoshopa korzystam selektywnie. Wypełnienie generatywne przy starych zdjęciach stosuję rzadko. Znacznie częściej używam generatywnego rozszerzenia, np. do dorabiania marginesów kadru. Znakomite jest natomiast narzędzie usuwania obiektów. Zarówno przy zaznaczeniu, jak i pędzlu, program nie tylko usuwa defekt, ale inteligentnie odbudowuje tło. To ogromna oszczędność czasu przy czyszczeniu zdjęć z plam i rys.
Filtry Neuronowe (Neural Filters). Z tej palety wybieram zazwyczaj tylko dwa. Pierwszy to Retusz zdjęcia, który stosuję bardzo ostrożnie, gdyż automatyczne ustawienia potrafią zniszczyć zdjęcie. Drugi to Inteligentny portret, a konkretnie funkcja zmiany kierunku spojrzenia. Przydaje się, gdy klient chce, by osoba na zdjęciu patrzyła w obiektyw. Należy jednak pamiętać, że filtr ten technicznie „wymienia” oczy na inne, więc wymaga to późniejszej ręcznej korekty, by zachować tożsamość osoby portretowanej, pomimo wszystko ten filtr przyspiesza pracę.
Photoshop pozostaje fundamentem całego procesu. Nawet najbardziej zaawansowana sztuczna inteligencja w renowacji zdjęć dostarcza jedynie surowy materiał – cyfrowy półprodukt. Dopiero zaawansowana praca na warstwach, maskowanie i ręczna korekta w środowisku Adobe pozwalają zmienić wygenerowane piksele w technicznie poprawną rekonstrukcję.
Nie oznacza to, że AI zastępuje Photoshopa. Wręcz przeciwnie – praca ręczna, zarówno na początku, jak i na końcu procesu, jest równie istotna jak użycie algorytmów AI. Trudno wskazać równie wszechstronną alternatywę dla Photoshopa (choć kibicuję GIMP-owi). Pojawiające się w sieci tezy, że AI „zabiła” Photoshopa, to mit lub próba przyciągnięcia uwagi.
Mam na imię Krzysztof. Od wielu lat zajmuję się renowacją starych fotografii, naprawą uszkodzonych zdjęć i retuszem cyfrowym.
Na co dzień łączę klasyczne techniki pracy w Photoshopie z możliwościami, jakie daje sztuczna inteligencja w renowacji zdjęć. Opisane na tej stronie narzędzia testuję na realnych zleceniach, a nie tylko na przykładach z internetu.
Pracuję w 100% zdalnie, przygotowując cyfrowe pliki do druku dla klientów z całej Polski. Szczegóły naprawy zdjęć i zasady współpracy znajdziesz na stronie „Naprawa starych zdjęć”.
Teoretycznie tak – potrafi podbić kontrast, usunąć szum i uzupełnić braki. Na pierwszy rzut oka efekt jest imponujący. Problem w tym, że algorytm, mimo analizy zdjęcia, nie znał fotografowanej osoby. Działa na statystyce, a nie na wiedzy o rzeczywistości. Uzupełnia braki na podstawie milionów innych twarzy. Bez kontroli człowieka AI często zmienia tożsamość osoby ze zdjęcia, tworząc ładny, ale nieprawdziwy obrazek.
Ponieważ modele AI (takie jak Flux, Qwen, Nano Banana czy GPT-Image) działają na zasadzie „domyślania się”, a nie wiernego odtwarzania. Algorytm szuka w swojej bazie wzorców pasujących do uszkodzonych części zdjęcia i na ich podstawie generuje nową wersję. Często jest to „wizja artystyczna” modelu, a nie historyczna prawda. Dlatego surowy wynik z generatora traktuję wyłącznie jako półprodukt, z którego ręcznie wybieram to, co jest mi potrzebne.
Zawsze można spróbować. Jeśli zdjęcie jest w dobrym stanie i wymaga tylko lekkiego odświeżenia narzędzia online mogą dać zadowalający efekt. Schody zaczynają się przy poważniejszych uszkodzeniach. Większość generatorów nakłada jeden schemat na całość, co często niszczy detale tła i zmienia twarze w karykatury. Profesjonalna renowacja wymaga pracy na warstwach i umiejętności naprawiania błędów, które każdy algorytm nieuchronnie popełnia. Jeśli nie jesteś zadowolony z efektów pracy automatów – napisz do mnie. Chętnie spojrzę na Twoje zdjęcie i ocenię, co da się z nim zrobić profesjonalnymi metodami.
Jak przy każdej nowej technologii, AI rozwiązuje sporo problemów, ale jednocześnie tworzy nowe. Z jednej strony algorytmy usprawniają żmudną pracę, taką jak odbudowa tła czy tekstury ubrania. Z drugiej strony – generowanie (zwłaszcza na wymagających modelach lokalnych) potrafi trwać. Często trzeba wykonać sporo prób, by uzyskać satysfakcjonujący wynik, a następnie ręcznie usuwać artefakty. Sumarycznie: praca jest inna, bardziej techniczna, ale nadal wymaga dużej ilości czasu na weryfikację i złożenie całości.
Jeśli chodzi o oryginał papierowy – tak, ponieważ pracujemy na kopii cyfrowej. Zagrożenie leży gdzie indziej: w utracie autentyczności. Bardzo łatwo jest zachwycić się wygładzoną, cyfrową wersją twarzy i zapomnieć, że ma ona niewiele wspólnego z rzeczywistym wyglądem przodka. Moją rolą jest pilnowanie tej granicy – by zdjęcie po renowacji nadal przedstawiało tę samą osobę. Warto też dodać aspekt prywatności – pracując na modelach lokalnych, Twoje zdjęcia nie krążą po publicznych chmurach, co gwarantuje bezpieczeństwo danych.