Symulacja rozmycia tła wkracza do Photoshopa - czy warto dalej kupować jasne obiektywy?

Autor: Maciej Luśtyk

24 Maj 2021
Artykuł na: 4-5 minut

W ramach ostatniej aktualizacji Photoshop otrzymał filtr Depth Blur, który za pomocą jednego suwaka umożliwić ma nam sterowanie rozmyciem nieostrości na zdjęciach. Czy funkcja ta może zastąpić jasny obiektyw?

Funkcje pozwalające imitować płytką głębię ostrości i rozmycie tła charakterystyczne dla jasnych profesjonalnych obiektywów wszyscy dobrze znamy z naszych smartfonów. I choć z roku na rok smartfonowe aparaty stają się pod tym względem coraz doskonalsze prawdziwym game-changerem w branży byłoby zaadaptowanie tej funkcji na potrzeby tradycyjnych, systemowych aparatów.

Bo fotografowanie smartfonem, a praca i realizacja zleceń to w doskonałej liczbie przypadków dwie zupełnie odrębne rzeczy. A to właśnie fotografom aspirującym do miana zawodowców tego typu funkcja mogłaby pomóc najbardziej, gdyż - jeśli byłaby wystarczająco dopracowana - w wielu przypadkach zniwelowałaby konieczność inwestycji w drogie, jasne szkła. (Oczywiście superjasne obiektywy to też możliwości pracy na niższym ISO w słabym świetle, ale i tak większość osób kupuje je ze względu na charakter dostarczanego obrazka).

Funkcja Depth Blur zawitała do Photoshopa - czy jest skuteczna?

I oto właśnie, wraz z ostatnią, majową aktualizacją pakietu Creative Cloud, Photoshop otrzymał nowy filtr Depth Blur, który w założeniu ma właśnie na to pozwalać, w dodatku wymagając od nas w tym celu tylko kontroli pojedynczego slidera. Czy więc już możemy pozbyć się zestawu jasnych stałek, na który przez lata ciężko pracowaliśmy? Nie tak prędko.

Jak na razie działająca w ramach Neural Filters funkcja Depth Blur jest udostępniana w fazie beta i jak możemy zobaczyć w powyższej wideorecenzji - radzi sobie raczej marnie. Co więcej, nadal lepsze rezultaty jesteśmy w stanie uzyskać za pomocą ręcznej edycji masek i filtrów. Być może jednak szybko się to zmieni.

Dzięki rozwojowi algorytmów software'owe rozmycie tła z biegiem czasu będzie stawać się coraz doskonalsze. Czy producenci są na to gotowi?

Jak wszystkie funkcje z pakietu Neural Filters, tak i Depth Blur bazuje na sieciach neuronowych, a edycja zdjęcia odbywa się na zewnętrznym serwerze Adobe, co pozwala firmie dalej szkolić algorytm odpowiedzialny za symulację rozmycia. Z dużym prawdopodobieństwem jej działanie w niedługim czasie zostanie znacznie usprawnione (aktualnie filtr oznaczony jest jako wersja beta), oddając w ręce użytkowników gotowy i użyteczny produkt (w końcu tak samo przez lata dojrzewały funkcje pokroju Content Aware Fill czy automatycznego zaznaczania obiektu).

Przeczytaj także:
Nowy Photoshop to festiwal sztucznej inteligencji. Właśnie wkraczamy w przyszłość obróbki zdjęć

Dziś chyba nikt nie ma już wątpliwości, że przyszłość postprodukcji będzie opierać się o funkcje AI, wytrenowane za pomocą sieci neuronowych. Okazuje się jednak, że przyszłość ta zawitała u naszych drzwi szybciej niż myśleliśmy. [Czytaj więcej]

Jeśli tak się stanie, możemy spodziewać się małej rewolucji, na którą odpowiednio będą musieli zareagować producenci optyki. I nie dlatego, że jasne szkła z dnia na dzień przestaną się sprzedawać. Dotychczasowi profesjonaliści będą z nich korzystać jeszcze długie lata, natomiast coraz trudniej ich sens będzie wytłumaczyć pokoleniu fotografów, które dorasta w otoczeniu rozwiązań AI i dla którego wspomniane filtry są tylko kolejną (i łatwiejszą) formą dotarcia do celu.

Więcej informacji na temat działania filtrów z pakietu Neural Filters znajdziecie na stronie helpx.adobe.com.

Skopiuj link

Autor: Maciej Luśtyk

Redaktor prowadzący serwisu Fotopolis.pl. Tłumacz i fotograf, codziennie selekcjonuje dla Was porcję najciekawszych newsów ze świata fotografii. Zafascynowany nowymi technologiami, choć woli fotografować analogiem. Prywatnie niespełniony snowboardzista i spełniony tata.

Komentarze
Więcej w kategorii: Software
Lens Utility Mobile - Tamron zapowiada aplikację na Androida
Lens Utility Mobile - Tamron zapowiada aplikację na Androida
Program Tamron Lens Utility pozwala na personalizację działania poszczególnych funkcji obiektywów. Niebawem zmian będziemy mogli dokonywać także w terenie, dzięki...
3
Capture One na iPada już dostępne. Kosztuje 5 dolarów miesięcznie
Capture One na iPada już dostępne. Kosztuje 5 dolarów miesięcznie
Aplikacja do edycji RAW-ów od Capture One wreszcie ląduje w wersji na tablety iPad. Ma wszystko czego potrzeba do zdalnej obróbki w przystępnym abonamencie.
5
Adobe testuje darmową, przeglądarkową wersję Photoshopa
Adobe testuje darmową, przeglądarkową wersję Photoshopa
Photoshop stanie się darmowy… w pewnym sensie. Nowa wersja aplikacji do obróbki grafiki ma działać w modelu freemium.
10
Powiązane artykuły
Wczytaj więcej (2)