Akcesoria
Sennheiser Profile Wireless - kompaktowe mikrofony bezprzewodowe od ikony branży
Po niedawnych kontrowersjach dotyczących handlu wygenerowanymi obrazami, mającymi ilustrować prawdziwe wydarzenia, Adobe obiecuje zmienić zasady dotyczące zgłaszania prac do Adobe Stock. Tylko czy przyniesie to jakiś efekt?
W ostatnich tygodniach świat fotografii obiegły newsy wskazujące na rosnący problem wykorzystywania obrazów AI do ilustrowania prawdziwych, bieżących wydarzeń. Motorem tej dyskusji była platforma Adobe Stock, która ma w swoich zasobach wiele takich obrazów, które otwarcie sprzedaje. W związku z licznymi kontrowersjami, firma zdecydowała się zmienić swoją politykę i opublikowała stosowne oświadczenie na swoim blogu, obiecując iż zabroni dodawania „zdjęć” AI z opisami mogącymi wprowadzić w błąd co do ich pochodzenia.
"Zawsze staramy się prowadzić otwarty dialog z naszą społecznością i jesteśmy wdzięczni za postawę, jaką przedstawiła w tej kwestii" - czytamy we wpisie Adobe. "Ponieważ przestrzeń generatywnej sztucznej inteligencji szybko ewoluuje, wiemy, że musimy stale weryfikować nasze podejście, aby jak najlepiej wspierać naszą społeczność i w razie potrzeby dostosowywać nasze zasady i wytyczne. W związku z tym podejmujemy następujące działania:
Jednocześnie Adobe stara się odsuwać od siebie zarzuty argumentując, że obrazy AI są w dzisiejszym świecie potrzebne, tylko niektórzy po prostu wykorzystują je w niewłaściwy sposób.
"Obrazy stockowe są wykorzystywane na stronach internetowych firm i w reklamach widocznych na billboardach. Mogą to być zdjęcia uśmiechniętej pary w ramce na zdjęcia, którą właśnie kupiłeś lub zdjęcia uroczych szczeniąt w kalendarzu dla psów wiszącym na lodówce; ilustracje, które ożywiają prezentację firmy lub rysunki używane jako tło zaproszeń urodzinowych. Wraz ze wzrostem popytu na treści, twórcy Stock musieli prześcigać się, aby zaspokoić rosnący apetyt na tego typu zasoby. Z pomocą przyszła tu generatywna sztuczna inteligencja, która dla wielu okazała się kluczowym narzędziem."
"Chcemy jednak powiedzieć jasno: treści Adobe Stock nie są prawdziwymi treściami dziennikarskimi i nigdy nie powinny być wykorzystywane w mediach dziennikarskich do przedstawiania bieżących wydarzeń. Podczas gdy wszystkie treści cyfrowe mogą zostać zmodyfikowane w celu oszukania ludzi, generatywna sztuczna inteligencja może potencjalnie ułatwić osobom mające złe intencje tworzenie obrazów, które wprowadzają w błąd. Niedawno niektórzy członkowie naszej społeczności wyrazili zaniepokojenie generatywnymi obrazami AI przypominającymi wojnę, które są wykorzystywane w mediach społecznościowych do mylącego opisywania wojny między Izraelem a Hamasem. Rozczarowujące jest to, że ludzie w ten sposób przeinaczają i niewłaściwie wykorzystują obrazy, w tym treści Adobe Stock, zwłaszcza w sytuacji, która już powoduje tak wiele smutku, zniszczeń i zniszczeń" - podsumowuje Matt Smith, wiceprezes działu strategii, designu i nowych produktów w Adobe.
Oprócz tego, Adobe kolejny raz podkreśla swoje zaangażowanie w projekty certyfikacji autentyczności zdjęć (CAI), stawiając się na czele frontu walki z dezinformacją. Tylko czy wszystko to przyniesie rzeczywiste efekty? Biorąc pod uwagę popularność tworzenia obrazów AI, te musza być dla Adobe (a także dla innych stocków) przysłowiowa kurą znoszącą złote jajka. Z kolei łatwość generowania grafik AI sprawia, że pojawia się ich coraz więcej i coraz cześciej zastępować będą one zwykłe zdjęcia w przekazie wizualnym. W takich warunkach firmie może być trudno śledzić i pociągać do odpowiedzialności niewłaściwie wykorzystujące je podmioty.
W końcu, należy brać też pod uwagę motywy, kierujące tak kupującymi, jak i sprzedającymi w bankach obrazów. Podczas gdy wiele z internetowych publikacji nie ma środków na ilustrowanie artykułów prawdziwymi zdjęciami fotoreporterów, dziennikarze i wydawcy zmuszeni są do szukania ilustracji w bankach zdjęć. Siłą rzeczy szukać będą więc obrazów odpowiadających założeniom artykułu, po konkretnych frazach. Osoby zajmujące się generowaniem obrazów zrobią zaś wiele, by tamci trafili na ich prace nawet gdy nie będą one zawierały w swoim opisie konkretnych wydarzeń. Ewentualne problemy natury etycznej zostaną zaś prawdopodobnie rozwiązane prostym podpisem „zdjęcie ilustracyjne”.
Wygląda więc na to, że stoimy w obliczu problemu dużo większego niż tylko samo nazewnictwo czy odpowiednie oznaczanie zdjęć w zasobach źródłowych. Dużo trudniej będzie bowiem doprowadzić do tego, by z faktu wykorzystania zdjęć AI naprawdę dobrze zdawał sobie sprawę także odbiorca końcowy. Do tego nawet w sytuacji gdy obrazy AI będą wszem i wobec odpowiednio i wyraźnie podpisywane, trafiając do powszechnego użytku i dominując w przekazie medialnym w końcu i tak zaczną oddziaływać na nasze wyobrażenia i poglądy. Możliwe więc, że najbliższych latach zobaczymy szerzej zakrojone działania na rzecz ograniczenia wykorzystywania rozwiązań AI w pracy dziennikarskiej. To już jednak temat na zupełnie inny materiał.
P.S Na dzień dzisiejszy w Adobe Stock nadal łatwo znaleźć obrazy AI zawierające w opisie frazy nawiązujące do konkretnych wydarzeń. Wystarczy wpisać chociażby „Black live matter” czy „Gaza Conflict”. Co więcej, wyszukiwarka Adobe sama podsuwa nawiązujące tematyką obrazy AI, nawet gdy nie posiadają one w opisie bezpośrednio podanych fraz.