Uwaga!

Chcesz otrzymywać nowinki, ciekawostki i poradniki dotyczące AI i Deepfake prosto na swój adres email? Koniecznie zapisz się do naszego newslettera!







Zamknij to okno
Obrazy AI - oznaczenia w wynikach wyszukiwania Google

Obrazy AI – oznaczenia w wynikach wyszukiwania Google

Google postanowiło zrobić krok naprzód w walce z rozprzestrzenianiem się dezinformacji w sieci. W nadchodzących miesiącach wprowadzi nową funkcję, która ma pomóc użytkownikom lepiej zrozumieć, jak dany materiał został stworzony i zmodyfikowany. Wszystko to dzięki dołączeniu do koalicji Coalition for Content Provenance and Authenticity (C2PA). Grupa ta, w skład której wchodzą także Amazon, Adobe i Microsoft, pracuje nad zwalczaniem wprowadzających w błąd treści online.

Nowa funkcja w Google: O co chodzi?

Google planuje wkrótce korzystać z wytycznych Content Credentials, które obejmują metadane obrazów, aby dodać etykiety do treści generowanych lub edytowanych za pomocą sztucznej inteligencji (AI). Metadane te zawierają informacje o pochodzeniu obrazu, a także o czasie, miejscu i metodzie jego stworzenia. To duży krok w kierunku większej przejrzystości dla użytkowników.

Niestety, choć system etykietowania ma być dostępny w oknie „About This Image” (O tym obrazie) – z poziomu Google Lens i funkcji 'Circle to Search’ na Androidzie – nie będzie to aż tak oczywiste, jak moglibyśmy się spodziewać. Aby sprawdzić, czy obraz jest wygenerowany przez AI, użytkownicy będą musieli wykonać dodatkowe kroki, co może nieco utrudniać proces weryfikacji.

Problemy z dezinformacją a reakcje wielkich korporacji

Przykładami negatywnego wpływu nieodpowiednio oznaczonych obrazów AI są m.in. fałszywe zdjęcia Taylor Swift wspierającej kampanię Donalda Trumpa, które zyskały ogromną popularność, czy też przypadek finansisty oszukanego na 25 milionów dolarów. To pokazuje, jak poważne mogą być konsekwencje niewłaściwego wykorzystania technologii AI.

Co ciekawe, nawet giganci technologiczni, jak Meta, nie są chętni do pełnej transparentności. Ostatnio wprowadzili zmiany w swojej polityce, przez co istotne informacje są mniej widoczne, przenosząc je do menu posta.

Co dalej?

Aktualizacja narzędzia „About this image” jest pozytywnym krokiem, ale aby system był w pełni skuteczny, więcej firm będzie musiało zacząć implementować i korzystać z wytycznych C2PA. Na przykład, jedynie kilka modeli aparatów, takich jak Leica M-11P i Nikon Z9, posiada wbudowane funkcje Content Credentials, a Adobe wprowadziło wersję beta tej funkcji w aplikacjach Photoshop i Lightroom. Problem polega na tym, że użytkownicy muszą sami korzystać z tych opcji i dostarczać dokładne informacje.

Badanie przeprowadzone przez University of Waterloo wykazało, że tylko 61% osób potrafi odróżnić obrazy wygenerowane przez AI od rzeczywistych. Jeśli te liczby są trafne, system etykietowania Google nie przyniesie oczekiwanej przejrzystości dla ponad jednej trzeciej użytkowników.

Pomimo trudności, należy uznać to za pozytywny krok w walce z dezinformacją. Aby jednak system był naprawdę skuteczny, technolodzy powinni dążyć do bardziej widocznych i łatwo dostępnych etykiet.

Źródło: techradar.com: AI-generated and edited images will soon be labeled in Google Search results.

Ebook AI

Newsletter

Zapisz się, a będziesz otrzymywać ciekawostki z branży AI i Deepfake, oraz dostaniesz specjalny prezent – kompendium wiedzy o ChatGPT.








Warto

NordVPN
Ogrovision - Ogród AI
Życzenia AI

Facebook


Twitter

Ads Blocker Image Powered by Code Help Pro

Wykryto AdBlocka!

Wygląda na to, że używasz blokady reklam. Reklamy pomagają nam utrzymać tę stronę. Wyłącz ją proszę.