Czy to będzie game changer w wojnie z deepfake'ami?
2024-05-14 17:36:22(ost. akt: 2024-05-14 18:00:50)
"Myślę, że z czasem coraz częściej będą miały miejsce sytuacje, gdy zdjęcia, wyglądające na autentyczne, będą służyć do ośmieszenia lub zdyskredytowania kogoś"
Zdarzyło Ci się nabrać na sfałszowane zdjęcie? W internecie aż roi się od deepfake’ów. Dlatego potrzebne są rozwiązania, które pomogą nam radzić sobie z ich rozpoznawaniem.
Dr inż. Tomasz Szandała z dwójką innych naukowców zamierza wykorzystać do tego sztuczną inteligencję.
Na The University of Applied Sciences and Arts of Southern Switzerland mają zamiar opracować łatwy do wyjaśnienia i niezawodny system, który zidentyfikuje potencjalne deepfake i wyjaśni, dlaczego je tak sklasyfikował.
Badacz z Wydział Informatyki i Telekomunikacji PWr wyjedzie do Lugano jesienią, dzięki prestiżowemu stypendium rządu szwajcarskiego dla młodych doktorów.
Dr inż. Tomasz Szandała z Wydziału Informatyki i Telekomunikacji zdobył prestiżowe stypendium rządu szwajcarskiego dla młodych doktorów – ESKAS Swiss Government Excellence Scholarships. Na Uniwersytecie w Lugano będzie prowadził badania nad ingerencją sztucznej inteligencji w zdjęcia.
Swiss Government Excellence Scholarships to elitarne stypendium rządu szwajcarskiego dla młodych naukowców z zagranicy, którzy ukończyli studia magisterskie lub doktoranckie oraz dla zagranicznych artystów z tytułem licencjata. Rocznie przyznawanych jest tylko 200 miejsc, w tym kilkadziesiąt dla doktorów. O każde z nich aplikuje wielu młodych ambitnych ludzi zarówno ze Szwajcarii, jak i ze 180 innych krajów.
Dr inż. Tomasz Szandała do Szwajcarii wyjedzie jesienią. Na The University of Applied Sciences and Arts of Southern Switzerland wspólnie z dr Omranem Ayoubemem i prof. Silvią Giordano Cremonese będzie prowadził badania nad rozpoznawaniem manipulacji w zdjęciach za pomocą sztucznej inteligencji.
Naukowiec chce zbadać solidne techniki pojawienia się wyrafinowanych metod generowania deepfakes, czyli cyfrowych manipulacji generowanych przez sztuczną inteligencję (AI), które wykorzystują techniki głębokiego uczenia się do nakładania lub zastępowania podobieństwa jednej osoby inną na obrazach i filmach.
Dzieje się tak dlatego, że treści generowane przez sztuczną inteligencję można wykorzystać do zwodniczych celów, takich jak dezinformacja i jej rozpowszechnianie, ataki wykorzystujące inżynierię społeczną, które mogą potencjalnie podważyć zaufanie publiczne, spójność społeczną i bezpieczeństwo jednostki – wyjaśnia dr inż. Tomasz Szandała. – Propozycja badawcza naszego zespołu ma na celu rozwiązanie tego problemu poprzez opracowanie opartego na sztucznej inteligencji systemu wykrywania deepfake, który jest łatwy do wyjaśnienia i niezawodny. System nie tylko zidentyfikuje potencjalne deepfake, ale również dostarczy wyjaśnień dotyczących przyczyn takiej klasyfikacji – dodaje.
Badania zakładają m.in. wykorzystanie zróżnicowanego i inkluzywnego zbioru danych oraz najnowocześniejszych technologii w dziedzinie głębokiego uczenia, takich jak konwolucyjne sieci neuronowe czy transformery znane choćby z ChataGPT.
Stosujemy również techniki analizy głębokości, analizy błędów oraz techniki AI, które są możliwe do wyjaśnienia – podkreśla dr inż. Tomasz Szandała. Ważnym celem jest stworzenie kompleksowych ram dla oceny naszego systemu, które będą uwzględniały zarówno oceny ilościowe (czułość, swoistość), jak i jakościowe (wierność, interpretowalność, możliwość zastosowania wyjaśnień oraz wskaźniki uczciwości).
Pomysł na taki projekt badawczy pojawił się w głowie naukowca z Katedry Informatyki Technicznej już podczas pisania doktoratu i badania, jak działają sieci neuronowe. Stwierdził wówczas, że tę wiedzę będzie w stanie wykorzystać, by rozpoznać, czy sieć neuronowa manipulowała przy jakimś obrazku.
W ubiegłym roku świat obiegło np. słynne zdjęcie z papieżem w białej puchowej kurtce czy skórzanej ramonesce. Pojawiają się też fotografie z politykami, celebrytami, czy nawet zwykłymi ludźmi, którzy mogą nie mieć środków, by bronić swojego dobrego imienia. Myślę, że z czasem coraz częściej będą miały miejsce sytuacje, gdy zdjęcia, wyglądające na autentyczne, będą służyć do ośmieszenia lub zdyskredytowania kogoś – tłumaczy dr inż. Tomasz Szandała. – Z kolei w Hiszpanii takie narzędzie zostało wykorzystywane przez młodzież, żeby komuś zepsuć życie. Podczas wakacji dwadzieścia dziewczyn dostało zdjęcia wygenerowane za pomocą sztucznej inteligencji, które miały je zdyskredytować w oczach rodziców czy szkoły. Okazało się, że wszystkie te fotografie były zmanipulowane. Ktoś się do tego przyznał. Jednak co w sytuacji, gdy nikt się nie przyzna? Trzeba będzie po prostu udowodnić, że dane zdjęcie jest nieprawdziwe, żeby móc się obronić. Mam nadzieję, że moja praca w tym pomoże – podkreśla.
Komentarze (0) pokaż wszystkie komentarze w serwisie
Komentarze dostępne tylko dla zalogowanych użytkowników. Zaloguj się.
Zaloguj się lub wejdź przez