Projekti / Programi
Odkrivanje globokih ponaredkov z metodami zaznave anomalij (DeepFake DAD)
Koda |
Veda |
Področje |
Podpodročje |
2.06.00 |
Tehnika |
Sistemi in kibernetika |
|
Koda |
Veda |
Področje |
2.02 |
Tehniške in tehnološke vede |
Elektrotehnika, elektronika in informacijski inženiring |
Računalniški vid, slike obrazov, globoki ponaredki, detekcija anomalij, enorazredno učenje, globoko učenje, učenje predstavitev
Podatki za zadnjih 5 let (citati za zadnjih 10 let) na dan
12. oktober 2025;
Podatki za izračun ocene A3 se nanašajo na obdobje
2020-2024
Podatki za razpise ARIS (
04.04.2019 - Programski razpis,
arhiv
)
Baza |
Povezani zapisi |
Citati |
Čisti citati |
Povprečje čistih citatov |
WoS |
176
|
2.908
|
2.619
|
14,88
|
Scopus |
301
|
5.203
|
4.594
|
15,26
|
Organizacije (3)
, Raziskovalci (15)
1538 Univerza v Ljubljani, Fakulteta za elektrotehniko
št. |
Evidenčna št. |
Ime in priimek |
Razisk. področje |
Vloga |
Obdobje |
Štev. publikacijŠtev. publikacij |
1. |
55920 |
Žiga Babnik |
Računalništvo in informatika |
Mladi raziskovalec |
2023 - 2025 |
13 |
2. |
58386 |
Marko Brodarič |
Računalništvo in informatika |
Raziskovalec |
2023 - 2025 |
9 |
3. |
38118 |
dr. Klemen Grm |
Sistemi in kibernetika |
Raziskovalec |
2023 - 2025 |
53 |
4. |
53879 |
Marija Ivanovska |
Sistemi in kibernetika |
Raziskovalec |
2023 - 2025 |
36 |
5. |
31985 |
dr. Janez Križaj |
Sistemi in kibernetika |
Raziskovalec |
2023 - 2025 |
43 |
6. |
20183 |
dr. Boštjan Murovec |
Računalništvo in informatika |
Raziskovalec |
2025 |
224 |
7. |
21310 |
dr. Janez Perš |
Sistemi in kibernetika |
Raziskovalec |
2023 - 2025 |
256 |
8. |
28458 |
dr. Vitomir Štruc |
Sistemi in kibernetika |
Vodja |
2023 - 2025 |
418 |
1539 Univerza v Ljubljani, Fakulteta za računalništvo in informatiko
št. |
Evidenčna št. |
Ime in priimek |
Razisk. področje |
Vloga |
Obdobje |
Štev. publikacijŠtev. publikacij |
1. |
22472 |
dr. Borut Batagelj |
Računalništvo in informatika |
Raziskovalec |
2025 |
214 |
2. |
58386 |
Marko Brodarič |
Računalništvo in informatika |
Raziskovalec |
2023 - 2025 |
9 |
3. |
53819 |
dr. Blaž Meden |
Računalništvo in informatika |
Raziskovalec |
2023 - 2025 |
62 |
4. |
19226 |
dr. Peter Peer |
Računalništvo in informatika |
Raziskovalec |
2023 - 2025 |
458 |
5. |
56901 |
Darian Tomašević |
Računalništvo in informatika |
Mladi raziskovalec |
2023 - 2025 |
11 |
6. |
52095 |
Matej Vitek |
Računalništvo in informatika |
Raziskovalec |
2023 - 2025 |
24 |
1986 ALPINEON razvoj in raziskave, d.o.o.
št. |
Evidenčna št. |
Ime in priimek |
Razisk. področje |
Vloga |
Obdobje |
Štev. publikacijŠtev. publikacij |
1. |
12000 |
dr. Jerneja Žganec Gros |
Računalništvo in informatika |
Raziskovalec |
2023 - 2025 |
292 |
Povzetek
Napredki na področju umetne inteligence in globokega učenja so nedavno omogočili samodejno manipulacijo slikovnih podatkov in videoposnetkov s prepričljivimi rezultati, ki jih na pogled ni mogoče prepoznati kot umetno generirane. Omenjeni napredki so pripomogli k bistvenemu zmanjšanju nivoja znanja, ki je potreben za proizvajanje prepričljivih lažnih posnetkov oziroma slik. Nedavni pojav tehnologij za generiranje tako imenovanih globokih ponaredkov (angl. deepfakes) predstavlja konkretno posledico razvoja teh tehnologij in danes tudi osebam brez posebnega tehničnega znanja omogoča masovno generiranje prepričljivih in foto-realističnih lažnih posnetkov.
Čeprav obstajajo legalni in etični primeri uporabe tehnologij globokih ponaredkov (npr. za varovanje zasebnosti v vizualnih podatkih), pa je precej bolj zaskrbljujoča njena uporaba za legalno in etično vprašljive cilje, kot so izsiljevanje, lažne novice, ter ponarejena pornografija. Že sama količina lažnih posnetkov, ki jo je mogoče proizvesti z avtomatskimi metodami, bi lahko kmalu preplavila človeške pregledovalce. Večje platforme za deljenje videoposnetkov, kot je YouTube, se že pri obstoječem nivoju prometa za filtriranje nelegalnih in neželenih vsebin namreč v glavnem zanašajo na samodejne računalniške algoritme. Pojav globokih ponaredkov pa je problematičen tudi na drugih področjih. Ker se tako finančni kot tudi javni sektor vse pogosteje zanašata na avtentikacijo uporabnikov preko video-klicev, lahko (realno-časovni) globoki ponaredki omogočajo tudi krajo identitete, kar lahko ima resne finančne posledice za ljudi in uporabnike takšnih storitev.
Za preprečevanje širjenja lažnih posnetkov in kriminalnih dejanj, ki jih omogočajo globoki ponaredki, so ključnega pomena samodejne in zanesljive metode za njihovo zaznavanje. V okviru predlaganega temeljnega raziskovalnega projekta Zaznavanje globokih ponaredkov z metodami zaznave anomalij (DeepFake DAD) bomo naslovili to potrebo in razvili nove tehnologije za odkrivanje globokih ponaredkov, ki za razliko od obstoječih rešitev zagotavljajo robustno in učinkovito delovanje, ne glede na vrsto tehnologije, ki je bila uporabljena v ozadju. Obstoječi detektorji danes temeljijo na preprostih karakteristikah slik, ki se izkažejo za učinkovite le pri prepoznavanju nekaj znanih načinov. Vendar pa takšni pristopi pogosto odpovejo pri zaznavanju globokih ponaredkov, ki so generirani z neznanimi ali novimi metodami. Projekta DeepFake DAD se bo zato osredotočil na razvoj novih metod za zaznavo globokih ponaredkov, ki jih je možno naučiti v delno nadzorovanem oz. nenadzorovanem načinu in brez uporabe učnih primerov javno objavljenih metod za generiranje globokih ponaredkov.
Glavni rezultat predlaganega raziskovalnega projekta bodo nove in robustne metode za zaznavanje globokih ponaredkov, ki bodo platformam in končnim uporabnikom omogočale avtomatsko preverjanje prisotnosti video posnetkov, ter s tem preprečile neželene osebne, družbene, gospodarske in politične posledice, ki jih lahko povzročijo lažni in ponarejeni posnetki.