
Kako preduzeća reaguju na porast AI sadržaja
Zbog ovih problema, velike tehnološke kompanije rade na načinima da poboljšaju autentičnost i poreklo medija. Kao deo svoje godišnje konferencije Build, Microsoft je najavio da će njegovi alati Bing Image Creator i Designer sada imati nove funkcije medijskog porekla.
Korisnici će moći da provere da li je AI napravio slike ili video zapise koristeći kriptografske metode koje uključuju informacije o tome odakle je sadržaj došao.
Ali da bi ovaj sistem funkcionisao, različite platforme moraju da se slože sa specifikacijom Koalicije za poreklo i autentičnost sadržaja (C2PA).
Isto tako, Meta je objavila alat pod nazivom Meta Video Seal koji može dodati nevidljive vodene žigove video klipovima koje je napravio AI.
Ovaj alat otvorenog koda namenjen je za rad sa postojećim softverom bez ikakvih problema, što olakšava pronalaženje sadržaja koji je napravio AI.
Video Seal obećava da će biti otporan na uobičajene izmene kao što su zamućenje i obrezivanje, za razliku od starijih tehnologija vodenog žiga koje su imale problema sa kompresijom i manipulacijom video zapisa.
Problemi i ograničenja
Čak i sa ovim poboljšanjima, još uvek postoje problemi sa dobijanjem mnogo ljudi da koriste ove tehnologije. Mnogi programeri mogu biti neodlučni da pređu sa postojećih vlasničkih rešenja na opcije otvorenog koda kao što je Video Seal.
Meta planira da održi radionice na glavnim AI konferencijama i napravi javnu tabelu koja upoređuje različite metode vodenog žiga kako bi više ljudi radilo zajedno.
Takođe, metode vodenog žiga koje sada imamo nisu uvek dovoljno jake ili efikasne kada je u pitanju video sadržaj.

Source: aidemos.meta.com
Dva glavna pristupa borbi protiv sadržaja generisanog AI
U borbi protiv sadržaja generisanog AI-om, pojavile su se dve različite strategije:
- Vodeni žig (preventivni pristup):
- Radi dodavanjem nevidljivih potpisa sadržaju u trenutku stvaranja
- Deluje kao digitalni sertifikat koji pokazuje „ovo je napravio AI“
- Alati kao što su Meta Video Seal i Microsoftove karakteristike porekla predstavljaju ovaj pristup
- Glavna prednost je trenutna identifikacija AI sadržaja
- Alati za detekciju (analitički pristup):
- Analizira postojeći sadržaj kako bi utvrdio da li je generisan AI-om
- Traži obrasce i karakteristike tipične za sadržaj kreiran od strane AI-a
- Posebno korisno za sadržaj koji nije označen prilikom kreiranja
- Ovi alati čine našu drugu liniju odbrane
Oba pristupa su neophodna jer se međusobno dopunjuju: vodeni žig sprečava zloupotrebu, dok alati za detekciju pomažu u identifikaciji neobeleženog sadržaja.
Alati i tehnologije za detekciju
Sadržaj generisan AI može se naći na više načina nego samo tehnologije vodenog žigova. Novi alati za detekciju koriste složene algoritme za gledanje tekstualnog i slikovnog sadržaja.

Source: Depositphotos
- Originalnost, algoritmi dubokog učenja koriste AI za pronalaženje obrazaca u tekstu koji je generisao AI.
- GPTZero razmatra jezičke strukture i frekvencije reči kako bi razlikovao sadržaj koji su napisali ljudi i sadržaj koji su stvorile mašine.
- CopiLeaks koristi N-grame i poređenja sintakse kako bi pronašao male promene u jeziku koje bi mogle biti znakovi autorstva AI.
Ovi alati bi trebalo da daju korisnicima tačna mišljenja o tome koliko je stvarni sadržaj, ali koliko dobro funkcionišu može mnogo varirati.
U zaključku
Kako generativna AI napreduje, zaštita digitalne autentičnosti postaje sve važnija. Microsoft i Meta predvode revolucionarne standarde za autentičnost sadržaja i verifikaciju porekla medija.
Da bismo se efikasno borili protiv deepfake-a, potrebno nam je i usvajanje ovih alata u celoj industriji i jača saradnja između tehnoloških kompanija. Budući integritet digitalnog sadržaja zavisi od tehnologija detekcije koje se razvijaju brže od obmane generisane AI-om.
U stvari, nedavno smo pokrili kako IouTube preduzima slične korake uvođenjem novih alata za otkrivanje AI za kreatore i brendove. Njihov pristup uključuje sintetičku identifikaciju glasa i tehnologije detekcije lica generisane AI-om, što dodatno pokazuje kako glavne platforme rade na zaštiti autentičnosti sadržaja u eri AI.