Jak rozlišit videa vytvořená umělou inteligencí?
V poslední době se na sociálních médiích stále častěji objevují videa vytvořená umělou inteligencí. Je těžké rozlišit, zda jde o skutečně natočené záběry nebo o výtvor AI. Existuje však jedna metoda, která může pomoci: jaká je kvalita obrazu videa?
Technologie generování videa pomocí AI se za poslední dobu výrazně zlepšila, což způsobilo, že je velmi obtížné odlišit videa vytvořená umělou inteligencí od těch, která byla natočena reálnými kamerami. Do budoucna se očekává, že lidé budou stále více zmatení a začnou zpochybňovat vše, co uvidí. Realita této situace se může brzy stát skutečností.
Jedním z hlavních ukazatelů při identifikaci videí vytvořených AI je kvalita obrazu. Pokud je video rozmazané nebo má nízké rozlišení, mohlo by to naznačovat, že bylo vytvořeno umělou inteligencí. Profesor Hany Farid z Kalifornské univerzity v Berkeley, který se zabývá digitální forenzikou, říká, že kvalita obrazu je tím prvním, co bychom měli posuzovat.
Je však důležité si uvědomit, že technologie AI se neustále vyvíjí a to, co dnes platí, může být za krátkou dobu zastaralé. V každém případě, pokud pochopíme subtilní rozdíly v AI videích, můžeme najít tipy, jak se dočasně vyhnout slizu falešného obsahu.
Potvrdilo se, že kvalita videí vytvořených AI nebude v budoucnu klesat. Nejmodernější AI nástroje již dokážou vytvářet krásné a precizní videa. Je však důležité si uvědomit, že nízká kvalita videa neznamená automaticky, že video bylo vytvořeno AI. Jak říká Matthew Stamm, ředitel výzkumného institutu pro multimédia a informační bezpečnost na Drexel University, „nízká kvalita videa neznamená, že je to falešné nebo že v něm je něco neetického“.
Na druhou stranu platí, že čím méně ostré je video a čím více se objevují pixelové vzory, tím vyšší je pravděpodobnost, že diváka klame. Proto je důležité se na videa dívat se zvýšenou pozorností.
Profesor Farid dodává, že při používání nástrojů jako ‚Veo‘ od Googlu nebo ‚Sora‘ od OpenAI se obvykle vyskytují drobné nesrovnalosti, které však nejsou tak výrazné, aby si jich diváci okamžitě všimli.
Ačkoliv nejpokročilejší modely umělé inteligence občas generují podivné textury pleti nebo neobvyklé vzory na vlasech a oblečení, diváci snadno tyto chyby přehlédnou. Čím jasnější je video, tím pravděpodobnější je, že se výjimečné stopy AI projeví.
Videa s nízkou kvalitou tedy mohou AI hrát do karet, protože když AI generuje záběry, které vypadají jako pořízené starým telefonem nebo levnou bezpečnostní kamerou, skryje tím chyby, které by byly jinak rozpoznatelné.
V posledních měsících bylo zaznamenáno mnoho virálních videí, která oklamala tisíce lidí. Tato videa mají jedno společné: jsou lehce rozmazaná nebo nekvalitní. Příkladem je video veselých králíků skákajících na trampolíně, které mělo více než 240 milionů zhlédnutí. Nebo video z newyorské metra, které bylo označeno jako falešné, i když získalo spoustu „lajků“.
Podle Farida je důležité kontrolovat tři faktory: rozlišení, kvalitu a délku videa. Délka videa je nejjednodušší pro rozpoznání. Většina videí generovaných AI je velmi krátká, většinou kolem 6-10 sekund. To je dáno tím, že generování videí pomocí AI může být nákladné a většina nástrojů omezuje produkci na krátké úseky.
Rozlišení a kvalita videa jsou jedny z klíčových aspektů, přičemž rozlišení se týká počtu pixelů a kvalita označuje hustotu pixelů. Při kompresi mohou videa obsahovat neobvyklé vzory nebo rozmazané okraje.
Někteří lidé mohou kvalitu videí úmyslně zhoršovat, aby zmátli diváky. Farid tvrdí, že pokus klamat diváky zahrnuje snižování rozlišení AI videí a použití komprese k tomu, aby se chyby staly méně patrnými.
Problémem zůstává, že technologické společnosti investují velké množství prostředků do zlepšení realismu AI videí. Experti jako Stamm varují, že jakmile budou zřejmé vizuální stopy, mohou do dvou let zmizet, protože tyto stopy jsou už nyní téměř neviditelné u AI generovaných fotografií.
Naštěstí pravda nezmizí zcela. Vědci jako Farid a Stamm vyvíjejí technologie, které pomáhají ověřovat obsah. AI generovaná videa zanechávají jemné statistické stopy podobně jako otisky prstů na místě činu. Technologie, která pomáhá tyto stopy odhalovat, se vyvíjí, i když před úplnou validací stále zbývá práce.
Mezitím některé technologické společnosti usilují o vytvoření nových standardů pro ověřování digitálních informací. Například při pořízení obrázku může být přiložena metadata potvrzující jeho pravost. Stejně tak může umělá inteligence automaticky přidávat informace o tom, že dané video bylo vytvořeno AI.
Nicméně expert na digitální gramotnost Mike Caulfield upozorňuje, že skutečným řešením je, abychom zásadně změnili náš způsob vnímání online obsahu. Stopy po AI se stále vyvíjejí, a proto je třeba se naučit nezapomínat na historický kontext a vyhodnocovat zdroje informací.
Jak říká Stamm, „můžeme to považovat za jednu z největších výzev informační bezpečnosti našeho století, ale také se toto téma rychle vyvíjí, a odborníci na řešení této otázky se rychle zvyšují.“ Je důležité vyvinout komplexní přístup s různými řešeními, vzděláváním a technickými přístupy.

