V roku 2024 sa konali alebo ešte len budú konať viaceré dôležité voľby. To vo voličoch i vládach vyvolalo obavy zo šírenia dezinformácií. Obzvlášť znepokojujúce sú deepfake videá a fotky generované umelou inteligenciou. Často totiž s cieľom ovplyvniť voličov a výsledky volieb zobrazujú vplyvných politikov.

Denník Guardian ponúka návod, ako falošné videá a fotky rozpoznať:

Brada a ústa

Pri deepfake videách osôb sa treba zamerať na okolie úst a brady, ktoré býva často rozmazané. Ďalším znakom môže byť zlá synchronizácia medzi zvukom a pohybom pier. Osoba vo videu môže mať na brade a v okolí úst napríklad aj viac alebo menej vrások než v skutočnosti. Doktorka Mhairi Aitkenová z britského Inštitútu Alana Turinga navyše odporúča všímať si, či tieň v týchto častiach tváre dopadá na správne miesto alebo či sa vrásky hýbu prirodzene.

Reč

V roku 2023 obletelo internet deepfake video britského politika Keira Starmera. Jeho nepravosť prezradila prapodivná syntax, keď štátnik opakovane hovoril o „librách 35-tisíc mesačne“. Zvláštne poradie slov podľa Aitkenovej naznačuje, že pri tvorbe deepfaku autori využili nástroj na prevod textu na reč a neskontrolovali si prirodzenosť viet. Okrem toho radí zamerať sa na intonáciu, keďže pre falošné videá je často typický aj monotónny prejav.

Veľkosť tela a tváre

V marci 2022 sa na internete objavilo deepfake video ukrajinského prezidenta Volodymyra Zelenského, v ktorom žiadal civilistov, aby zložili zbrane a vzdali sa ruskej armáde. Už na prvý pohľad ale vidieť, že veľkosť hlavy nebola primeraná zvyšku tela. Navyše mala jeho tvár úplne iný odtieň než krk. Profesor Kalifornskej univerzity a odborník na detekciu deepfakov Hany Farid dodáva, že jasným znakom falošného videa je aj to, ak sa postave hýbe iba tvár, ale telo nie.

Nekonzistentnosť

Vo falošných videách sa môže rečníkovi náhle zmeniť farba košele alebo pozadia. Aj keď ide o relatívne nápadnú zmenu, Farid varuje, že generatívna umelá inteligencia rýchlo napreduje, a tak môže táto chyba z deepfakov čoskoro vymiznúť.

Prsty a končatiny

Postavy vo falošných videách mávajú často viac prstov alebo končatín, než je prirodzené. Firma na detekciu deepfakov Reality Defender vysvetľuje, že prompty zadávané do nástrojov na generovanie obrázkov zvyčajne spomínajú iba meno človeka, ktorý je hlavnou hviezdou videa. Nástroje sa preto zameriavajú iba na presné generovanie tváre a na ostatné časti tela zabúdajú.

Písmená a čísla

Generátory obrázkov AI majú problém s reprodukciou čísel a textu. V apríli 2023 sa na internete objavila falošná policajná fotka bývalého amerického prezidenta Donalda Trumpa. V pozadí ale namiesto odrážok na meranie výšky vidno nezmyselný zhluk čísel a písmen. Generátory obrázkov AI nerozumejú významu symbolov, ktoré produkujú, takže majú tendenciu vytvárať zmätočný alebo nečitateľný text. Ak sa na obrázku alebo vo videu nachádzajú písmená alebo čísla, experti radia priblížiť si ich, pretože ide o skvelý ukazovateľ pravosti.

Ďalšie dôležité správy

Čínsky generátor videí AI Kling
Neprehliadnite

Číňania vytvorili AI generátor realistických videí, ktorý je hrozbou pre OpenAI Sora