27.05.2024 17:19
Umělá inteligence s sebou nese i stále dokonalejší umělá média - ať už fotografie, videa nebo audia. Zobrazují něco, co neexistuje v realitě nebo události, které se nikdy nestaly. Typicky využívají podoby známých osobností, kterým vkládají do úst falešná vyjádření. Zatímco ještě nedávno působila velmi neuměle, nyní se objevují stále dokonalejší výtvory a zřejmě není daleko doba, kdy budou rozpoznatelné jen s velkými obtížemi.
Vytvořit deepfaky je dnes díky neuronovým sítím jednodušší a rychlejší než kdykoliv předtím. Stačí k tomu relativně zanedbatelné množství dat, například krátká nahrávka hlasu. Pokud člověk někdy hovořil na veřejnosti a je o tom záznam, lze jej velmi snadno a velmi realisticky digitálně naklonovat.
Kromě šíření dezinformací se deepfaky ve stále větší míře používají také k útokům na firmy. Obecně se těmto útokům říká sociální inženýrství. Jde o manipulaci zaměstnanců za účelem získání důvěrných informací nebo k provedení určitých akcí, které nahrávají útočníkovi. Metoda to není jinak nová, deepfaky ji ale výrazně usnadňují. Firmy pak mohou přijít o citlivá data, peníze nebo přístupová hesla do vnitřních systémů.
Pro odhalování deepfaků je stejně jako při ověřování jakýchkoliv jiných informací klíčové kritické myšlení a zdravá podezřívavost. Základní, byť ne všespásnou otázkou je, do jaké míry je to, na co se díváme, pravděpodobné. Pomůže ale i detailní pohled - deepfaky například často obsahují nedokonalosti v oblasti obličeji, například oči, které nepřirozeně mrkají, rozmazané rty, intonace hlasu anebo pohyby těla, které neodpovídají tomu, o čem se mluví.
Deepfaky se často objevují v zavádějících reklamách na internetu. Na Youtube, ale třeba i na Facebooku se lze podívat na to, kdo reklamu zadával. I to pak může být vodítkem k pochybám o její důvěryhodnosti.