Čínská společnost HONOR oznámila plány na implementaci nástroje pro odhalování deepfake — uměle vytvořených audio a videomateriálů pomocí AI. Od dubna 2025 bude technologie dostupná uživatelům po celém světě. Hlavním úkolem systému je okamžitě detekovat manipulace v médiích, které lidské oko často nerozpozná.
Podle informací serveru GizmoChina algoritmy HONOR hledají mikroskopické nesrovnalosti v obrazu a zvuku. Například nepřirozené mrkání nebo chyby v stínech. Pro srovnání: funguje to podobně jako hledání prasklin ve skle pomocí lupy.
Podle údajů Institutu kybernetické bezpečnosti Entrust se v roce 2024 vyskytovalo až 12 deepfake útoků za hodinu — celkem přibližně 288 případů denně. Zároveň 59 % účastníků průzkumu Deloitte Connected Consumer přiznalo, že nerozlišují obsah vytvořený lidmi od materiálů generovaných AI.
Zároveň 84 % uživatelů, kteří využívají generativní AI, podpořilo myšlenku povinného označování takového obsahu. To zdůrazňuje rostoucí poptávku po transparentnosti v digitálním prostoru.
Jak technologie funguje
- Systém skenuje soubor při jeho nahrávání nebo přehrávání.
- Algoritmy kontrolují stovky parametrů — od synchronizace rtů po spektrogram hlasu.
- Při detekci podezřelých prvků uživatel obdrží varování.
Technologii poprvé představili na veletrhu IFA 2024. Tým HONOR nyní vylepšuje její integraci s populárními platformami. Jak se ukázalo, hlavní výzvou je zachovat rychlost zpracování dat bez ztráty přesnosti.
Odborníci připomínají: Přestože nástroje jako Deepfake Detection pomáhají proti podvodům, nezaručují 100% ochranu. „Je klíčové kombinovat technická řešení s kritickým myšlením,“ uvádí zástupci Entrust.
Zatím není jasné, zda bude funkce dostupná jako samostatná aplikace, nebo pouze na zařízeních HONOR. Detaily budou zveřejněny blíže ke spuštění služby.