Behaviorální AI systémy sbírají nejcitlivější data jako obličejové skeny nebo hlasové profily. Útočníci po získání těchto dat mohou vytvářet deepfake videa, falešné hlasové autorizace nebo obcházet biometrické ověření. Nejde už jen o částečné informace o lidech, ale hotové klíče k jejich identitě. Biometrické funkce se přitom mohou objevit v nástrojích, které firmy již běžně používají, a ani o nich neví.
Behaviorální AI systémy např. rozpoznávají emoce zaměstnanců, analyzují jejich chování nebo je kategorizují podle biometrických rysů. Problém je, že většina firem si ani neuvědomuje, že podobné funkce už můžou mít zabudované v nástrojích, které denně používají, od kamerových systémů přes monitorovací software až po doplňky do videokonferencí.
V březnu 2025 začala videokonferenční platforma Teams automaticky sbírat hlasová a obličejová data uživatelů prostřednictvím funkce nazvané voice and face enrolment. Úřad pro školství v australském Novém Jižním Walesu, kde Teams používají školy jako hlavní komunikační platformu pro učitele a studenty, se o tom dozvěděl až po měsíci.
Funkce vytváří hlasový a obličejový profil každého účastníka videohovorů. Poskytovatel platformy tvrdil, že to zlepšuje kvalitu zvuku a umožňuje softwaru rozpoznat, kdo mluví. Data navíc proudí do AI chatbota Copilot.
Úřad funkci vypnul v dubnu a profily smazal do 24 hodin poté, co se o problému dozvěděl. Případ ukazuje, jak snadno se může stát, že firma nebo instituce sbírá biometrická data, aniž by o tom věděla. Poskytovatel změnu nastavení oznámil na konci roku 2024, ale ne všichni zákazníci si upozornění všimli nebo pochopili jeho dosah.
Situací se v dubnu 2025 začal zabývat i Europol, který upozornil, že zatímco běžná hesla lze měnit, u biometrie to není možné, a proto je prolomení těchto dat velmi nebezpečné.
AI Act, který vstoupil v platnost v srpnu 2024, přímo zakazuje některé praktiky s behaviorální AI. Od 2. 2. 2025 platí zákaz rozpoznávání emocí na pracovištích a ve školách. Výjimky jsou pouze pro medicínské nebo bezpečnostní účely.
Zákon také zakazuje biometrickou kategorizaci podle chráněných znaků jako je politické přesvědčení, náboženství nebo sexuální orientace. A zakazuje nekontrolované stahování obličejů z internetu nebo kamerových systémů k vytváření databází.
Pokuty jsou vysoké. Za porušení zákazů hrozí až 35 milionů eur nebo 7 % celosvětového obratu, podle toho, co je vyšší. Za jiná porušení povinností až 15 milionů eur nebo 3 % obratu.
Oblast řízení lidských zdrojů spadá mezi vysoce rizikové. Firmy musí informovat pracovníky, zajistit lidský dohled, uchovávat záznamy minimálně šest měsíců a u některých nasazení provést posouzení dopadů na základní práva.
Funkce využívající biometrii se mohou objevit v nástrojích, které firma už běžně používá. Často jako volitelný modul nebo doplněk, který někdo zapnul, aniž by si uvědomil právní dopady.
Videokonference a doplňky patří mezi nejčastější zdroje rizika. Zoom v roce 2020 zrušil funkci attention tracking po kritice kvůli narušování soukromí. Dnes ale nabízí analýzu sentimentu v kontaktních centrech, kde některé verze zkoumají nejen text, ale i tón hlasu. To už může spadat pod rozpoznávání emocí z biometrických dat.
Kamerové systémy a retailová analytika představují další riziko. Např. britský Network Rail testoval na nádražích AI analýzu emocí a demografie. Podobné moduly nabízí řada kamerových systémů jako volitelné doplňky. Firmy si často neuvědomují, že demografická analýza je forma biometrické kategorizace, která může spadat pod regulaci.
Docházkové a přístupové systémy založené na biometrii vyžadují zvláštní pozornost. Britský úřad ICO v únoru 2024 nařídil společnosti Serco Leisure přestat používat rozpoznávání obličeje pro docházku. Byl to první případ, kdy úřad zakázal zaměstnavateli biometrickou docházku.
"Prvním krokem musí být inventura používaných platforem. Firma by měla projít všechny nástroje pro videokonference, HR, kontaktní centra, docházku a kamerové systémy. U každého nástroje zkontrolovat nastavení a seznam aktivních doplňků. U často používaných komunikačních platforem jako Teams je nutné zkontrolovat aplikace třetích stran a nastavit povinné schvalování. U Zoomu prověřte AI Companion. Vyhledejte a vypněte jakékoliv funkce s názvem emotion, mood nebo engagement score. U kamerových systémů deaktivujte biometrické nebo demografické moduly. Kromě technických opatření zaveďte také interní směrnici, že firma nepoužívá systémy k rozpoznávání emocí. Do smluv s dodavateli přidejte klauzuli, že řešení neobsahuje zakázané funkce, a definujte možnost odstoupení a smluvní pokutu při porušení. Tím se firma chrání nejen technicky, ale i smluvně," vysvětluje Adam Paclt, CEO společnosti APPSEC.
Případ britské inženýrské firmy Arup potvrzuje, že riziko je reálné. V roce 2024 přišla o 25 milionů dolarů při deepfake videohovoru. Policie v Hong Kongu případ nadále vyšetřuje. Jde o ilustraci toho, jaké následky může mít únik hlasových a obličejových dat.
Podle průzkumu Evropské komise z října 2025 používá v práci AI nástroje přibližně 30 až 33 % pracovníků v EU a 37 % je sledováno kvůli pracovní době. To ukazuje, jak běžné monitorování a AI v práci už jsou. Zaměstnanci by měli vědět, co se s jejich daty děje a proč.
Častý předpoklad je, že pokud firma nic speciálně nezapínala, nemá žádné rizikové funkce. Případ australského úřadu pro školství ale ukazuje opak. Dodavatel může funkci zapnout automaticky a uživatel se o tom dozví až s odstupem.
AI Act se snaží regulovat oblast, která se velmi rychle vyvíjí. Některé funkce, které dnes vypadají neškodně, můžou být za rok zakázané. A naopak, některé zakázané praktiky už dnes běží v nástrojích, které firma používá, aniž by o tom věděla.
Nejlepší ochrana je pravidelný audit nástrojů, jasná politika a školení zaměstnanců. A hlavně pozornost k tomu, co dodavatelé přidávají do svých produktů. Protože to, co dnes vypadá jako užitečná funkce pro zlepšení kvality zvuku, může být zítra důvod k pokutě ve výši 35 milionů eur.
Článek APPSEC s.r.o. ze dne středa 17. prosince 2025
Jak ochránit biometrická data zaměstnanců