Detail publikace

Deepfakes a lidé: dokážeme ještě rozlišit pravou řeč od umělé?

MALINKA, K. FIRC, A. HANÁČEK, P.

Originální název

Deepfakes a lidé: dokážeme ještě rozlišit pravou řeč od umělé?

Anglický název

Deepfakes and humans: can we still distinguish real speech from deepfake speech?

Typ

článek v časopise - ostatní, Jost

Jazyk

čeština

Originální abstrakt

Deepfakes se bohužel pomalu, ale jistě dostávají do titulků zpráv. Tuto pozici získávají převážně kvůli svému negativnímu použití při úspěšných útocích. Tyto útoky (např. finanční podvody, kdy se útočník vydává za někoho jiného) cílí primárně na nás lidi, a tudíž naši schopnost rozpoznat (či spíše nerozeznat) deepfake hlas od toho pravého. Pro zlepšení možností ochrany proti těmto útokům je nejdříve důležité porozumět lidské schopnosti rozlišit deepfake nahrávku od té pravé a zjistit jaké faktory ji ovlivňují. Ačkoliv se některé zahraniční výzkumy již tomuto tématu věnují, zapomínají brát v potaz způsob, jakým reálný útok probíhá. V našem výzkumu tuto nepřesnost reflektujeme a realisticky simulujeme situaci, při které by útok mohl probíhat. Výrazně se tak odlišujeme od existujících studií a bohužel i získané poznatky nejsou z pohledu dopadu na lidi zrovna příznivé.  V tomto článku prezentuje aktuální zveřejněné útoky využívající deepfakes a také závěry našeho výzkumu, který se věnuje lidské schopnosti rozpoznat deepfake nahrávky a možnostem, jak tuto schopnost do budoucna zlepšovat a předejít tak útokům za použití hlasových deepfakes.

Anglický abstrakt

Deepfakes are unfortunately slowly but surely making headlines. They are gaining this position largely due to their negative use in successful attacks. These attacks (e.g., financial scams where the attacker impersonates someone else) primarily target our ability to recognize (or rather not recognize) the deepfake voice from the real one. To improve our ability to protect against these attacks, it is first important to understand the human ability to distinguish a deepfake recording from a genuine one and to determine what factors influence this ability. Although some international research has already addressed this topic, it neglects to take into account the way a real attack takes place. In our research, we reflect this inaccuracy and re- alistically simulate a situation in which an attack could take place. We thus differ significantly from existing studies, but unfortunately the findings are not very favorable in terms of the impact on people. This paper presents recent published attacks using deepfakes as well as the findings of our research, which focuses on the human ability to recognize deepfake recordings and how to improve this ability in the future and prevent attacks using voice deepfakes.

Klíčová slova

deepfake, syntetický hlas, deepfake útoky, lidský faktor

Klíčová slova v angličtině

deepfake, synthetic voice, deepfake attacks, human factor

Autoři

MALINKA, K.; FIRC, A.; HANÁČEK, P.

Vydáno

29. 12. 2023

ISSN

1211-8737

Periodikum

DSM Data Security Management

Ročník

2023

Číslo

04

Stát

Česká republika

Strany od

22

Strany do

26

Strany počet

5

URL

BibTex

@article{BUT186867,
  author="Kamil {Malinka} and Anton {Firc} and Petr {Hanáček}",
  title="Deepfakes a lidé: dokážeme ještě rozlišit pravou řeč od umělé?",
  journal="DSM Data Security Management",
  year="2023",
  volume="2023",
  number="04",
  pages="22--26",
  issn="1211-8737",
  url="https://dsm.tate.cz/cs/2023/dsm-4-2023/deepfakes-a-lide-dokazeme-jeste-rozlisit-pravou-rec-od-umele"
}