Ansat overførte penge efter ordre fra forfalsket Deepfake-chef
Deepfake-videoer er ved at blive et problem, idet de ser så ægte ud, at det er svært at se, at de rent faktisk er falske. Men det er måske ikke kun deepfake-videoer, vi skal være bekymrede for. Deepfake-lyd kan være lige så problematisk, viser det sig, især efter denne seneste historie, hvor en ansat i et firma blev narret til at overføre over 200.000 euro til en bedrager, der udgav sig for at være firmaets chef.
Deepfake-stemme narrede ansat til at overføre 200.00 euro
Ifølge Wall Street Journal blev den ansatte ringet op af en person, vedkommende troede var direktøren af firmaets moderselskab i Tyskland. Den tyske accent var så overbevisende i tone og melodi, at den ansatte var overbevist om, at det var chefen, der ringede.
Bedrageren bad den ansatte om at overføre 220.000 euro til en ungarsk leverandør, og det straks, hvilket han gjorde. Det, der til sidst afslørede det hele, var ren og skær dumdristighed. Den tredje gang, bedrageren ringede, gjorde han det fra et andet telefonnummer, hvilket gjorde den stakkels ansatte mistænksom. Han overførte derfor ikke flere penge.
Se også: Mobiltelefoner med bedste kamera
Fusk med stemmer set før
Dette er ikke den første sag, hvor AI er blevet brugt til at efterligne bestemte personers stemme. For nylig beviste Desa, at de var muligt at skabe en efterligning af podcasteren Joe Rogans stemme, der lyder ubehageligt meget som den ægte vare.
Se også: Nyheder om deepfake