[media] Generative KI macht Audio-Deepfakes gefährlicher

Audio-Deepfakes, also mit Computersystemen imitierte Stimmen, entwickeln sich stetig weiter. Daraus folgt ein Anstieg aus KI unterstützten Betrugsversuchen. Der sogenannte „Enkeltrick“, bei dem sich der Täter meist als Kind oder Enkelkind des Opfers ausgibt und eine Krisensituation vorgibt, um finanzielle Unterstützung zu erlangen, ist bereits bekannt. Nun werden dabei jedoch künstliche Intelligenzen verwendet, die darauf spezialisiert sind, Stimmen zu imitieren. […]

To top