Deepfake-Stimmen täuschen Menschen - nicht aber das Gehirn
Deepfake-Technologien können das einzigartige Stimmprofil eines Menschen sehr genau nachmachen. Genutzt wird dies zum Beispiel für Betrugsversuche am Telefon, wie die Universität am Mittwoch in einer Mitteilung schrieb.
Für die Studie zeichneten die Forschenden die Stimmen von vier männlichen Sprechern auf und wandelten sie durch Computeralgorithmen in Deepfake-Stimmen um. 25 Probandinnen und Probanden mussten entscheiden, ob zwei gehörte Stimmen identisch waren, oder ob eine davon eine Deepfake-Stimme war.
In zwei Dritteln der Fälle wurden die Deepfake-Identitäten korrekt zugeordnet. «Dies verdeutlicht, dass aktuelle Deepfake-Stimmen zwar nicht perfekt die Identität imitieren, aber das Potential haben, die Wahrnehmung von Menschen zu täuschen», wurde Erstautorin Claudia Roswandowitz in der Mitteilung zitiert.
Hirnareale reagieren unterschiedlich
Die Gehirne der Probandinnen und Probanden zeigten aber ein anderes Bild: Der sogenannte Nucleus Accumbens, ein Bestandteil des Belohnungssystems des Hirn, war viel aktiver, wenn beide den Probanden gezeigten Stimmen natürlich Stimmen waren. Der auditorische Cortex, zuständig für die Analyse von Geräuschen, war hingegen aktiver, wenn eine der beiden Stimmen eine Deepfake-Stimme war.
Der Mensch könne also nur teilweise durch Deepfakes getäuscht werden, schlussfolgerte die Erstautorin.