Kunnen mensen deepfake-spraak van echte spraak herkennen? Niet echt.

Wetenschap Vandaag | BNR - En podcast af BNR Nieuwsradio

Stemmen kunnen steeds realistischer worden nagemaakt met behulp van kunstmatige intelligentie. Horen we straks het onderscheid nog wel? Nee, zeggen onderzoekers. Sterker nog: dat kunnen we nu al niet zo goed.   Het is niet het eerste onderzoek waarin hiernaar gekeken is, maar wel het eerste waarin ook een andere taal dan Engels is gebruikt. De onderzoekers trainden een bestaand algoritme met twee openbare spraak-datasets. Eentje in het Engels en eentje in Mandarijn. Daarmee creëerden ze in beide talen 50 deepfake spraakvoorbeelden, die anders waren dan de voorbeelden waarmee het algoritme was getraind.   Meer dan 500 proefpersonen kregen zowel kunstmatig gemaakte samples als echte spraakvoorbeelden te horen en moesten aangeven welke echt waren en welke niet. In meer dan een kwart van de gevallen lukte dat ze niet. En dat werd amper beter nadat ze tips kregen om deepfakes te herkennen.   Die uitkomst suggereert dat we het met de nieuwere algoritmes, waaruit samples komen die nog geloofwaardiger zijn, al helemaal niet zouden kunnen. In 2019 ging het al een keer mis, toen iemand bakken met geld overmaakte naar een niet bestaand bedrijf in reactie op een deepfake-spraakberichtje van zijn baas.  En ja: er zijn ook veel positieve mogelijkheden voor dit soort technieken, maar we moeten ook klaar zijn voor de negatieve kanten. Daarom willen de onderzoekers nu proberen om de kennis uit dit onderzoek en de resultaten uit toekomstige onderzoeken te gebruiken om een systeem te ontwerpen dat automatisch herkent wanneer het om nagemaakte audio gaat en wanneer niet. En dat is eigenlijk best bizar. Wij kunnen AI-creaties zelf niet meer herkennen, dus creëren we AI om dat voor ons te doen. Lees hier meer over het onderzoek: Humans unable to detect over a quarter of deepfake speech samples.See omnystudio.com/listener for privacy information.

Visit the podcast's native language site