Kan kunstig intelligens være racistisk – og hvordan sikrer vi os, at den bliver fair?

Maskinstorm - En podcast af Dagbladet Information

Kategorier:

Avanceret maskinlæring kan hjælpe os med at sortere og overskue store datasæt. Men hvad gør vi, når algoritmerne tager fejl? Det spørger vi professor Aasa Feragen om i dette femte afsnit af ’Maskinstorm’.   Aasa Feragen er professor på DTU Compute og forsker netop i fairness og bias i kunstig intelligens. Et område, som med algoritmernes gradvise indtog i både sundhedsvæsenet, socialforsorgen og retssystemet bliver stadig mere relevant at kaste et kritisk fokus på. For nok kan avanceret maskinlæring hjælpe os med at sortere og overskue store datasæt og for eksempel opdage tumorer i scanningsbilleder eller – som i COMPAS-sagen – risikovurdere adfærd baseret på statistisk data. Men hvad gør vi, når algoritmerne tager fejl? Eller sagt på en anden måde: Hvis vores overvågning bygger på kunstig intelligens, hvordan sikrer vi os så, at den kunstige intelligens er fair?   Din vært i dagens program er journalist Bo Elkjær.   Du kan lytte til podcasten ’Maskinstorm’ i din foretrukne podcastapp Podcastserien er støttet af Novo Nordisk Fonden