Creative Commons Attribution-NonDerivs 3.0 GermanyBröker, Hans-MartinBrauckmann, MichaelDose, Michael2025-09-242025-09-242025-09-22https://oa.tib.eu/renate/handle/123456789/23409https://doi.org/10.34657/22426In komplexen polizeilichen Ermittlungsverfahren fallen regelmäßig enorme Mengen an digitalen Daten an, insbesondere von Bildern, Videos, Audioaufnahmen, Text- und Sprachnachrich¬ten. Die Auswertung dieser Daten ist allein aufgrund des Umfangs ohne den Einsatz von KI-Verfahren nicht mehr denkbar. Mit dem Einsatz von KI-Verfahren sind jedoch auch Risiken für den Ermittlungserfolg verbunden, da KI-Verfahren in Abhängigkeit des verwendeten Modells, der zu analysierenden Daten und der genutzten Trainingsdatensätze unterschiedliche hohe Fehlerraten aufweisen. Die Europäische Kommission hat die mit dem Einsatz von KI-Verfahren inhärenten Risiken erkannt und mit dem AI-Act eine Verordnung verabschiedet, die auf einem risikobasierten Ansatz basiert und den Einsatz von KI gesetzlich reguliert. Hieraus resultieren auch Anforderungen an KI-Systeme bspw. zu Fairness, Erklärbarkeit, Transparenz etc. Im Kontext des Verbundprojektes VIKING erforschte dieses Teilprojekt Methoden zur Erzielung von Fairness-Eigenschaften, hier in Form von Debiasing-Verfahren für die von IDEMIA eingebrachte Gesichtserkennung. Ergebnisse dieser Arbeiten mündeten unter anderem auch in der durch die Verbundpartner erarbeite DINSPEC 91517:2025-05 (2025) - Anforderungen an vertrauenswürdige KI-Methoden in polizeilichen Anwendungen. DIN Media GmbH. Berlin, Germany.gerhttps://creativecommons.org/licenses/by-nd/3.0/de/600vertrauenswürdige Künstliche IntelligenzDebiasingGesichtserkennungStandardisierungVertrauenswürdige Künstliche Intelligenz für polizeiliche Anwendungen (VIKING); Teilprojekt: Debiasing biometrischer GesichtserkennungReport46 SeitenSchlussbericht zu dem Verbundprojekt