Erklärbare Künstliche Intelligenz (XAI) in der Computer Vision: Eine systematische Literaturübersicht und Integration in eine simulierte Umgebung zur Analyse von Drohnenbildern
Art der Abschlussarbeit
Status der Arbeit
Betreuer/in
Hintergrundinformationen zu der Arbeit
Die Integration von Künstlicher Intelligenz in sicherheitskritische Systeme bietet große
Potenziale zur Unterstützung schneller und präziser Entscheidungen, insbesondere in Notfallleitstellen.
Allerdings stellt die Intransparenz vieler KI-Modelle eine erhebliche Hürde
dar, da ohne verständliche Erklärungen Vertrauen und Akzeptanz in diese Technologien
beeinträchtigt werden können. In dieser Arbeit wird untersucht, wie Explainable AI dazu
beitragen kann, die Transparenz von KI-gestützten Entscheidungsprozessen zu erhöhen und
somit die Entscheidungsfindung in sicherheitskritischen Anwendungen zu verbessern. Dazu
wurde zunächst eine systematische Literaturübersicht zu XAI-Methoden in der Computer
Vision durchgeführt und welchen Einfluss sie auf menschliches Verhalten haben. Anschließend
wurde durch eine Contextual Inquiry in einer Notfallleitstelle analysiert, welche
Anforderungen Dispositionsmitarbeitende an KI-Systeme stellen und um den Arbeitsablauf
dort besser zu verstehen. Basierend darauf wurde eine experimentelle Online-Studie
entwickelt, in der die Wirkung von der XAI-Methode Grad-CAM auf die menschliche
Entscheidungsfindung untersucht wurde. Die Ergebnisse zeigen, dass die XAI-Methode
Grad-CAM die Reliance der Nutzenden erhöhte. Gleichzeitig konnte jedoch keine signifikante
Verbesserung der Gesamtgenauigkeit in der Entscheidungsfindung festgestellt werden.
Das verdeutlicht die Notwendigkeit, XAI nicht nur als Mittel zur Erhöhung der Transparenz,
sondern auch in Bezug auf die Auswirkungen auf die menschliche Entscheidungsfindung
sorgfältig zu überprüfen. Die Erkenntnisse dieser Arbeit liefern praxisnahe Implikationen
für die Gestaltung und Implementierung von XAI in sicherheitskritischen Kontexten.
Starttermin
Okt. 2024
Abgeschlossen
Mai 2025