Erklärbare KI und Entwicklung neuartiger Architekturen
Trotz erstaunlicher Fortschritte auf dem Gebiet des maschinellen Lernens (ML) ist die Robustheit von Hochleistungsmodellen, insbesondere der auf Deep Learning-Technologien basierenden, geringer als ursprünglich prognostiziert. Diese Netzwerke verallgemeinern nicht wie erwartet und bleiben anfällig für kleine bösartige Störungen (die sogenante Adversarial Attacks). Solche Unzulänglichkeiten stellen ein kritisches Hindernis für die Implementierung von Deep Learning Modellen für sicherheitskritische Bereiche wie z.B. autonomes Fahren, medizinische Bildverarbeitung und Bonitätsprüfung dar.
Darüber hinaus zeigt die Lücke zwischen guter Performance und Robustheit auch den mangelnden Erklärbarkeit moderner KI-Ansätze: Trotz guter Performance können selbst Experten die Modellvorhersagen nicht zuverlässig interpretieren. Die Ziele dieses Projekts sind daher dreifach: Untersuchung der Erklärungs- und Interpretierbarkeit bestehender KI-Ansätze (Schwerpunkt: Deep Neural Networks), Entwicklung neuartiger Architekturen und Trainingsverfahren, die vom Design her besser interpretierbar sind und Analyse der Trade-offs zwischen Erklärbarkeit, Robustheit und Performance.
Quelle: Lernende Systeme – Plattform für künstliche Intelligenz
Die Informationen zu den KI-Projekten sind unverbindlich. Wir übernehmen keine Garantie für Richtigkeit oder Vollständigkeit. Wir laden Sie herzlich dazu ein, uns jederzeit Projekte und Anfragen per E-Mail zu senden. Wir schätzen Ihr Feedback und sind offen für Ideen. Kontakt: info@cyberlago.net.