Verfahren der Künstlichen Intelligenz und des Maschinellen Lernens finden immer stärker Anwendung in der Praxis. Autonome Fahrzeuge, das Smart Grid, industrielle Regelungen und Überwachungen, Robotik, Scoring Systeme etc. basieren massiv auf diesen KI Verfahren. Dabei stellt sich die Frage inwieweit diese Verfahren und Anwendungen den Anforderungen nach Zuverlässigkeit, Sicherheit und Nicht-Angreifbarkeit bzw. Nicht-Manipulierbarkeit in der Praxis genügen.
Der Workshop dient insbesondere als Forum für eine intensive Diskussion, um die Verfahren und Systeme sicher zu gestalten. Es werden die Chancen und Herausforderungen der KI Verfahren im realen Einsatz sowohl aus Sicht der industriellen Praxis und der Anwender, als auch aus der Sicht der Wissenschaft und Forschung diskutiert.
Ausgewiesene Experten zu adressierten Workshop-Themen führen als Hauptredner in die Thematik ein. Nachwuchswissenschaftler, junge Ingenieure/Ingenieurinnen bzw. Informatiker/Informatikerinnen stellen ihre aktuellen Arbeiten vor.
Eingeladene Hauptredner:
Prof. Dr. Christian Wressnegger
Karlsruhe Institute of Technology, Institute of Information Security and Dependability:
Sicherheit von XAI
Christian Wressnegger ist Assistenzprofessor für Informatik am Karlsruher Institut für Technologie (KIT) und leitet die Forschungsgruppe "Sicherheit intelligenter Systeme" (intellisec).
Seine Forschung dreht sich um die Kombination der Bereiche maschinelles Lernen und Computersicherheit. Er entwickelt Methoden im Bereich der Anwendungs- und Systemsicherheit, z.B. Ansätze zur Angriffserkennung oder zur Entdeckung von Schwachstellen in Software und eingebetteten Geräten. Auch die Robustheit, Sicherheit und Interpretierbarkeit des maschinellen Lernens stehen im Mittelpunkt seiner Forschung.
Prof. Dr. Simon Burton
Research Division Director, Fraunhofer-Institut für Kognitive Systeme IKS:
Addressing uncertainty in the safety assurance of machine learning
Simon Burton erwarb seinen Abschluss in Computerwissenschaften an der Universität von York, wo er zur Verifikation von sicherheitskritischer Software im Jahr 2001 auch promovierte. Er konzentrierte sich auf Forschungs- und Entwicklungsprojekte sowie Beratung, Entwicklung und Produkt-Organisationen im Automotive-Bereich. Zuletzt hatte er die Rolle des Direktors für Sichere Fahrzeugsysteme bei der Robert Bosch GmbH inne. In dieser Funktion konzentrierte er sich unter anderem auf Strategieentwicklung für sichere automatisierte Fahrsysteme.
Seit September 2020 ist Simon Burton als Research Division Director für den Bereich Safety Mitglied des Direktoriums des Fraunhofer IKS und zeichnet für die Forschungsstrategie mit dem Fokus »Safe Intelligence« verantwortlich.
Seine persönlichen Forschungsbereiche umfassen dabei die Sicherheit komplexer, autonomer Systeme sowie die Sicherheit maschinellen Lernens. Zusätzlich zu seiner Rolle am Fraunhofer IKS ist Simon Burton Honorar-Gastprofessor an der Universität von York, wo er verschiedene Forschungsaktivitäten und interdisziplinäre Kollaborationen unterstützt.
Dr. Peter Deussen
National Standards Officer Germany, Corporate Standards Group, Microsoft Deutschland GmbH:
Standardisierungstrends im Zusammenhang mit Sicherheit
Peter Deussen ist National Standards Officer Germany in der Corporate Standards Group der Microsoft Deutschland GmbH. Er ist ein versierter Standardisierungsexperte mit langjähriger Erfahrung und Mitglied in ISO/IEC JTC 1 und DIN.
- ISO/IEC JTC 1ISO/IEC JTC 1 Standardization Professional: German Delegate in SC 27 - IT Security Techniques, German Delegate in SC 38 - Cloud Computing and Distributed Applications, German Delegate and Head of Delegation in SC 42 - Artificial Intelligence.
- Deutsches Institut für Normung Standards Professional: Co-Chair of NA 043-01-42 AA "Artificial Intelligence", Member of NA 043-01-38 AA "Distributed application platforms and services", Member of NA 043-01-27 AA "IT Security Techniques".
Doz. Dr.rer. nat. habil. Hendrik Schäbe
Principal Assessor RAMS / Teamleiter Funktonale Sicherheit, TÜV Rheinland InterTraffic GmbH:
Anwendung der KI in der Bahntechnik - mögliche Sicherheitsstrategien
Hendrik Schäbe ist Principal Assessor RAMS / Teamleiter Funktonale Sicherheit beim TÜV Rheinland InterTraffic GmbH. Sein Diplom und seine Promotion waren in der theoretischen Physik, seine Habilitation in der mathematischen Statistik.
Seine Tätigkeiten liegen auf dem Gebiet der Zuverlässigkeit und Sicherheit in der Automobilindustrie, Luft- und Raumfahrt, Kerntechnik sowie der Bahntechnik. Er arbeitet auf dem Gebiet der Funktionalen Sicherheit einschließlich dem Einsatz von Künstlicher Intelligenz.
PD Dr. Michael Mock
Fraunhofer-Institut für Intelligente Analyse und Informationssysteme (IAIS):
Ergebnisse aus dem Projekt "KI-Absicherung: Safe AI for Automated Driving“
Technologisch ist autonomes Fahren bereits in greifbarer Nähe – doch ohne nachgewiesene Sicherheit für alle Verkehrsteilnehmenden wird diese Vision nicht umgesetzt werden können.
Dr. Michael Mock ist Senior Data Scientist am Fraunhofer-Institut für Intelligente Analyse und Informationssysteme (IAIS) und Privat-Dozent für Informatik an der Universität Bonn. Sein aktueller Forschungsschwerpunkt liegt in der Vertrauenswürdigkeit von KI Systemen. Er ist Ko-Autor von über 100 Publikationen, aktiver Dozent in Data Science Seminaren des Fraunhofer Schulungsprogramms, und hat Erfahrungen in der Leitung großer Forschungs- und Industrieprojekte.
Der Call ist geschlossen. Das Programm finden Sie unten.
Der Workshop findet an der Hochschule Karlsruhe, Moltkestraße 30, 76133 Karlsruhe, statt (https://www.h-ka.de/standorte).
Zur Hochschule Karlsruhe (HKA-Campus) gelangen Sie vom Hauptbahnhof (Hbf) mit der Linie 2 (Knielingen Nord) oder Linie 3 (Rappenwörth/Daxlanden) bis Haltestelle „Europaplatz/Postgalerie“. Dort dem ausgeschilderten Fußweg in nördliche Richtung (ca. 10 Min.) folgen.
Oder vom Marktplatz mit der Linie 1 (Heide) bis Haltestelle „Kunstakademie/Hochschule“ und zu Fuß in östliche Richtung (Adenauerring, ca. 5 Min.) Der Workshop findet im Gebäude B bzw. hb statt. Parkmöglichkeiten gibt es in der Willy-Andreas-Allee nördlich des Gebäudes.
Die Vorträge finden im Hörsaal Bau hb statt (Bild oberer Teil). Pausen und Ausstellungen sind im Bau B (Bild unterer Querteil). Der Zugang zum Gebäude erfolgt von Süden in den Bau B.
Eine Ausstellung komplettiert den Workshop. Bei Interesse senden Sie bitte eine E-Mail an uns. Es stehen mehrere Flächen zur Verfügung.