Lade Veranstaltungen

« Alle Veranstaltungen

  • Diese Veranstaltung hat bereits stattgefunden.

AI xpress NET: ML4Safety – Absicherung von Machine-Learning-Algorithmen für sicherheitskritische Funktionen

14. November 2024 17:30 19:00

Beschreibung

AI xpress NET ist der Techtalk rund um KI-Themen im Startup- und Innovationszentrum AI xpress. Du bist Entwickler:in oder KI-Expert:in und interessierst dich für einen Austausch auf hohem technischen Niveau, dann ist AI xpress NET genau das Richtige für dich.

In sicherheitskritischen Anwendungen wie autonomen Fahrzeugen, Baumaschinen oder Cobots bietet der Einsatz von Machine-Learning (ML) enorme Chancen für die Automatisierung und Effizienzsteigerung. Doch Bedenken hinsichtlich der Zuverlässigkeit, Robustheit und Erklärbarkeit von ML-Modellen verhindern bisher deren breiten Einsatz. Im Rahmen des vorgestellten Fraunhofer-Projekts wird ein umfassendes Framework zur Verifikation von safeML entwickelt, das den Einsatz von ML-Verfahren in sicherheitskritischen Systemen ermöglicht. Unser Referent Björn Heiderich zeigt, wie innovative Ansätze zur Entwicklung und Überprüfung von ML-Systemen dazu beitragen können, ein vergleichbares Sicherheitsniveau wie bei herkömmlicher Software zu erreichen. Die Präsentation stellt dabei Anwendungen in verschiedenen Einsatzbereichen vor und erläutert, wie mit iterativen, automatisierten Methoden die Fehlerraten minimiert und die Entwicklungskosten dieser reduziert werden können.

Nutzen für die Besucher:innen

  • Verständnis für die Herausforderungen bei der Absicherung von Machine-Learning-Algorithmen: Sie erfahren, warum es wichtig ist, die Zuverlässigkeit, Robustheit und Erklärbarkeit von ML-Modellen zu verbessern, um deren Einsatz in sicherheitskritischen Anwendungen zu ermöglichen.
  • Einblicke in das “safeML”-Framework: Sie lernen innovative Methoden zur Verifikation und Validierung von ML-Verfahren in sicherheitsrelevanten Anwendungen kennen.
  • Praktische Anwendungsbeispiele: Erfahren Sie, wie ML in autonomen Fahrzeugen, Baumaschinen und Cobots sicher eingesetzt werden kann und welche Hürden es dabei zu überwinden gilt.
  • Erhöhte Sicherheit und Vertrauen in ML-Systeme: Sie sehen, wie komplementäre Methoden und simulationsbasierte Prüfungen helfen, sicherheitsrelevante Fehler in ML-Systemen zu minimieren und so das gleiche Maß an Vertrauen zu schaffen wie bei konventioneller Software.

Weitere Termine:

12.12.2024 Die Alternative zu Cloud-APIs: On-premise-Betrieb von OpenSource KI-Modellen

23.01.2025 AIQualify – Framework zur Qualifizierung von KI-Systemen in der industriellen Qualitätsprüfung

Speaker

Björn Heiderich, Wissenschaftlicher Mitarbeiter – Verifizierbare KI Fraunhofer IPA

Björn Heiderich ist wissenschaftlicher Mitarbeiter im Bereich Verifizierbare KI am Fraunhofer IPA. Er beschäftigt sich mit der Verifikation von KI-Modellen hinsichtlich Sicherheit und Robustheit für sicherheitskritische Anwendungen wie autonome Fahrzeuge und kollaborierende Roboter. Sein Forschungsschwerpunkt liegt auf der Entwicklung von Methoden zur sicheren und effizienten Überprüfung von KI-Systemen. Vor seiner Tätigkeit am Fraunhofer IPA absolvierte er seinen Master of Science am Karlsruhe Institute of Technology (KIT).

Anmeldung

kostenlos keine Teilnahmegebühr

Anmeldungen sind für diese Veranstaltung geschlossen

TIPP >> Unsere Veranstaltungsreihe “KI Roundtable” wäre auch für dich interessant!

Veranstalter