Wie Regeln und Standards die Zukunft künstlicher Intelligenz und autonomer Systeme prägen
Regeln und Standards spielen im Wettbewerb der Technologien und Zukunftsmärkte eine Schlüsselrolle. Das Positionspapier „Der Designer kontrolliert den Markt: Regeln und Standards“ der Fraunhofer-Gesellschaft weist auf die Bedeutung der Gestaltung von Regeln und Standardisierung hin und formuliert entsprechende Handlungsempfehlungen. Ein besonders wichtiges Tätigkeitsfeld in der Normung betrifft den Bereich der künstlichen Intelligenz und autonomen Systeme. Das Fraunhofer IESE gestaltet diesen Bereich maßgeblich mit und setzt Qualitätsstandards hinsichtlich Zuverlässigkeit und insbesondere Sicherheit.
Anwendungsübergreifende Sicherheit KI-basierter autonomer Systeme
Die Standardisierung von KI und autonomen Systemen ist für die Gewährleistung von Sicherheit und Zuverlässigkeit unerlässlich. Standards schaffen Transparenz, fördern Interoperabilität und ermöglichen Vertrauen. KI-Systeme sorgen dafür, dass sie auch in kritischen Bereichen sicher und effizient arbeiten. Deshalb engagiert sich das Fraunhofer IESE in zahlreichen nationalen und internationalen Standardisierungsgremien.
Auf internationaler Ebene arbeiten die beiden großen Normungsorganisationen IEC und ISO zusammen, um im Gremium die Standardisierung und Standardisierung autonomer Systeme und künstlicher Intelligenz voranzutreiben. ISO/IEC JTC 1/SC 42 “Künstliche Intelligenz”. Hier wird beispielsweise auch die internationale Definition der Begriffe „künstliche Intelligenz“ und „Autonomie“ entwickelt. Davor funktionale Sicherheit Das Komitee arbeitet ISO/IEC JTC 1/SC 42 Mit der Standardisierungsgruppe, die sich mit „Funktionaler Sicherheit“ und dem grundlegenden anwendungsübergreifenden Sicherheitsstandard beschäftigt IEC 61508 wird auf dem neuesten Stand gehalten. Ein Ergebnis dieser Zusammenarbeit ist beispielsweise ein technischer Bericht ISO/IEC AWI TR 5469 Künstliche Intelligenz – Funktionale Sicherheit und KI-Systeme Sei Es handelt sich um eine gemeinsame deutsche Arbeitsgruppe AK 914.0.11 Funktionale Sicherheit und künstliche Intelligenz. An beidem ist das Fraunhofer IESE aktiv beteiligt UND 914.0.11 sowie in den internationalen Beziehungen.
Zuverlässigkeit ist mehr als funktionale Sicherheit
um Zuverlässigkeit autonome Systeme Um dies zu gewährleisten, muss jedoch mehr als nur die funktionale Sicherheit berücksichtigt werden. Darunter zum Beispiel Dynamik Vernetzung zwischen Systemen und dem System komplexer Anwendungskontext viele autonome Systeme. In der Arbeitsgruppe DKE/AK 801.0.8 »Bestimmung und Gestaltung autonomer/kognitiver Systeme„Das Institut bringt seine eigenen Lösungen und Eigenheiten mit Systemsicherheit-Experte für Anwendungsregeln VDE-AR-E 2842-61 Entwicklung und Zuverlässigkeit autonomer/kognitiver Systeme (Weitere Informationen finden Sie hier).
Durch Synergien zur konsequenten Sicherheitsstandardisierung
Angesichts der Vielzahl an Handlungs- und Tätigkeitsfeldern ist es wichtig, den Überblick zu behalten. An diesem Punkt kommt der Normenausschuss NA 043-01-42 GA »Künstliche Intelligenz„Es hat eine besondere Bedeutung. Hier arbeiten die großen deutschen Normungsgremien DIN und DKE bei der Durchführung nationaler Aktivitäten zusammen koordinieren und Verbindungen zu europäischen und internationalen Aktivitäten herzustellen. Letzteres umfasst insbesondere die Reflexion europäischer Aktivitäten CEN-CENELEC JTC 21 »Künstliche Intelligenz„und internationale Aktivitäten in den oben genannten Bereichen ISO/IEC JTC 1/SC 42. Das Fraunhofer IESE unterstützt dies 01.01.42 GA bei der Identifizierung von Lücken in der Standardisierung und Standardisierung, Synergien zwischen aktuellen Aktivitäten und um die Konsistenz der Ergebnisse sicherzustellen.
Aktivitäten im Bereich Sicherheit autonomer Systeme auf Basis von KI
Grundlegende Sicherheitsregel IEC 61508 es wird nicht auf Einzelheiten eingegangen Umfang wie Avionik oder Automotive. Um den Unterschieden in den verschiedenen Anwendungsbereichen gerecht zu werden, gibt es von der IEC herausgegebene Normen 61508 sie sind zwar abgeleitet, gehen aber auf die Besonderheiten des Anwendungsgebietes ein. Dies ist beispielsweise im Automobilsektor der Fall ISO 26262. Das Konzept der abgeleiteten Standards ist auch nützlich, um notwendige Anpassungen an KI-basierten autonomen Systemen vorzunehmen. Eine Ableitung setzt allerdings voraus, dass es bereits etwas abzuleiten gibt. Dies ist heute nicht mehr der Fall, da die anwendungsübergreifenden Aktivitäten noch nicht abgeschlossen sind und es sich bei den Ergebnissen noch nicht um einen Standard handelt, sondern um weniger verbindliche Dokumente wie technische Berichte oder Anwendungsstandards. Um Zeit zu sparen, gibt es jedoch noch einige App-spezifische Aktivitäten.
Tätigkeiten im Anwendungsgebiet „Industrielle Anwendungen“.
Kompetente Beratung Künstliche Intelligenz in industriellen Anwendungen (DKE/AK STD 1941.0.8 SCI 4.0) verfügt beispielsweise über eine Standardisierung rund um das Thema Sicherheit koordiniert Dies spiegelt sich auch in seinem Beitrag wider Die erste Seite der KI-Standardisierung reflektieren Das Fraunhofer IESE beschäftigte sich insbesondere mit dem Thema „Sichere und zuverlässige Systeme“.
in der Zeit Die zweite Roadmap zur deutschen Normung Das Thema Sicherheit wurde unter Federführung des IESE in allen Anwendungen thematisiert, da viele Aspekte Auswirkungen auf alle Anwendungsbereiche haben. Dazu gehört auch der Umgang mit der Unsicherheit des maschinellen Lernens. National Ab SPEC 92500 definiert den Begriff Unsicherheit und dient als Ausgangspunkt für den internationalen Standard ISO/IEC NP TS 25223 gebraucht Dann können technische Vorschriften, die sich mit der Sicherheit von KI-Systemen befassen, auf die gleiche Definition von Unsicherheit verweisen und Inkonsistenzen zwischen Anwendungsbereichen können vermieden werden. Technischer Bericht ISO TR 5469Es befasst sich mit der „funktionalen Sicherheit von KI-Systemen“ und geht bereits darauf ein, wie mit den Unsicherheiten der KI umgegangen wird. In der darauf basierenden technischen Spezifikation ISO/IEC WD TS 22440 Es ist wahrscheinlich, dass spezifischere Bedingungen formuliert werden, um mit der Unsicherheit umzugehen. Deutscher Anwendungsstandard für Zuverlässigkeit autonomer/kognitiver Systeme VDE-AR-E 2842-61 Dies führt zur Klassifizierung von Fehlern im Zusammenhang mit Unsicherheit als neue Fehlerklasse (zusammen mit systematischen und zufälligen Fehlern).
Im Rahmen der Kommission IEC/TC 44/WG 14 „Sicherheit von Maschinen – Elektrosensible Schutzausrüstung – Sicherheitsbezogene Sensoren zum Schutz von Personen“ Das Institut setzt seine Expertise in die Praxis um innovative intelligente Schutzfunktionen A.
Tätigkeiten im Bereich »Automotive«-Anwendung
In der Automobilindustrie nutzt das Fraunhofer IESE die Kollaborationsplattform „The Autonomous“, um Innovationsthemen wie dynamisches Risikomanagement anzugehen. Eine weitere thematische Achse entspricht der Erstellung einer Struktur Sicherheitszertifikat (Versicherungsfall). Insbesondere im Automobilbereich wird die Erstellung solcher Nachweise immer wichtiger. UL 4600 oder geplante Aktivitäten im Kontext ISO/NP PAS 8800 Straßenfahrzeuge – Sicherheit und künstliche Intelligenz er gibt zu
Was bedeuten diese Aktivitäten für mein Unternehmen?
Die oben genannten Aktivitäten sind besonders wichtig für Lieferanten, Integratoren und Hersteller sicherheitskritischer Produkte. Allerdings richten sie sich zunehmend auch an Betreiber, da sich neue Fragen zur Rolle des Betreibers in KI-basierten autonomen Systemen stellen. Zusätzlich zum üblichen Fokus auf Sicherheit während der Markteinführung liegt ein zunehmender Fokus auf der Aufrechterhaltung der Sicherheit nach der Markteinführung.
Wenn Sie Fragen zum „Normdschungel“ haben und wissen möchten, ob dieser eine Chance oder ein Risiko für Ihr Unternehmen darstellt, kontaktieren Sie uns bitte.