KI-Ziele - AIMS ISO 42001 Framework
Die Norm ISO 42001 hat einige Schlüsselziele, die Organisationen dabei helfen sollen, KI-Technologie auf nachhaltige Weise zu nutzen und zu entwickeln. Dies erinnert Sie vielleicht an die Nachhaltigkeitsziele der ESG-Taxonomie.
Die wichtigsten KI-Ziele des auf ISO 42001 basierenden KIMS sind:
- Verantwortlichkeit
- Umweltauswirkungen
- Fairness
- Datenschutz
- Wartungsfähigkeit
- Robustheit
- Sicherheit
- Transparenz
- Erklärbarkeit
- KI-Governance
- Zuverlässigkeit
- Zugänglichkeit
In diesem Artikel werden wir uns jedes Ziel im Detail ansehen, da es wichtig ist, sie richtig zu verstehen. Die Entwicklung eines maßgeschneiderten KIMS erfordert, dass Sie die oben genannten Ziele auf eine Weise angehen, die zu Ihrem Geschäftsmodell und Ihren Aktivitäten passt.
KI-Ziele nach ISO IEC 42001
Der internationale Standard ISO IEC 42001:2022 hat eine Reihe von Zielen. Sie basieren auf vielen Problemen, die sich aus der Art und Weise ergeben, wie KI in der Vergangenheit eingesetzt wurde. Regierungen, Bürgerrechtsaktivisten und Branchenführer wollen KI auf nachhaltige Bahnen bringen. Die folgenden Ziele werden in Bezug auf die beobachteten Probleme eingeführt und sollen die Situation korrigieren.
Rechenschaftspflicht
Der ISO 42001-Standard verlangt von Organisationen, bei der Nutzung von KI-Technologie mehr Verantwortung zu übernehmen. Daher muss ein KIMS die Managementgrundlage für einen Rahmen zur Verantwortung bilden. Zu oft verursachen unregulierte KI-Modelle Schäden für die Öffentlichkeit. Indem eine Organisation die Verantwortung innerhalb des KIMS anspricht, ergreift sie Maßnahmen, um potenziellen Betriebsrisiken, rechtlichen Bedenken und Markenschäden entgegenzuwirken. Beim Verfassen des KIMS ist es notwendig, die wichtigsten Interessengruppen aufzulisten, nämlich Benutzer, ihre Unternehmen, KI-Entwickler, KI-Anbieter, Anbieter von Trainingsdaten und Aufsichtsbehörden.
Umweltauswirkungen
KI-Systeme haben aufgrund ihres höheren Energieverbrauchs und der Nutzung natürlicher Ressourcen erhebliche Auswirkungen auf die Umwelt. Daher wird ihr ökologischer Fußabdruck durch die Art und Weise beeinflusst, wie KI-Technologien entwickelt, eingesetzt und ausgeführt werden. Zu berücksichtigende Hauptaspekte sind der Energieverbrauch von Rechenzentren während des Modelltrainings, die Kreislaufwirtschaft der Hardware, der CO2-Fußabdruck, die Veralterung und der Elektroschrott.
Fairness
Fairness in der KI bezieht sich auf Versuche, algorithmische Voreingenommenheit in automatisierten Entscheidungsprozessen mithilfe von Modellen des maschinellen Lernens zu korrigieren. Wenn Computer sensible Variablen wie Geschlecht, Rasse, Sexualität oder Behinderungen verwenden, um Entscheidungen im Rahmen des maschinellen Lernens zu treffen, kann dies zu verzerrten oder unfairen Ergebnissen führen. Voreingenommenheiten können in verschiedenen Phasen in das Modell eingeführt werden –
KI wird oft für falsche Entscheidungen aufgrund einer inhärenten Voreingenommenheit verantwortlich gemacht. Fairness in der KI zielt darauf ab, algorithmische Voreingenommenheit zu bekämpfen. Automatisierte Entscheidungsprozesse mithilfe von Modellen des maschinellen Lernens können zu verzerrten oder unfairen Ergebnissen führen. Organisationen müssen Voreingenommenheit angehen, um sicherzustellen, dass sensible Variablen nicht zu Voreingenommenheit führen, wenn Entscheidungen im Rahmen des maschinellen Lernens getroffen werden. Sensible Variablen sind Informationen über das Geschlecht, die Rasse, Sexualität oder Behinderungen einer Person.
Solche nachteiligen Voreingenommenheiten können in verschiedenen Phasen in das Modell gelangen:
1. Formulierung des Geschäftsproblems:
Wenn das Geschäftsproblem nicht richtig definiert ist und seine Verwendung keine Grenzen hat, wird die Fairness definitiv beeinträchtigt. Stellen Sie sicher, dass Sie den Anwendungsfall klar definieren, gut beschriebene Einschränkungen und Ausnahmen festlegen und die Personen benennen, die für die Entwicklung des AI-ML-Modells verantwortlich sind.
2. Trainingsdaten:
Während des Trainings der KI und der Datenvalidierung können sich unbemerkt Probleme entwickeln. Dies führt aufgrund der inhärenten Ungerechtigkeit der für das Training verwendeten Daten zu unerwünschten Ergebnissen.
- Verzerrung in den Stichprobendaten: Der Trainingsdatensatz ist möglicherweise nicht repräsentativ und führt zu Fehlinterpretationen. Hier muss der Datensatz auf Probleme bei der Stichprobennahme, das Vorhandensein versteckter Proxy-Variablen, rechtliche Probleme oder Zustimmungsprobleme überprüft werden. Solche Probleme können zu rassistischen, geschlechtsspezifischen oder politischen Vorurteilen führen.
- Identifizieren und Transformieren sensibler Merkmale: Wenn eine Stichprobe eine benachteiligte Gruppe enthält, müssen die Modellgewichte angepasst werden. Das Ergebnis für diese benachteiligte Gruppe sollte dann akzeptabel sein.
3. Trainingsalgorithmus / Modellarchitektur:
Verzerrungen können als Ergebnis des Modelldesigns auftreten. Es ist wichtig, dieses Problem zu behandeln, da es zu irreführenden Ergebnissen führen kann. Ein solches nachteiliges Ergebnis beeinträchtigt ein Ergebnis, selbst wenn gute Daten verwendet werden.
- Modellaufbau: Man muss sich darüber im Klaren sein, dass die Modellarchitektur unter inhärenten Problemen leidet, die Verzerrungen verursachen: Regressionsverzerrung, Klassifizierungsverzerrung oder Clustering-Verzerrung. In den Modellparametern können Berechnungsfehler auftreten. Dies führt zu überangepassten/unterangepassten Modellen. Schließlich beeinträchtigen Verzerrungen und Rauschen die Ausgabedaten.
- Modelldrift: Wenn AI-ML-Modelle mit Daten gefüttert und für automatisierte Entscheidungen verwendet werden, fließen Probleme zurück in den Datensatz und verschärfen die problematische Situation. Dadurch ändert sich der Charakter des Geschäftsproblems. Dies macht eine Neumodellierung und Neuschulung erforderlich. Dies führt unweigerlich dazu, dass erneut Verzerrungen in das KI-System eingeführt werden.
Privatsphäre
KI-Technologie verarbeitet große Datenmengen. Die Quelle solcher Daten ist manchmal höchst fragwürdig, da dies zu Verstößen gegen die Vertraulichkeit, die Privatsphäre oder sogar gegen geistiges Eigentum führen kann. Die Art und Weise, wie Daten verarbeitet werden, ist ein weiteres Konfliktfeld. Daher treten Datenschutzprobleme auf. Menschen könnten durch die unbefugte Offenlegung sensibler Daten geschädigt werden. Der Missbrauch solcher Daten ist inakzeptabel. Trends zeigen, dass böswillige Akteure durch feindliche Angriffe und Modellvergiftung an sensible Daten gelangt sind. Dies ermöglicht es ihnen, KI-gesteuerte Entscheidungen zu manipulieren oder die Integrität und Zuverlässigkeit von KI-Systemen zu beeinträchtigen. Infolgedessen werden Privatsphäre und Sicherheit stark beeinträchtigt.
Massenüberwachung und Datenschutzbedenken werden durch die weit verbreitete Einführung von KI-gestützter Gesichtserkennungs- und Standortverfolgungstechnologie zur Verbrechensbekämpfung vorangetrieben. Die Gewohnheiten, Handlungen und Bewegungen einer Person werden vollständig nachvollziehbar. Solche Daten können von Regierungen und Cyberkriminellen missbraucht werden. Daher verletzen sie Datenschutzrechte und bürgerliche Freiheiten. Hier versuchen ISO 42001 und das EU-KI-Gesetz, die KI-Technologie positiv in Richtung eines sozial sichereren Designs zu lenken. Ein solcher Datenschutz durch Design muss Teil des Lebenszyklus in KI-Projekten werden, ebenso wie die Anonymisierung und Minimierung von Daten. Es ist wichtig, nachzuweisen, dass die Einhaltung von Regeln und Standards solche Probleme lösen kann.
Wartbarkeit
- Modularität und Wiederverwendbarkeit: Durch die Anwendung eines modularen Designs von KI-Systemen ist es möglich, Komponenten wiederzuverwenden/auszutauschen, ohne das gesamte KI-System zu beeinträchtigen.
- Dokumentation und Versionskontrolle: Die Dokumentation von KI-Projekten muss umfassend und konsistent sein. Elemente wie Codekommentare und Benutzerhandbücher sollten auf dem neuesten Stand sein. Die Dokumentation der Datenvorverarbeitung, des Modelltrainings und der Bereitstellungsprozesse darf keine signifikanten Lücken aufweisen. Versionskontrollsysteme sind für Entwickler nichts Neues. Sie erleichtern das Nachverfolgen von Änderungen, die Zusammenarbeit mit anderen und das Zurückkehren zu früheren Versionen erheblich.
- Codequalität: Beim Codieren für KI-Projekte ist es notwendig, eine Codehygiene einzuhalten. Hochwertiger Code muss anerkannten Best Practices folgen. Richtige Namenskonventionen, ein konsistenter Stil und effiziente Algorithmen reduzieren die Frustration der Entwickler und verbessern die Wartungskosten.
- Skalierbarkeit: Das Design des KI-Systems sollte eine Skalierung nach oben oder unten nach Bedarf ermöglichen. Leistung und Ressourcenmanagement sollten unabhängig von der Skalierung ausgewogen bleiben.
Robustheit
Für die Robustheit von KI muss die KI-Technologie widerstandsfähig gegenüber Änderungen der Eingabedaten oder Modellparameter sein. Daher gewährleistet die Robustheit von KI eine konsistente und zuverlässige Leistung auch in unerwarteten Szenarien. Robustheit sorgt für Zuverlässigkeit und Widerstandsfähigkeit des Modells gegenüber dynamischen Änderungen der verwendeten Daten. Leider ist dies keine eigenständige Lösung für die Probleme von KI. Übermäßig konservative Modelle verringern die Fairness der angewandten Modelle.
Die Robustheit von Modellen ist wie folgt:
- Datenpipeline: Hier prüfen Datenvalidierungsmodule auf Besonderheiten in zukünftigen Daten
- Modellpipeline: Hier wird sichergestellt, dass das Modell nicht angegriffen werden kann, um unerwünschte Ergebnisse zu erzeugen
- Systemrobustheit: KI-Modelle werden Teil von Anwendungen sein. Die gesamte Pipeline sollte sicher sein.
Durch die Bewertung der Robustheit von KI-Systemen mithilfe quantitativer Metriken können Sie beobachten, wie gut die Modelle unter verschiedenen Stressbedingungen funktionieren. Zu solchen Bedingungen können feindliche Angriffe, Rauschen und Verschiebungen der Datenverteilung gehören. Die Rate falsch positiver/negativer Ergebnisse, die MSE-Studie, die Wasserstein-Distanz und der Brier-Score können als Schlüsselmetriken verwendet werden.
Ungefährlich
Sichere KI-Systeme sollten weder menschliches Leben, Gesundheit, Eigentum noch die Umwelt gefährden. Unsere Erwartungen an die Sicherheit von KI-Systemen sind sogar noch höher, wenn autonome Fahrzeuge oder Roboter im Gesundheitswesen Leben kosten können, wenn die Systeme gefährlich versagen. Daher müssen strenge Tests und Validierungen sicherstellen, dass KI-Systeme Sicherheitsstandards und behördliche Anforderungen erfüllen.
Die Einführung mehrerer Sicherheitsvorkehrungen durch Ausfallsicherungen und Redundanzen sollte verhindern, dass Fehler Schaden oder erhebliche Störungen verursachen. Die Idee eines Human in the Loop (HITL) sollte die Sicherheit von KI-Systemen verbessern. Kritische Entscheidungsszenarien können ein KI-System überfordern und erfordern daher, dass Menschen eingreifen, die Aktionen der KI bei Bedarf außer Kraft setzen oder leiten.
Sicherheit
Die Sicherheit von KI-Systemen sollte die KI-Modelle, Daten und Infrastruktur vor Bedrohungen und Schwachstellen schützen. Die Vertraulichkeit, Integrität und Verfügbarkeit des Systems und seiner Daten sind von größter Bedeutung.
Datensicherheit soll verhindern, dass von KI-Systemen verwendete Daten manipuliert werden. Sie sollte sie vor unbefugtem Zugriff schützen.
Modellsicherheit muss KI-Modelle vor Reverse Engineering oder Manipulation durch Unbefugte schützen. Das Modell und die Daten müssen gegen feindliche Angriffe geschützt werden. Böswillige Akteure wollen Eingaben manipulieren, um das Modell in die Irre zu führen.
Es gibt eine Reihe von Möglichkeiten, solche Angriffe abzuschwächen: feindliches Training, Eingabevalidierung, Anomalieerkennung, Zugriffskontrolle, Audit und Überwachung, Risikobewertung und Patch-Management.
Transparenz
Laut ISO 42001 bietet KI-Transparenz Einblicke in die Daten, die das KI-System verwendet und wie es Entscheidungen trifft. Dadurch können wir verstehen, warum das KI-System auf eine bestimmte Weise handelt.
Die Organisation und die Benutzer sind die beiden Perspektiven der Transparenz. Die Organisationsperspektive bezieht sich auf die Personen, die für die Entscheidungsfindung, die Pflege von Modellen und Datenströmen verantwortlich sind.
Im Gegensatz dazu kennt die Benutzerperspektive den Ursprung und die Form der Daten sowie die Art und Weise, wie die Organisation sie verwendet.
Transparenz hat 3 Ebenen:
- Algorithmische Transparenz (Logik und Modell)
- Interaktionstransparenz (Benutzeroberfläche)
- Soziale Transparenz (Auswirkungen dieser Interaktion auf die Gesellschaft)
Erklärbarkeit
Die Komplexität von KI-ML-Technologien ist für die Öffentlichkeit zunehmend schwieriger zu verstehen. Dies führt aufgrund fehlender verständlicher Erklärungen zunehmend zu Ängsten und Misstrauen. Hier ermöglicht Erklärbarkeit, dass KI-Modelle für Menschen verständlich werden. Der Entscheidungsprozess kann dadurch menschenfreundlicher verfolgt werden. Organisationen müssen die Modelle sowohl aus technischer als auch aus geschäftlicher Sicht verstehen. Erklärbarkeit ermöglicht es Organisationen, Vertrauen in die KI-ML-Modelle aufzubauen. Tools wie LIME und SHAP ermöglichen die Messung der Modellerklärbarkeit. Die Idee besteht darin, die Input-Output-Vorhersagen der Modelle zu analysieren.
KI-Governance
Es ist wichtig, die ethischen Auswirkungen der Integration menschlicher Komponenten in Modelle und Anwendungen zu berücksichtigen. Technologie darf weder der Gesellschaft noch den Benutzern schaden. Es liegt im Interesse von KI-Entwicklern, -Benutzern und -Gesetzgebern, sicherzustellen, dass KI-Technologien im Einklang mit den Werten der Gesellschaft entwickelt und verwendet werden. Bedenken hinsichtlich Voreingenommenheit, Datenschutz und Missbrauch müssen berücksichtigt werden. Die Förderung von Innovation und Vertrauen ist nur möglich, wenn die KI-Governance in der Lage ist, Missbrauch zu bewältigen.
Zuverlässigkeit
Stakeholder erwarten, dass KI-Technologie zuverlässig ist und gültige KI-Ergebnisse liefert. Ergebnisse haben einen direkten Einfluss auf effektive Entscheidungen. Es ist von größter Bedeutung, das Vertrauen der Stakeholder in die Organisation aufrechtzuerhalten. KI-Systeme ohne oder mit begrenztem menschlichen Input können Risiken besser minimieren. Um konsistente Ergebnisse zu liefern und eine hervorragende Leistung aufrechtzuerhalten, müssen einige wichtige Dinge getan werden: Sie müssen trainiert, validiert, überwacht, transparent und kontinuierlich verbessert werden.
Zugänglichkeit
Eine breite Palette von Menschen greift auf KI-Technologie zu. Es gibt professionelle KI-Entwickler und solche, die aus den unterschiedlichsten Gründen damit herumspielen. Manche Leute entwerfen benutzerfreundlichere Schnittstellen. Zugangsbarrieren für KI sind oft Sprachenvielfalt und Zugänglichkeit für Menschen mit Behinderungen. In Entwicklungsländern sind die Kosten der KI-Technologie oft ein finanzielles und energiebezogenes Problem. Daher sehen wir Menschen mit unterschiedlichen Fähigkeiten und Bedürfnissen, die mit KI interagieren.
User Empowerment will Benutzern helfen, Zugang zu den Tools und Informationen zu erhalten, die sie benötigen, um KI-bezogene Möglichkeiten zu nutzen. Informierte Entscheidungen über KI-Interaktionen schaffen Vertrauen und erhöhen die Akzeptanz dieser neuen Technologie. Bildung und Transparenz sind die wichtigsten Grundlagen für User Empowerment auf der ganzen Welt. Benutzer möchten verstehen, wie KI-Systeme funktionieren und wie sie gesteuert werden können. Eine positive und integrative KI-Erfahrung für alle Benutzer kommt allen ethischen Interessengruppen zugute.