
AI-Ethik
Was es ist und was man darüber wissen sollte
AI-Ethik verbindet künstliche Intelligenz (AI) mit ethischen Grundsätzen – den Leitprinzipien von Recht und Unrecht, die definieren, wie Menschen handeln sollten. Warum ist das so wichtig? Weil die AI-Technologie es möglich macht, dass Maschinen die menschliche Entscheidungsfindung nachahmen und Aufgaben auf intelligente Weise automatisieren. Um das auf eine sichere Art und Weise zu tun, brauchen wir Richtlinien, die sicherstellen, dass AI-Systeme im Einklang mit grundlegenden menschlichen Werten wie Privatsphäre, Inklusion, Fairness und Schutz der Individualrechte entwickelt und eingesetzt werden.
Die Geschichte der AI-Ethik: „Können Maschinen denken?“
Künstliche Intelligenz hat in den letzten Jahren die Schlagzeilen beherrscht und die Öffentlichkeit in ihren Bann gezogen – aber die Ursprünge gehen Jahrzehnte zurück. Die AI-Forschung begann in den 1950er Jahren, als die ersten Pionier:innen grundlegende Konzepte und Algorithmen entwickelten.
Die jüngsten Fortschritte in den Bereichen Rechenleistung, Big Data und maschinelles Lernen haben AI in den Mainstream katapultiert und die Auswirkungen von AI in unserem täglichen Leben sichtbar und greifbar gemacht. Denken Sie dabei an die rasante Verbreitung von generativer AI (GenAI) – einer Form von AI-Technologie, die über Vorhersagen hinausgeht und als primäre Ausgabe neue Daten generiert.
Bei all dem Hype um GenAI könnte man leicht glauben, dass unsere Generation die erste ist, die komplexe Fragen zu verzerrten Daten, Rechenschaftspflicht, algorithmischer Fairness und den gesellschaftlichen Auswirkungen von intelligenten Maschinen hat. Doch die Bedenken über die Auswirkungen von AI und intelligenten Maschinen reichen bis in die Anfänge der digitalen Datenverarbeitung zurück.
Es begann mit Visionär:innen wie Alan Turing, die sich mit den philosophischen und ethischen Implikationen der künstlichen Intelligenz auseinandersetzten. Die Fragen, die Turing nachts wach hielten – über die Art des Bewusstseins und das Potenzial von Maschinen, zu denken und zu lernen – sind auch im modernen Diskurs über AI-Ethik nach wie vor präsent und entwickeln sich weiter.
Die Geschichte der AI-Ethik im Überblick
Klicken Sie sich durch die Jahre und erfahren Sie mehr über einige wichtige Meilensteine in der Entwicklung der AI-Ethik.
Expertenrat zu vertrauenswürdiger AI
„Das Vertrauen in AI muss aufgebaut werden, bevor die erste Zeile Code geschrieben wird.“ Das ist nur einer der Tipps zum Thema AI-Ethik von Reggie Townsend, Vice President der SAS Data Ethics Practice. In diesem kurzen Video erfahren Sie weitere Tipps, die Townsend bereits mit einem weltweiten Publikum geteilt hat.
AI-Ethik in der Welt von heute
Die Einhaltung von AI-Ethik fördert Aspekte wie Transparenz, Verantwortlichkeit und Vertrauen. Um das Thema Ethik im Bereich der künstlichen Intelligenz jedoch zu verstehen, muss man sich mit den komplexen moralischen, rechtlichen und gesellschaftlichen Auswirkungen von Daten und AI auseinandersetzen. Erfahren Sie, wie Expert:innen diese kritischen Herausforderungen bei der Entwicklung und dem Deployment von AI verantwortungsvoll angehen.
NIH überwindet Barrieren in der Gesundheitsforschung mit vielfältigen Datensätzen
Ein pauschaler Ansatz für die medizinische Forschung hat Grenzen. Unsere Körper sind alle unterschiedlich – abhängig davon, wo Sie leben, was Sie essen, wie Ihr Erbgut beschaffen ist, welchen Belastungen Sie im Laufe Ihres Lebens ausgesetzt waren und mehr. Bei den National Institutes of Health (NIH) soll das All of Us Research Program die Art der Datenerfassung und -weitergabe in der biomedizinischen Forschung verändern. Durch den Aufbau umfassender Datensätze, die die große Vielfalt der Menschen in den USA widerspiegeln, umfassen die Forschungsdatensätze nun viele Menschen, die zuvor unterrepräsentiert waren. Es geht darum, die Forschung vertrauenswürdiger zu machen und die Transparenz und Ethik von AI und Analytics sicherzustellen.
Welche Branchen wenden AI-Ethik an?
Seien es autonome Fahrzeuge, AI-Chatbots oder jetzt AI-Agenten – Entscheidungen, die von AI getroffen werden, beeinflussen den Menschen auf unterschiedliche Weise. Daher ist AI-Ethik in vielen Branchen, einschließlich Big-Tech-Unternehmen, ein wichtiger Aspekt. Viele Unternehmen erkennen heutzutage, wie wichtig es ist, über einen ethischen Rahmen zu verfügen, um ihre AI-Anwendungen und AI-Initiativen zu steuern, potenzielle Risiken zu minimieren und Vertrauen bei den Stakeholdern aufzubauen.
Wie AI-Ethik funktioniert: Die Ethik von künstlicher Intelligenz verstehen
AI-Ethik bewegt sich an der Schnittstelle von Technologie, Philosophie und Sozialwissenschaft. Um diese leistungsstarke Technologie erfolgreich zu nutzen, müssen wir in jeder Phase des AI-Lebenszyklus ethische Überlegungen einbeziehen – von der Datenerfassung über die Entwicklung von Algorithmen bis zum Deployment und der Überwachung. Werfen wir einen Blick auf einige der wichtigsten Prinzipien.
Der Mensch im Mittelpunkt
AI-Systeme, die menschliche Bedürfnisse und Werte in den Vordergrund stellen, werden mit höherer Wahrscheinlichkeit angenommen, als vertrauenswürdig angesehen und effektiv genutzt. Indem wir bei der Entwicklung und Implementierung von AI den Menschen in den Mittelpunkt stellen (Human Centricity), können Unternehmen verantwortungsvolle, effektive und gesellschaftlich dienliche AI-Systeme hervorbringen, die die menschliche Intelligenz und Kreativität ergänzen.
Zu den Methoden und Ansätzen zur Umsetzung von Human Centricity gehören:
- Human-in-the-Loop (Integration menschlicher Abwägung an entscheidenden Stellen in AI-Prozessen, insbesondere bei risikoreichen Entscheidungen)
- Partizipatives Design
- Ethische Folgenabschätzungen
- Adaptive AI (Systeme, die ihr Verhalten auf der Grundlage von menschlichem Feedback und sich ändernden Kontexten anpassen).
Bei der Weiterentwicklung von AI wird es von entscheidender Bedeutung sein, den auf Menschen ausgerichteten Ansatz weiterzuführen, um AI-Systeme zu schaffen, die für die Gesellschaft von Nutzen sind und gleichzeitig die Rechte und die Würde des Einzelnen respektieren.
Fairness und Verantwortlichkeit
Ein wichtiger Aspekt von AI-Ethik ist die Gewährleistung fairer, unverzerrter Ergebnisse. Ein Beispiel: Wenn Ihr Algorithmus Tiere als Menschen identifiziert, müssen Sie mehr Daten über eine größere Vielfalt von Menschen zur Verfügung stellen. Wenn Ihr Algorithmus ungenaue oder unethische Entscheidungen trifft, kann das bedeuten, dass nicht genügend Daten vorhanden waren, um das Modell zu trainieren, oder dass das bestärkende Lernen nicht für das gewünschte Ergebnis geeignet war.
Menschen haben AI-Systeme, manchmal unabsichtlich, mit unethischen Werten ausgestattet, weil sie Daten falsch ausgewählt oder Verstärkungswerte falsch zugeordnet haben. Einer der ersten technischen Schritte zur Sicherstellung der AI-Ethik ist die Entwicklung von Fairness-Metriken und Methoden zur Reduktion von Verzerrungen. Demographische Parität und ausgeglichene Wahrscheinlichkeiten messen die Fairness von Algorithmen. Die erneute Gewichtung von Trainingsdaten und die gegensätzliche Reduktion von Verzerrungen können dazu beitragen, erlernte Verzerrungen abzuschwächen.
Dies ist kein einmaliger Prozess. Regelmäßige Audits, kombiniert mit Diversität in den AI-Entwicklungsteams, tragen dazu bei, während des gesamten Lebenszyklus des AI-Systems Fairness und Verantwortlichkeit zu gewährleisten. Es reicht nicht aus, einmalige Gespräche über diese Themen zu führen. Wir müssen sie zu einem kontinuierlichen und integralen Bestandteil unseres Dialogs machen.
Transparenz und Erklärbarkeit
Transparenz und Erklärbarkeit sind für den Aufbau von Vertrauen, die Einhaltung von AI-Vorschriften und eine ethische Validierung entscheidend. Transparente, erklärbare AI ermöglicht es den Entwickler:innen, Verzerrungen oder Fehler in der Entscheidungsfindung zu erkennen und zu beheben und macht es den Endnutzer:innen möglich, fundierte Entscheidungen auf der Grundlage der Faktoren zu treffen, die die AI-Ausgabe beeinflussen.
Nährwertangaben für AI-Modelle
Nährwertangaben auf Lebensmittelverpackungen sorgen für Transparenz bei den Zutaten, den Nährwerten und der Zubereitung Ihrer Lieblingssnacks. Ganz ähnlich sind Modellkarten transparente „Nährwertangaben“ für AI-Modelle. Sie geben einen Einblick in den Zweck, die Leistung, die Grenzen und die ethischen Aspekte eines Modells und nutzen eine standardisierte, leicht zugängliche Methode, um den Stakeholdern die wichtigsten Aspekte von AI-Modellen zu vermitteln.
Techniken zur Erklärung komplexer Modelle
Modellierer:innen können verschiedene Techniken verwenden, um die Vorhersagen komplexer maschineller Lernmodelle zu erklären und so das Geheimnis des Entscheidungsprozesses des Modells zu lüften. Beispiele für diese Methoden:
- LIME (Local Interpretable Model-Agnostic Explanations)
- SHAP (SHapley Additive exPlanations)
- ICE Plots (Individual Conditional Expectation).
Modellentwickler:innen können auch Natural Language Processing (NLP) verwenden, um für Menschen lesbare Erklärungen von Modellentscheidungen zu erstellen. NLP kann komplexe statistische Ausgaben in klare, kontextbezogene Beschreibungen übersetzen, die für Entwickler:innen und Benutzer:innen verständlich und leicht zu interpretieren sind. Erfahren Sie, welche fünf wichtige Fragen Sie sich bei der Entwicklung vertrauenswürdiger AI-Modelle stellen sollten.
Datenschutz und Sicherheit
Datenschutz und Sicherheit sind eng miteinander verwoben und gewährleisten den Schutz sensibler Daten während des gesamten AI-Lebenszyklus. AI-Methoden zum Schutz der Privatsphäre ermöglichen es Unternehmen, große Datenmengen zu nutzen und gleichzeitig Informationen individueller Personen zu schützen. Sicherheitsmaßnahmen schützen vor böswilligen Angriffen und unberechtigtem Zugriff.
Unternehmen arbeiten auf ein dezentralisiertes Datenmodell hin. Föderierte Lernverfahren bieten Skalierbarkeit und Flexibilität und lösen gleichzeitig mehrere Datenschutz- und Sicherheitsprobleme. So können Unternehmen mit föderierten Lernverfahren Modelle trainieren, ohne Rohdaten weiterzugeben, was den Datenverkehr (und damit das Risiko der Preisgabe von Daten) reduziert.
Weitere hilfreiche Methoden für den Datenschutz und die Sicherheit sind:
- Homomorphe Verschlüsselung (ermöglicht Berechnungen mit verschlüsselten Daten, ohne das Original zu entschlüsseln)
- Differential Privacy (Verbergen einzelner Daten durch Hinzufügen von kontrolliertem Datenrauschen)
- Adversarial Training und Bereinigung von Eingaben
- Robuste Zugriffssteuerung und Authentifizierungsprotokolle.
Stabilität
AI-Systeme arbeiten genau und gleichbleibend – auch unter verschiedenen Bedingungen, wie z. B. unerwarteten Eingaben oder Veränderungen in der Umgebung. Diese Robustheit ist entscheidend, um die Zuverlässigkeit und das Vertrauen in reale Anwendungen zu erhalten.
Zu den Methoden zur Verbesserung der Robustheit gehören:
- Beim Adversarial Training werden die Modelle während des Trainings böswilligen Eingaben ausgesetzt, um die Widerstandsfähigkeit zu verbessern
- Ensemblemethoden kombinieren mehrere Lernalgorithmen kombiniert, um die Stabilität und Performance zu verbessern
- Techniken zur Regularisierung helfen dabei, eine Über- und Unteranpassung zu vermeiden, die Generalisierung zu verbessern und die Modellkomplexität mit der Performance in Einklang zu bringen. Eine laufende Performance-Überwachung und Updates des Modells tragen dazu bei, die Genauigkeit zu erhalten.
Vertrauenswürdige AI-Software sollte verschiedene Methoden zur Verwaltung von Algorithmen und zur Beobachtung von Qualitätsverlusten im Laufe der Zeit umfassen. Letztendlich bestimmt AI-Ethik die Rahmenbedingungen für Governance, technische Lösungen und organisatorische Praktiken, die die Entwicklung und das Deployment von AI mit menschlichen Werten und den Interessen der Gesellschaft in Einklang bringen.
6 einzigartige ethische Herausforderungen von generativer AI
Künstliche Intelligenz hat schon immer ethische Fragen aufgeworfen, aber GenAI hat diese Bedenken aufgrund ihrer Fähigkeit, neue Daten zu generieren, noch verschärft. Die daraus resultierenden ethischen Fragen und potenziellen Gefahren stellen unvergleichbare Risiken und Herausforderungen dar, mit denen sich Organisationen und die Gesellschaft dringend auseinandersetzen müssen.
Ein paar Denkanstöße zu GenAI:
- Deepfakes könnten eine ganz neue Ebene erreichen (z. B. in Social Media-Beiträgen)
- Die Rechte an geistigem Eigentum könnten mit Füßen getreten werden
- Das Vertrauen in digitale Informationen könnte zerstört werden
- Verzerrungen und Diskriminierung könnten verschärft werden
- Könnte sich negativ auf die Psyche und die Gesellschaft auswirken
- Könnte zu Chaos in Bezug auf Verantwortlichkeit und Governance führen.
Die Rolle von Governance in der AI-Ethik
Rahmenbedingungen zu Governance bilden das Rückgrat einer ethischen AI-Implementierung. Diese Strukturen schaffen klare Zuständigkeiten und Verantwortlichkeiten während des gesamten Lebenszyklus von AI.
Eine umfassende Governance-Strategie sollte die Entscheidungsprozesse definieren – einschließlich der menschlichen Kontrolle – und spezifische Rollen für das AI-Projektmanagement zuweisen.
In einer späteren Phase kann das auch die Zuweisung von Rollen für AI-Ethikbeauftragte oder -ausschüsse beinhalten, die für die Entwicklung von Richtlinien, die Überwachung der Compliance und ethische Audits zuständig sind. Regelmäßige Algorithmus-Bewertungen und Checks zur Vermeidung von Verzerrungen sind wichtige Bestandteile von Governance-Systemen, die sicherstellen, dass AI-Modelle mit ethischen Standards und Unternehmenswerten im Einklang stehen.
Mit dem Fortschreiten von AI-Funktionen wird die Rolle von Governance immer wichtiger. Das Potenzial von AI-Systemen, selbstständig Fragen zu formulieren und Antworten zu generieren, unterstreicht die Notwendigkeit robuster Kontrollmechanismen. Denken Sie zum Beispiel an die Auswirkungen von AI-Halluzinationen.
Durch die Implementierung strikter Governance-Protokolle kann Ihr Unternehmen die Vorteile von AI nutzen und gleichzeitig Risiken minimieren sowie die ethische Integrität in einer zunehmend autonomen technologischen Landschaft wahren.
Die Zukunft von AI-Ethik
Mit der Weiterentwicklung von AI wird sich auch der Bereich der AI-Ethik weiterentwickeln. Aufstrebende Technologien wie Quantencomputing und neuromorphe AI werden neue ethische Herausforderungen und Chancen mit sich bringen. Politiker:innen, Branchenführer:innen und Forscher:innen müssen zusammenarbeiten, um einen anpassungsfähigen ethischen Rahmen zu entwickeln, der mit dem schnellen technologischen Fortschritt mithalten kann.
Die grundlegenden Fragen, die AI-Tools und -Technologien in Bezug auf unsere Beziehung zu Computern aufwerfen, werden sich fortlaufend weiterentwickeln. Die Debatten darüber, wie sich AI auf die Zukunft der Arbeit auswirken wird und ob (oder wann) die technologische Singularität eintreten könnte, dauern an.
Auch Bildung und Bewusstsein werden bei der Gestaltung der Zukunft von AI-Ethik eine entscheidende Rolle spielen. Indem wir unter AI-Entwickler:innen, Führungskräften und der Öffentlichkeit eine Kultur des ethischen Bewusstseins fördern, können wir sicherstellen, dass die Vorteile von AI verantwortungsvoll und gerecht umgesetzt werden.
An der Schwelle zu einer AI-gesteuerten Zukunft, an der wir derzeit stehen, ist die AI-Ethik in erster Linie ein moralisches Gebot. Sie ist auch eine strategische Notwendigkeit für Unternehmen, die ein nachhaltiges, vertrauenswürdiges und wertschöpfendes AI-Ökosystem für kommende Generationen aufbauen möchten.
Stärkung von Innovationen im Bereich der AI-Ethik
SAS® Viya® ist eine umfassende Plattform für die Entwicklung und das Deployment von ethischen AI-Lösungen. Mit integrierten Funktionen für die Erklärbarkeit von Modellen, die Erkennung von Verzerrungen und Governance können Sie die Vorteile von AI nutzen und gleichzeitig die höchsten ethischen Standards einhalten.
Literaturempfehlungen
-
Article AI transforms insurance: See 8 examples of how it worksUsing AI for insurance can boost value for customers, insurance companies and stakeholders alike. Examples range from stronger fraud detection and improved customer service to optimized underwriting processes and competitive advantage. Learn more about how AI is transforming the industry.
-
Article What is AI modeling?AI modeling involves creating programs that use one or a combination of algorithms to allow computers to think, learn and predict outcomes. Much like a human brain, AI models absorb input data – numbers, texts, images, video, sound – to learn how to predict outcomes or solve specific tasks without explicit instructions at every step.
-
Article Understanding digital twin technologyLearn how digital twin technology can change industries from health care to manufacturing, and shape the future of data modeling and process improvements.