This page exists on your local site.

Go there now
Stay here
X
Gruppe von Mitarbeitenden, die ihre Arbeit auf einem Computerbildschirm überprüfen

AI-Ethik

Was es ist und was man darüber wissen sollte

AI-Ethik verbindet künstliche Intelligenz (AI) mit ethischen Grundsätzen – den Leitprinzipien von Recht und Unrecht, die definieren, wie Menschen handeln sollten. Warum ist das so wichtig? Weil die AI-Technologie es möglich macht, dass Maschinen die menschliche Entscheidungsfindung nachahmen und Aufgaben auf intelligente Weise automatisieren. Um das auf eine sichere Art und Weise zu tun, brauchen wir Richtlinien, die sicherstellen, dass AI-Systeme im Einklang mit grundlegenden menschlichen Werten wie Privatsphäre, Inklusion, Fairness und Schutz der Individualrechte entwickelt und eingesetzt werden.

Die Geschichte der AI-Ethik: „Können Maschinen denken?“

Künstliche Intelligenz hat in den letzten Jahren die Schlagzeilen beherrscht und die Öffentlichkeit in ihren Bann gezogen – aber die Ursprünge gehen Jahrzehnte zurück. Die AI-Forschung begann in den 1950er Jahren, als die ersten Pionier:innen grundlegende Konzepte und Algorithmen entwickelten.

Die jüngsten Fortschritte in den Bereichen Rechenleistung, Big Data und maschinelles Lernen haben AI in den Mainstream katapultiert und die Auswirkungen von AI in unserem täglichen Leben sichtbar und greifbar gemacht. Denken Sie dabei an die rasante Verbreitung von generativer AI (GenAI) – einer Form von AI-Technologie, die über Vorhersagen hinausgeht und als primäre Ausgabe neue Daten generiert.

Bei all dem Hype um GenAI könnte man leicht glauben, dass unsere Generation die erste ist, die komplexe Fragen zu verzerrten Daten, Rechenschaftspflicht, algorithmischer Fairness und den gesellschaftlichen Auswirkungen von intelligenten Maschinen hat. Doch die Bedenken über die Auswirkungen von AI und intelligenten Maschinen reichen bis in die Anfänge der digitalen Datenverarbeitung zurück.

Es begann mit Visionär:innen wie Alan Turing, die sich mit den philosophischen und ethischen Implikationen der künstlichen Intelligenz auseinandersetzten. Die Fragen, die Turing nachts wach hielten – über die Art des Bewusstseins und das Potenzial von Maschinen, zu denken und zu lernen – sind auch im modernen Diskurs über AI-Ethik nach wie vor präsent und entwickeln sich weiter.

Die Geschichte der AI-Ethik im Überblick

Klicken Sie sich durch die Jahre und erfahren Sie mehr über einige wichtige Meilensteine in der Entwicklung der AI-Ethik.

Expertenrat zu vertrauenswürdiger AI

„Das Vertrauen in AI muss aufgebaut werden, bevor die erste Zeile Code geschrieben wird.“ Das ist nur einer der Tipps zum Thema AI-Ethik von Reggie Townsend, Vice President der SAS Data Ethics Practice. In diesem kurzen Video erfahren Sie weitere Tipps, die Townsend bereits mit einem weltweiten Publikum geteilt hat.

AI-Ethik in der Welt von heute

Die Einhaltung von AI-Ethik fördert Aspekte wie Transparenz, Verantwortlichkeit und Vertrauen. Um das Thema Ethik im Bereich der künstlichen Intelligenz jedoch zu verstehen, muss man sich mit den komplexen moralischen, rechtlichen und gesellschaftlichen Auswirkungen von Daten und AI auseinandersetzen. Erfahren Sie, wie Expert:innen diese kritischen Herausforderungen bei der Entwicklung und dem Deployment von AI verantwortungsvoll angehen.

Zwei Mitarbeitende, die gemeinsam einen Computer benutzen

Die Ethik der Nutzung von Daten und AI

Beim Einsatz von AI-Modellen trifft Technik auf Ethik. Erfahren Sie, welche Fragen Sie sich während der Entwicklung stellen müssen, und wie Sie Transparenz, Vertrauenswürdigkeit und gesellschaftliche Auswirkungen berücksichtigen können, wenn Sie von der Entwicklung zur Anwendung übergehen.

Drei Mitarbeitende in einem Büro benutzen Laptops und unterhalten sich

Vertrauenswürdige Daten und AI-Governance

Weil AI unsere Welt revolutioniert, steigt der Bedarf an ethischen AI-Praktiken. Erfahren Sie in diesem E-Book die Risiken von AI, lernen Sie Strategien zum Aufbau vertrauenswürdiger AI-Systeme kennen und entdecken Sie, wie Sie die ethischen Grundsätze der AI effektiv in Ihr Unternehmen integrieren können.

Programmiererin an einem Computer in einem Büro

Was sind synthetische Daten?

Trotz der weit verbreiteten Verfügbarkeit sind qualitativ hochwertige Daten oft schwierig (und teuer) zu beschaffen, schwer zu sichern und nicht sehr vielfältig. Das Training von AI-Modellen ist jedoch auf große, vielfältige und authentische Datensätze angewiesen. Sehen Sie, wie synthetische Daten helfen, das Problem der „Eignung von Daten" zu lösen.

Frau mit Laptop am Schreibtisch im Home-Office

Ängste vor AI: Trotz Wandel die Ruhe bewahren

Halten Sie Gedanken über AI nachts wach? Damit stehen Sie nicht alleine da. Ergründen Sie die Ursachen Ihrer Ängste in Bezug auf AI – von beruflichen Bedenken bis hin zu ethischen Dilemmata – und finden Sie praktische Strategien, um die AI-Revolution mit Zuversicht zu meistern.

NIH überwindet Barrieren in der Gesundheitsforschung mit vielfältigen Datensätzen

Ein pauschaler Ansatz für die medizinische Forschung hat Grenzen. Unsere Körper sind alle unterschiedlich – abhängig davon, wo Sie leben, was Sie essen, wie Ihr Erbgut beschaffen ist, welchen Belastungen Sie im Laufe Ihres Lebens ausgesetzt waren und mehr. Bei den National Institutes of Health (NIH) soll das All of Us Research Program die Art der Datenerfassung und -weitergabe in der biomedizinischen Forschung verändern. Durch den Aufbau umfassender Datensätze, die die große Vielfalt der Menschen in den USA widerspiegeln, umfassen die Forschungsdatensätze nun viele Menschen, die zuvor unterrepräsentiert waren. Es geht darum, die Forschung vertrauenswürdiger zu machen und die Transparenz und Ethik von AI und Analytics sicherzustellen.

Ein Kinderarzt untersucht ein Kind

Welche Branchen wenden AI-Ethik an?

Seien es autonome Fahrzeuge, AI-Chatbots oder jetzt AI-Agenten – Entscheidungen, die von AI getroffen werden, beeinflussen den Menschen auf unterschiedliche Weise. Daher ist AI-Ethik in vielen Branchen, einschließlich Big-Tech-Unternehmen, ein wichtiger Aspekt. Viele Unternehmen erkennen heutzutage, wie wichtig es ist, über einen ethischen Rahmen zu verfügen, um ihre AI-Anwendungen und AI-Initiativen zu steuern, potenzielle Risiken zu minimieren und Vertrauen bei den Stakeholdern aufzubauen.

Banken

AI ist ein wesentlicher Bestandteil von Finanzdienstleistungen. Kreditprüfungssysteme verwenden Algorithmen, um Daten zu analysieren und die Kreditwürdigkeit zu bewerten. Bei der Betrugsaufdeckung werden fortschrittliche Algorithmen des maschinellen Lernens eingesetzt, um Transaktionen zu scannen und sich in Echtzeit an neue Betrugsmuster anzupassen. Aber AI kann Verzerrungen verstärken, wenn sie nicht regelmäßigen Kontrollen unterliegt. Beispielsweise können AI-Modelle, die auf der Grundlage historischer Finanzdaten trainiert wurden, bestehende Ungleichheiten aufrechterhalten, was zu einer ungerechten Behandlung bei der Kreditvergabe, der Kreditwürdigkeitsprüfung, der Beantragung von Wohnraum, der Beschäftigung und der Preisgestaltung von Versicherungen führt. Erklärbarkeitsfunktionen und Kennzahlen für Verzerrungen und Fairness können helfen, ebenso wie regulatorische Vorgaben und menschliche Kontrolle. So können Banken Katalysatoren für Wohlstand und eine gerechte Teilhabe sein.

Gesundheitswesen

Die Revolutionierung des Gesundheitswesens durch AI – von Gentests über individuelle Krebsbehandlungen bis hin zu Chatbot-Diagnosen – wirft eine Reihe ethischer Fragen auf. Patientendaten, die für das AI-Training benötigt werden, erfordern ein Höchstmaß an Schutz. Aber robuste Sicherheitsmaßnahmen können nicht vor verzerrten Algorithmen schützen, die Ungleichheiten in der Gesundheitsversorgung verstärken können. Die „Blackbox“-artige Entscheidungsfindung wirft weitere Bedenken auf. Was passiert, wenn Maschinen potenziell lebensverändernde Entscheidungen treffen, ohne dabei transparent zu sein? Wer ist verantwortlich, wenn AI einen Fehler macht? Tech-Innovator:innen, Mediziner:innen, Patient:innen und politische Entscheidungsträger:innen müssen zusammenarbeiten, um Richtlinien zu erstellen, die Patient:innen schützen, ohne den Fortschritt zu behindern. So können wir auf eine verantwortungsvolle und ethisch vertretbare Weise das ganze Potenzial von AI im Gesundheitswesen ausschöpfen.

Versicherungen

Versicherungsunternehmen sammeln eine Vielzahl von Daten – von Kundeninformationen in Anträgen und Policen bis hin zu Datenströmen von Sensoren in selbstfahrenden Autos. Durch das Sammeln von Informationen in nahezu Echtzeit können Versicherungsunternehmen die Bedürfnisse jeder einzelnen Person besser verstehen und ihr ein besseres, personalisiertes Erlebnis bieten. Aber der Schutz und die Verwaltung persönlicher Daten, die zur Entscheidungsfindung verwendet werden, sind essentiell für das Aufrechterhalten von Vertrauen. Um Bedenken hinsichtlich des Datenschutzes oder einem Mangel an ausreichenden Daten entgegenzuwirken, verwenden einige Versicherer synthetische Daten bei der Preisgestaltung, Planung und versicherungsmathematischen Modellierung. Unabhängig von ihrem Ansatz müssen Versicherungsunternehmen einen ethischen Rahmen für AI einrichten und einhalten, um sicherzustellen, dass die Modelle, in die ihre Daten einfließen, faire und unverzerrte Entscheidungen treffen.

Öffentliche Verwaltung

Die Beschäftigten des öffentlichen Sektors widmen sich dem Schutz und der Verbesserung des Lebens der Bürger:innen. Viele von ihnen setzen AI ein, um produktiver und effektiver zu arbeiten und auf die Bedürfnisse der Bürger:innen einzugehen. GenAI-Methoden können zum Beispiel historische Daten zur öffentlichen Meinung und andere Indikatoren analysieren und dann Empfehlungen zur Reduzierung von Überlastung oder zur Feinabstimmung der Zuweisung von Ressourcen formulieren. Aber der Einsatz von AI ist nicht frei von Risiken. Es ist von entscheidender Bedeutung, AI-Modelle mit Fairness und Transparenz zu entwickeln und einzusetzen, gesetzliche Regulierungen in alle Initiativen einzubeziehen und die heutige schnelle Verbreitung von Fehlinformationen zu eliminieren. Die Fähigkeit, ethische AI-Systeme zu entwickeln, die Individualrechte schützen und stärken, ist unerlässlich, um im öffentlichen Sektor bei der Erfüllung der Aufgaben zu helfen.

Sie fragen sich, wie AI-Ethik in anderen Branchen eingesetzt wird?

Erfahren Sie mehr über die ethischen Aspekte von AI in der Fertigungsindustrie und in der Landwirtschaft.

Wie AI-Ethik funktioniert: Die Ethik von künstlicher Intelligenz verstehen

AI-Ethik bewegt sich an der Schnittstelle von Technologie, Philosophie und Sozialwissenschaft. Um diese leistungsstarke Technologie erfolgreich zu nutzen, müssen wir in jeder Phase des AI-Lebenszyklus ethische Überlegungen einbeziehen – von der Datenerfassung über die Entwicklung von Algorithmen bis zum Deployment und der Überwachung. Werfen wir einen Blick auf einige der wichtigsten Prinzipien.

Der Mensch im Mittelpunkt

AI-Systeme, die menschliche Bedürfnisse und Werte in den Vordergrund stellen, werden mit höherer Wahrscheinlichkeit angenommen, als vertrauenswürdig angesehen und effektiv genutzt. Indem wir bei der Entwicklung und Implementierung von AI den Menschen in den Mittelpunkt stellen (Human Centricity), können Unternehmen verantwortungsvolle, effektive und gesellschaftlich dienliche AI-Systeme hervorbringen, die die menschliche Intelligenz und Kreativität ergänzen.

Zu den Methoden und Ansätzen zur Umsetzung von Human Centricity gehören:

  • Human-in-the-Loop (Integration menschlicher Abwägung an entscheidenden Stellen in AI-Prozessen, insbesondere bei risikoreichen Entscheidungen)
  • Partizipatives Design
  • Ethische Folgenabschätzungen
  • Adaptive AI (Systeme, die ihr Verhalten auf der Grundlage von menschlichem Feedback und sich ändernden Kontexten anpassen).

Bei der Weiterentwicklung von AI wird es von entscheidender Bedeutung sein, den auf Menschen ausgerichteten Ansatz weiterzuführen, um AI-Systeme zu schaffen, die für die Gesellschaft von Nutzen sind und gleichzeitig die Rechte und die Würde des Einzelnen respektieren.

Fairness und Verantwortlichkeit

Ein wichtiger Aspekt von AI-Ethik ist die Gewährleistung fairer, unverzerrter Ergebnisse. Ein Beispiel: Wenn Ihr Algorithmus Tiere als Menschen identifiziert, müssen Sie mehr Daten über eine größere Vielfalt von Menschen zur Verfügung stellen. Wenn Ihr Algorithmus ungenaue oder unethische Entscheidungen trifft, kann das bedeuten, dass nicht genügend Daten vorhanden waren, um das Modell zu trainieren, oder dass das bestärkende Lernen nicht für das gewünschte Ergebnis geeignet war.

Menschen haben AI-Systeme, manchmal unabsichtlich, mit unethischen Werten ausgestattet, weil sie Daten falsch ausgewählt oder Verstärkungswerte falsch zugeordnet haben. Einer der ersten technischen Schritte zur Sicherstellung der AI-Ethik ist die Entwicklung von Fairness-Metriken und Methoden zur Reduktion von Verzerrungen. Demographische Parität und ausgeglichene Wahrscheinlichkeiten messen die Fairness von Algorithmen. Die erneute Gewichtung von Trainingsdaten und die gegensätzliche Reduktion von Verzerrungen können dazu beitragen, erlernte Verzerrungen abzuschwächen.

Dies ist kein einmaliger Prozess. Regelmäßige Audits, kombiniert mit Diversität in den AI-Entwicklungsteams, tragen dazu bei, während des gesamten Lebenszyklus des AI-Systems Fairness und Verantwortlichkeit zu gewährleisten. Es reicht nicht aus, einmalige Gespräche über diese Themen zu führen. Wir müssen sie zu einem kontinuierlichen und integralen Bestandteil unseres Dialogs machen.

Transparenz und Erklärbarkeit

Transparenz und Erklärbarkeit sind für den Aufbau von Vertrauen, die Einhaltung von AI-Vorschriften und eine ethische Validierung entscheidend. Transparente, erklärbare AI ermöglicht es den Entwickler:innen, Verzerrungen oder Fehler in der Entscheidungsfindung zu erkennen und zu beheben und macht es den Endnutzer:innen möglich, fundierte Entscheidungen auf der Grundlage der Faktoren zu treffen, die die AI-Ausgabe beeinflussen.

Nährwertangaben für AI-Modelle

Nährwertangaben auf Lebensmittelverpackungen sorgen für Transparenz bei den Zutaten, den Nährwerten und der Zubereitung Ihrer Lieblingssnacks. Ganz ähnlich sind Modellkarten transparente „Nährwertangaben“ für AI-Modelle. Sie geben einen Einblick in den Zweck, die Leistung, die Grenzen und die ethischen Aspekte eines Modells und nutzen eine standardisierte, leicht zugängliche Methode, um den Stakeholdern die wichtigsten Aspekte von AI-Modellen zu vermitteln.

Techniken zur Erklärung komplexer Modelle

Modellierer:innen können verschiedene Techniken verwenden, um die Vorhersagen komplexer maschineller Lernmodelle zu erklären und so das Geheimnis des Entscheidungsprozesses des Modells zu lüften. Beispiele für diese Methoden:

  • LIME (Local Interpretable Model-Agnostic Explanations)
  • SHAP (SHapley Additive exPlanations)
  • ICE Plots (Individual Conditional Expectation).

Modellentwickler:innen können auch Natural Language Processing (NLP) verwenden, um für Menschen lesbare Erklärungen von Modellentscheidungen zu erstellen. NLP kann komplexe statistische Ausgaben in klare, kontextbezogene Beschreibungen übersetzen, die für Entwickler:innen und Benutzer:innen verständlich und leicht zu interpretieren sind. Erfahren Sie, welche fünf wichtige Fragen Sie sich bei der Entwicklung vertrauenswürdiger AI-Modelle stellen sollten.

Datenschutz und Sicherheit

Datenschutz und Sicherheit sind eng miteinander verwoben und gewährleisten den Schutz sensibler Daten während des gesamten AI-Lebenszyklus. AI-Methoden zum Schutz der Privatsphäre ermöglichen es Unternehmen, große Datenmengen zu nutzen und gleichzeitig Informationen individueller Personen zu schützen. Sicherheitsmaßnahmen schützen vor böswilligen Angriffen und unberechtigtem Zugriff.

Unternehmen arbeiten auf ein dezentralisiertes Datenmodell hin. Föderierte Lernverfahren bieten Skalierbarkeit und Flexibilität und lösen gleichzeitig mehrere Datenschutz- und Sicherheitsprobleme. So können Unternehmen mit föderierten Lernverfahren Modelle trainieren, ohne Rohdaten weiterzugeben, was den Datenverkehr (und damit das Risiko der Preisgabe von Daten) reduziert.

Weitere hilfreiche Methoden für den Datenschutz und die Sicherheit sind:

  • Homomorphe Verschlüsselung (ermöglicht Berechnungen mit verschlüsselten Daten, ohne das Original zu entschlüsseln)
  • Differential Privacy (Verbergen einzelner Daten durch Hinzufügen von kontrolliertem Datenrauschen)
  • Adversarial Training und Bereinigung von Eingaben
  • Robuste Zugriffssteuerung und Authentifizierungsprotokolle.

Stabilität

AI-Systeme arbeiten genau und gleichbleibend – auch unter verschiedenen Bedingungen, wie z. B. unerwarteten Eingaben oder Veränderungen in der Umgebung. Diese Robustheit ist entscheidend, um die Zuverlässigkeit und das Vertrauen in reale Anwendungen zu erhalten.

Zu den Methoden zur Verbesserung der Robustheit gehören:

  • Beim Adversarial Training werden die Modelle während des Trainings böswilligen Eingaben ausgesetzt, um die Widerstandsfähigkeit zu verbessern
  • Ensemblemethoden kombinieren mehrere Lernalgorithmen kombiniert, um die Stabilität und Performance zu verbessern
  • Techniken zur Regularisierung helfen dabei, eine Über- und Unteranpassung zu vermeiden, die Generalisierung zu verbessern und die Modellkomplexität mit der Performance in Einklang zu bringen. Eine laufende Performance-Überwachung und Updates des Modells tragen dazu bei, die Genauigkeit zu erhalten.

Vertrauenswürdige AI-Software sollte verschiedene Methoden zur Verwaltung von Algorithmen und zur Beobachtung von Qualitätsverlusten im Laufe der Zeit umfassen. Letztendlich bestimmt AI-Ethik die Rahmenbedingungen für Governance, technische Lösungen und organisatorische Praktiken, die die Entwicklung und das Deployment von AI mit menschlichen Werten und den Interessen der Gesellschaft in Einklang bringen.

6 einzigartige ethische Herausforderungen von generativer AI

Künstliche Intelligenz hat schon immer ethische Fragen aufgeworfen, aber GenAI hat diese Bedenken aufgrund ihrer Fähigkeit, neue Daten zu generieren, noch verschärft. Die daraus resultierenden ethischen Fragen und potenziellen Gefahren stellen unvergleichbare Risiken und Herausforderungen dar, mit denen sich Organisationen und die Gesellschaft dringend auseinandersetzen müssen.

Ein paar Denkanstöße zu GenAI:

  • Deepfakes könnten eine ganz neue Ebene erreichen (z. B. in Social Media-Beiträgen)
  • Die Rechte an geistigem Eigentum könnten mit Füßen getreten werden
  • Das Vertrauen in digitale Informationen könnte zerstört werden
  • Verzerrungen und Diskriminierung könnten verschärft werden
  • Könnte sich negativ auf die Psyche und die Gesellschaft auswirken
  • Könnte zu Chaos in Bezug auf Verantwortlichkeit und Governance führen.
Zwei Mitarbeitende schauen auf einen Computerbildschirm

Die Rolle von Governance in der AI-Ethik

Rahmenbedingungen zu Governance bilden das Rückgrat einer ethischen AI-Implementierung. Diese Strukturen schaffen klare Zuständigkeiten und Verantwortlichkeiten während des gesamten Lebenszyklus von AI.

Eine umfassende Governance-Strategie sollte die Entscheidungsprozesse definieren – einschließlich der menschlichen Kontrolle – und spezifische Rollen für das AI-Projektmanagement zuweisen.

In einer späteren Phase kann das auch die Zuweisung von Rollen für AI-Ethikbeauftragte oder -ausschüsse beinhalten, die für die Entwicklung von Richtlinien, die Überwachung der Compliance und ethische Audits zuständig sind. Regelmäßige Algorithmus-Bewertungen und Checks zur Vermeidung von Verzerrungen sind wichtige Bestandteile von Governance-Systemen, die sicherstellen, dass AI-Modelle mit ethischen Standards und Unternehmenswerten im Einklang stehen.

Mit dem Fortschreiten von AI-Funktionen wird die Rolle von Governance immer wichtiger. Das Potenzial von AI-Systemen, selbstständig Fragen zu formulieren und Antworten zu generieren, unterstreicht die Notwendigkeit robuster Kontrollmechanismen. Denken Sie zum Beispiel an die Auswirkungen von AI-Halluzinationen.

Durch die Implementierung strikter Governance-Protokolle kann Ihr Unternehmen die Vorteile von AI nutzen und gleichzeitig Risiken minimieren sowie die ethische Integrität in einer zunehmend autonomen technologischen Landschaft wahren.

Bei vertrauenswürdiger und verantwortungsbewusster AI geht es um mehr als nur darum, die negativen Aspekte zu mindern. Es geht auch darum, das große Potenzial von AI für eine produktivere und gerechtere Gesellschaft hervorzuheben. Reggie Townsend Reggie Townsend Vice President SAS Data Ethics Practice

Die Zukunft von AI-Ethik

Mit der Weiterentwicklung von AI wird sich auch der Bereich der AI-Ethik weiterentwickeln. Aufstrebende Technologien wie Quantencomputing und neuromorphe AI werden neue ethische Herausforderungen und Chancen mit sich bringen. Politiker:innen, Branchenführer:innen und Forscher:innen müssen zusammenarbeiten, um einen anpassungsfähigen ethischen Rahmen zu entwickeln, der mit dem schnellen technologischen Fortschritt mithalten kann.

Die grundlegenden Fragen, die AI-Tools und -Technologien in Bezug auf unsere Beziehung zu Computern aufwerfen, werden sich fortlaufend weiterentwickeln. Die Debatten darüber, wie sich AI auf die Zukunft der Arbeit auswirken wird und ob (oder wann) die technologische Singularität eintreten könnte, dauern an.

Auch Bildung und Bewusstsein werden bei der Gestaltung der Zukunft von AI-Ethik eine entscheidende Rolle spielen. Indem wir unter AI-Entwickler:innen, Führungskräften und der Öffentlichkeit eine Kultur des ethischen Bewusstseins fördern, können wir sicherstellen, dass die Vorteile von AI verantwortungsvoll und gerecht umgesetzt werden.

An der Schwelle zu einer AI-gesteuerten Zukunft, an der wir derzeit stehen, ist die AI-Ethik in erster Linie ein moralisches Gebot. Sie ist auch eine strategische Notwendigkeit für Unternehmen, die ein nachhaltiges, vertrauenswürdiges und wertschöpfendes AI-Ökosystem für kommende Generationen aufbauen möchten.

Nächste Schritte

Erfahren Sie, wie Sie AI auf eine verantwortungsvolle, konsistente und vertrauenswürdige Weise entwickeln können.

Stärkung von Innovationen im Bereich der AI-Ethik

SAS® Viya® ist eine umfassende Plattform für die Entwicklung und das Deployment von ethischen AI-Lösungen. Mit integrierten Funktionen für die Erklärbarkeit von Modellen, die Erkennung von Verzerrungen und Governance können Sie die Vorteile von AI nutzen und gleichzeitig die höchsten ethischen Standards einhalten.

Screenshot der SAS Model Manager Modelle-Seite