Erstellt von Daniela Gjuraj mit midjourney.com

Wieso muss KI auch ethische Herausforderungen meistern?

Von Daniela Gjuraj

Viele Zweige der Philosophie weisen dem Menschen eine Sonderstellung unter den Lebewesen zu, weil er durch seine, z. B. im Vergleich zu Tieren, ausgeprägtere Intelligenz zu philosophischem Denken und ethischen Entscheidungen fähig ist und es mehr als nur der biologische Lebenserhaltungsinstinkt ist, der den Menschen antreibt. Der Mensch hat es nun so weit gebracht, dass Maschinen einige Aspekte seiner Intelligenz nachahmen können und das Ganze uns heutzutage sogar das Alltagsleben erleichtert. Doch welche Relevanz hat die Ethik an dieser Stelle?

Gibt es Künstliche Intelligenz überhaupt und wieso braucht sie eine Ethik?

Zwischen all der Faszination über die neuen Technologien und den ganzen Erleichterungen, die sie mit sich bringt, übersehen wir aber leider sehr gerne, dass die Bezeichnung „künstliche Intelligenz“ irreführend ist. Sie ist nämlich mit menschlicher Intelligenz bzw. dem, was wir uns allgemein unter Intelligenz vorstellen, nicht vergleichbar und unterscheidet sich wesentlich davon. Eine eigentliche künstliche Intelligenz gibt es so auch gar nicht. Der Begriff wird wegen seines Buzzword-Effekts jedoch für viele Verfahren des maschinellen Lernens und der maschinellen Datenverarbeitung verwendet und ist daher in aller Munde. Ihren Namen bekam die KI im Sommer des Jahres 1956, als sich US-amerikanische Wissenschaftler bei einer Konferenz im Dartmouth College in New Hampshire, darüber austauschten, ob Aspekte des Lernens und andere Merkmale menschlicher Intelligenz, von Maschinen nachgeahmt werden können. Den konkreten Begriff „künstliche Intelligenz“ erfand der Programmierer John McCarthy, als er ihn in der Überschrift eines Projektantrags für oben genannte Konferenz verwendete.
Die Forschung zur KI steht jedoch noch relativ am Anfang und kann in sensiblen Bereichen, wie der Medizin oder dem autonomen Fahren, aufgrund ihrer Manipulierbarkeit und Fehleranfälligkeit, noch nicht angewandt werden. Wie schon in vorherigen Artikeln erwähnt, ist KI intransparent und biased. KI kann ihre Entscheidungen nicht nachvollziehbar begründen und neutral ist sie erst recht nicht. KI wird nicht programmiert – sie lernt mithilfe von vielen Informationen und erkennt dabei besonders gut Muster in großen Datenmengen. Nutzer gehen oft leichtfertig mit persönlichen Informationen um und unterschätzen Missbrauchspotenziale, da sie Verwendungsmöglichkeiten nicht erkennen. Das Grundrecht auf informationelle Selbstbestimmung und Privatheit gerät damit in Gefahr und es braucht Datensensibilität und Datensicherheit, genauso wie Regeln darüber, wer Informationen zu welchen Zwecken nutzen darf.
Es ist klar, dass KI zu einflussreich geworden ist, um so zu funktionieren wie gehabt. Sie muss eine, in der Ethik fundierte Basis erhalten, um massiven Daten- und Machtmissbrauch zu verhindern. In diesem Zuge muss nicht mehr die Frage gestellt werden, ob etwas entwickelt werden kann. Man muss sich fragen: Sollten wir das entwickeln? Damit der technologische Fortschritt so ethisch vertretbar und sicher wie möglich gestalten werden kann. Eine hierbei hilfreiche, länderübergreifende und vergleichbare KI-Ethik ist momentan noch nicht vorhanden. Das Fehlen ethischer Richtlinien ist an sich ein sehr ernstes Problem, da KI-Autor*innen ihre inneren Vorurteile nicht vollständig ablegen können und ihre KI-Programme in wichtigen und hochsensiblen Kontexten, wie dem Gesundheitswesen oder der Strafverfolgung, Anwendung finden.

Was ist KI-Ethik?

KI-Ethik beschäftigt sich mit ethischen Herausforderungen, die bei der Nutzung von Künstlicher Intelligenz auftreten. Sie hat sich als neues Forschungsfeld im Bereich der angewandten Ethik herausgebildet, weil in den letzten Jahren viele Probleme beim Einsatz von KI aufgetreten sind.
Wichtige Teilgebiete sind:

  • Algorithmenethik (ethische Aspekte bereits beim Entwickeln der Algorithmen integrieren, Fokus auf KI-Grundgerüst mit ethischen Grundlagen),
  • Datenethik (ethische Grundlage der Trainingsdaten/generierten Daten),
  • das moralische Urteilsvermögen (Reflektionsfähigkeit des Menschen bei der Entwicklung und Verwendung von KI, Ausbildung von moralischem Urteilsvermögen bereits bei den Programmierenden).

Erstellt von Daniela Gjuraj mit midjourney.com

In den letzten Jahren sind schon einige Leitlinien für den Einsatz von KI entwickelt worden, um ethische Gefahren durch die Verwendung von KI aufzuzeigen und zu vermeiden. Außerdem legte die EU-Kommission zur Förderung von ethisch vertretbarer KI, einen ersten Rechtsrahmen vor, damit sich Institutionen, die KI nutzen, bald an ethische und rechtliche Vorgaben halten müssen, die am besten schon in der Entwicklungsphase neuer KI-Systeme als Leitfaden dienen sollten.

Mit welchen ethischen Herausforderungen müssen wir umgehen?

Die CNIL (Commission Nationale de l’Informatique et des Libertés, Datenschutzbehörde Frankreichs) identifiziert in diesem Zusammenhang sechs große Bereiche der KI, die überdacht werden müssen, weil sie ethische Dilemmata begünstigen.

  • Autonome Maschinen:
    Maschinelle Entscheidungen können eine Bedrohung für den freien Willen und das Übernehmen von Verantwortung darstellen. Ist übermäßiges Vertrauen in Maschinen angemessen? Wieso sollten wir Entscheidungen, Einschätzungen und Verantwortung an Maschinen abgeben? Die Tübinger Informatik-Professorin Ulrike von Luxburg spricht in diesem Interview mit Machine Learning for Science, über die Möglichkeiten und Schwierigkeiten, KI-Systeme auf Fairness zu trainieren und erklärt, wieso sie davon überzeugt ist, dass Maschinen über bestimmte Fragen nicht entscheiden sollten.
  • Tendenzen, Diskriminierung und Ausschluss:
    KI-Systeme weisen oft einen Bias auf, die Diskriminierung ganzer Personengruppen mit sich bringen kann (s. Artikel zu Algorithmus-Fails). Egal ob beabsichtigt oder unbeabsichtigt, die Folgen sind gravierend. Wie geht man mit dieser Herausforderung um?
  • Algorithmisches Profilieren von Menschen:
    Es entsteht ein Konflikt, wenn Software einerseits durch das persönliche Zuschneiden für den Einzelnen und die Gesellschaft einen Nutzen bringt, andererseits dadurch aber für den politischen und kulturellen Pluralismus oder das gemeinschaftliche Tragen von Risiken hinderlich sein kann.
  • Verhinderung der Ansammlung riesiger Datenmengen für maschinelles Lernen:
    Da KI anhand von Daten lernen muss, sind große Datenmengen (auch über Personen) notwendig. Hier stehen Datenschutzgesetze zum Schutz persönlicher Daten im Konflikt zur Ansammlung von Daten für Trainingszwecke. Wie kann eine Lösung zwischen diesen gegensätzlichen Zielen aussehen?
  • Herausforderungen bei der Auswahl von Daten in Qualität, Quantität und Relevanz:
    Da man sich der Fehleranfälligkeit von Softwareergebnissen bewusst ist, sollte man ihnen gegenüber kritisch bleiben und kein übermäßiges Vertrauen in Entscheidungen von KI-Systemen haben.
  • Menschliche Identität im KI-Zeitalter:
    Maschinen werden nicht nur autonomer, sondern entwickeln auch hybride Formen mit dem Menschen. Kann man in diesem Zusammenhang überhaupt von einer Ethik der Algorithmen sprechen? Wie sollen wir mit humanoiden Robotern umgehen, die höchstwahrscheinlich emotionale Reaktionen bei Menschen auslösen werden?

Erstellt von Daniela Gjuraj mit midjourney.com

Empfehlungen zum ethischen Umgang mit KI

An der Uni Tübingen gibt es zum Thema KI/Maschinelles Lernen und Ethik ein ganzes Exzellenzcluster um einschlägige Persönlichkeiten wie Dr. Thomas Grote, Dr. Thilo Hagendorff und PD Eric Raidl, das an ethischen Fragestellungen um Verantwortung, Transparenz und Auswirkungen von Technologien des maschinellen Lernen forscht. Auch das Internationale Zentrum für Ethik in den Wissenschaften (IZEW) an der Uni Tübingen, forscht seit Jahren an Themen wie Algorithmen, künstlicher Intelligenz, maschinellem Lernen und Datenethik. Dr. Jessica Heesen leitet dort den Forschungsschwerpunkt Medienethik und Informationsethik. Ihre Forschungsschwerpunkte liegen bei den Fragen einer Ethik der KI, Sicherheit von Kindern online und Problemen der Meinungsfreiheit in Social Media. Sie veröffentlichte zahlreiche Handbücher, Artikel und Aufsätze über KI- und Medien und Informationsethik. Auf die Frage unserer Redakteurin, welche Herausforderungen KI zu meistern hat, plädierte sie für eine von vorneherein ethisch durchdachte KI, die Kontextlösungen liefert.

„Es gibt in Bezug auf ethische Anforderungen an KI bereits zahlreiche nationale und internationale Deklarationen und Kodizes. Wir sehen also keinen Mangel an Wissen darüber, was in Bezug auf KI generell in ethischer Hinsicht wichtig ist, sondern wir sehen viele Schwierigkeiten, wenn es um die Umsetzung ethischer Kriterien in konkrete Anwendungen geht. Das Anwendungsspektrum für KI und die damit verbundenen technischen Rahmenbedingungen sind so breit, dass die Formulierung allgemeiner ethischer Prinzipien in der Praxis schnell verpufft. KI-Systeme in der Medizin unterliegen anderen Anforderungen als die Nutzung von KI für den Naturschutz. Denken Sie an solche Forderungen, dass stets die menschliche Aufsicht (Human Oversight) gewahrt werden soll. Das ist plausibel und wichtig, aber soll z. B. der Mensch in einem mit der Hilfe von KI gesteuerten Auto immer erst gefragt werden, wenn gebremst werden muss? Kann eine Polizistin, wenn ein System der vorhersehenden Polizeiarbeit (Predictive Policing) ihr die Empfehlung für einen Einsatz gibt, kompetent und autonom entscheiden, ob das sinnvoll ist? Diese rhetorischen Fragen zeigen, wie wichtig beim konkreten Einsatz von KI Differenzierungen und angepasste Kontextlösungen sind. Um zu diesen angepassten Lösungen zu kommen, ist es entscheidend, ethische Anforderungen gleich in die Entwicklung von KI-Systemen zu integrieren. Wir brauchen also anstelle einer „Reparaturethik“ eine integrierte Ethik bzw. Ethik durch Design (Ethics by Design) für KI, die dafür sorgt, dass die Systeme im Sinne gemeinwohlorientierter gesellschaftlicher Werte entwickelt werden.“

Auch die französische Datenschutzbehörde CNIL hat Empfehlungen für Bürger, Unternehmen und Einzelpersonen zum Umgang mit KI entworfen. Sie empfehlen in jedem Fall, dass für alle, die mit KI-Systemen zu tun haben, die Bildung gefördert werden muss, denn nur Computerkenntnisse ermöglichen ein Verständnis darüber, was auf dem Spiel steht.
Computersysteme sollen so verständlicher werden und bestehende Rechte und Vermittlungsmechanismen überdacht werden. Der Black-Box-Effekt, der den genauen Weg der Informationsgeneration verschleiert, soll vermieden und transparent gemacht werden und mehr Anreize für die Forschung an ethischer KI geschaffen werden – mithilfe von beispielsweise nationaler Forschungsförderung. Unternehmen können ihren Teil beitragen, indem sie sich der Ethik stärker zuwenden, beispielsweise durch Ethik-Kommissionen oder Ethik-Kodizes.
Es ist aber wichtig, keine einzelstaatlichen Lösungen zu entwickeln. Die Akteure der KI in Forschung und Anwendung sind global vernetzt. Dienstleistungen und Produkte werden überall auf der Welt angeboten und auch genutzt. Nationale Gesetze sind nicht ausreichend wirksam. Aus ethischer Sicht ist es daher eine dringende politische Aufgabe, Regeln und Standards für den Umgang mit KI international zu vereinbaren.
Für Einzelpersonen ist es wichtig, sich zu vergewissern, dass KI nicht dasselbe Maß an Intelligenz wie ein Mensch besitzt – sie ist nicht wirklich intelligent, denn das, was sie lernt ist immer noch vom Menschen eingespeist und auch die Ergebnisse unterscheiden sich nicht grundlegend von denen, die menschliche Intelligenz produziert hätte. KI ist zwar in viele Entscheidungen involviert, sie trifft jedoch letzten Endes keine Entscheidungen, sondern unterstützt sie nur. Die Entscheidungskompetenz und Verantwortung liegt immer noch beim Menschen. Er muss die Rolle der Kontrollinstanz beibehalten und die Resultate verantworten. Auch den Aspekt des Menschen als Sozialwesen kann KI nicht ersetzen. KI-Forschung muss jedoch weiter kritisch und ethisch reflektiert werden. Insbesondere dann, wenn KI sich soweit entwickeln sollte, dass sie ein Bewusstsein entwickelt und es gar zu einer transhumanistischen Verschmelzung von Mensch und Maschine kommen würde.

Quellen:

Arnold, Norbert (2018): kurzum – Künstliche Intelligenz und ihre ethischen Herausforderungen. https://www.kas.de/de/einzeltitel/-/content/kurzum-kuenstliche-intelligenz-und-ihre-ethischen-herausforderungen

Delcker, Janosch (2018): ‚Die ethische Herausforderung durch künstliche Intelligenz ist etwas kategorial Neues…‘ https://www.politico.eu/article/die-ethische-herausforderung-durch-kunstliche-intelligenz-ist-etwas-kategorial-neues/

Entschew, Elisa Maria (2021): Künstliche Intelligenz und Ethik. Mittelstand 4.0-Kompetenzzentrum eStandards. https://www.mittelstand-digital-wertnetzwerke.de/blog/kuenstliche-intelligenz-und-ethik/

Hare, Stephanie (2020): Die Ethik der Künstlichen Intelligenz (KI). https://www.vontobel.com/de-ch/impact/die-ethik-der-kuenstlichen-intelligenz-19892/

Kopecz, Jörg (2022): Künstliche Kompetenzen ausbauen, ethische Fragen beantworten. https://www.actineogroup.com/beitrag/kuenstliche-intelligenz-kompetenzen-ausbauen-ethische-fragen-beantworten/

Kurz, Constanze (2018): Ethische Fragen bei Künstlicher Intelligenz. Mit welchen Herausforderungen müssen wir umgehen? https://netzpolitik.org/2018/ethische-fragen-bei-kuenstlicher-intelligenz-mit-welchen-herausforderungen-muessen-wir-umgehen/