Meine Merkliste Geteilte Merkliste PDF oder EPUB erstellen

Grauzonen zwischen Null und Eins | Künstliche Intelligenz | bpb.de

Künstliche Intelligenz Editorial Droht KI den Menschen zu ersetzen? Intelligenz und Bewusstsein. Oder: Ist KI wirklich KI? Grauzonen zwischen Null und Eins. KI und Ethik KI und Demokratie: Entwicklungspfade Regulierung von KI. Ansätze, Ideen, Pläne KI in der Arbeitswelt KI in der Schule

Grauzonen zwischen Null und Eins KI und Ethik

Bernd Carsten Stahl

/ 15 Minuten zu lesen

Worin bestehen ethische Probleme in der KI? Was müssen wir beachten, wenn wir über Ethik in der KI sprechen? Und wie können damit verbundene Fragen bearbeitet werden? Statt nach einfachen Antworten zu suchen, sollte man KI als Teil eines komplexen Ökosystems sehen.

Ist es akzeptabel, wenn Studierende beim Verfassen von Hausarbeiten ChatGPT benutzen? Beuten die großen Internetfirmen ihre Kunden wirtschaftlich aus? Werden Roboter die Menschheit beherrschen oder gar ausrotten? Diese drei beispielhaften Fragen berühren sehr unterschiedliche Bereiche, aber sie haben gemeinsam, dass sie auf ethische Aspekte der Künstlichen Intelligenz verweisen. Solche Fragen werden zurzeit weitreichend diskutiert. Doch worin genau bestehen diese ethischen Probleme, warum sind sie relevant für KI, und was müssen wir beachten, wenn wir über die Ethik der KI sprechen? Und wie können oder sollen solche Fragen bearbeitet werden?

In diesem Beitrag argumentiere ich, dass die Antworten auf solche Fragen nicht generell gegeben werden können, sondern in bestimmten Kontexten oder „Ökosystemen“ angegangen werden müssen. Dies liegt in der Natur der Begriffe „KI“ und „Ethik“, die beide zu vielschichtig sind, um eindeutige Problembeschreibungen oder gar Lösungen zu ermöglichen. Um dieses Argument zu entwickeln, beginne ich mit einer Einführung in die Konzepte der KI sowie in damit verbundene ethische Fragen. Darauf aufbauend argumentiere ich, dass es nicht „die KI“ ist, die Probleme bereitet, oder dass KI eindeutig vorhersagbare Konsequenzen hat, sondern bei der Identifizierung von ethischen Fragen sowie möglichen Antworten immer die soziotechnischen, politischen und ökonomischen Ökosysteme mitgedacht werden müssen, in deren Kontext diese Fragen aufgeworfen werden

Konzepte der KI

Es ist nicht einfach, KI zu definieren. Als der Begriff 1956 von den Mathematikern und Informatikern John McCarthy, Marvin Minsky, Nathaniel Rochester und Claude Shannon eingeführt wurde, gingen sie von der Annahme aus, dass es möglich wäre, Maschinen zu entwickeln, die „jeden Aspekt des Lernens oder jede andere Eigenschaft von Intelligenz“ simulieren können. Als Eigenschaften von Intelligenz führten sie die Verwendung von Sprache, die Bildung von Abstraktionen und Konzepten, das Lösen von Problemen, die bisher nur Menschen lösen konnten, und die Selbstverbesserung an.

Daran anschließend und basierend auf eigenen Arbeiten schlage ich vor, drei Verwendungen des Begriffs KI zu unterscheiden, die auf verschiedene ethische Fragestellungen verweisen:

  • maschinelles Lernen,

  • konvergierende soziotechnische Systeme und

  • Allgemeine KI oder Künstliche Allgemeine Intelligenz.

Es ist dabei wichtig klarzustellen, dass dies keine definitive oder allgemein anerkannte Definition von KI ist, sondern vielmehr ein Versuch, verschiedene Aspekte der Verwendung des Begriffs herauszuarbeiten, die jeweils unterschiedliche Arten von ethischen Fragestellungen aufwerfen und somit auch unterschiedliche Lösungsansätze erfordern.

Die drei Verständnisse von KI gehen jeweils mit einer Reihe von Eigenschaften einher, die sie für bestimmte ethische Fragestellungen relevant machen. Maschinelles Lernen etwa neigt dazu, undurchsichtig zu sein; das heißt, es ist schwer zu verstehen, was genau im System passiert. Daher kann es herausfordernd sein, die Ergebnisse von Systemen vorherzusagen. Zudem erfordern viele aktuelle Ansätze des maschinellen Lernens große Mengen an Daten für Schulungs- und Validierungszwecke.

KI als konvergierende soziotechnische Systeme haben in der Regel einen technischen Kern, der typischerweise eine Form des maschinellen Lernens umfasst. Sie sind jedoch in breitere wirtschaftliche, politische und verwandte Systeme eingebettet und daher klar soziotechnischer Natur. Anwendungsbeispiele sind etwa selbstfahrende Autos oder Systeme zur Erkennung von Finanzbetrug. Diese soziotechnischen Systeme scheinen autonom zu funktionieren, das heißt, sie führen zu Ergebnissen, die Menschen auf verschiedene Weise beeinflussen und für die menschliche Verantwortung nicht zugeschrieben werden kann. Sie bestimmen mit, welche Handlungsoptionen Menschen haben und wahrnehmen können.

Allgemeine KI, manchmal auch als „starke KI“ oder „Künstliche Allgemeine Intelligenz“ (artificial general intelligence, AGI) bezeichnet, steht für Systeme, die echte menschliche (oder andere höhere Säugetier-)Intelligenzniveaus aufweisen. Gegenwärtig gibt es kein Beispiel für funktionierende AGI, obwohl spekuliert wird, inwieweit aktuelle Arbeiten an großen Sprachmodellen die Kluft vom maschinellen Lernen zur AGI überbrücken könnten. AGI ist wichtig für die Diskussion über die Ethik der KI, da sie die Vorstellungskraft der Menschen anregt und Situationen von hoher ethischer Relevanz heraufbeschwört.

Ethik in der KI

Die ethischen Fragestellungen der KI werden leidenschaftlich und kontrovers diskutiert. Auf ihrer grundlegendsten Ebene beschäftigt sich Ethik mit Gut und Böse, mit Richtig und Falsch. Ethische Betrachtungen können dazu genutzt werden, sehr unterschiedliche Phänomene zu beschreiben – angefangen von Intuitionen darüber, was als richtig und falsch eingeschätzt wird, oder allgemeinen Aussagen bis hin zu strukturierten Reflexionen darüber, wie Ansichten von Richtig und Falsch gerechtfertigt werden können. In der deutschen Philosophie findet man gelegentlich die Unterscheidung zwischen Moral, welche die gesellschaftlich allgemein anerkannten Werte an sich bezeichnet, und Ethik, womit die theoretische Reflexion darüber gemeint ist. Diese Differenzierung ist zwar nützlich, in der internationalen Diskussion über die Ethik der KI jedoch nicht weit verbreitet.

Es gibt zahlreiche ethische Theorien, die von der philosophischen Ethik behandelt werden. Dazu gehören Tugendethik, pflichtbasierte Ansätze und Theorien, die sich auf die Konsequenzen von Handlungen konzentrieren, um nur einige prominente Beispiele zu nennen. Es gibt eine Vielzahl weiterer Ansätze, die auf KI angewendet werden können, wie die feministische Ethik der Fürsorge oder verschiedene religiös begründete Ethiken. Ein Großteil der aktuellen Diskussion über die Ethik der KI dreht sich darum, aus den verschiedenen Ansätzen allgemeine Grundsätze zu entwickeln. Eine weit zitierte Übersicht listet folgende ethische Grundsätze auf: Transparenz, Gerechtigkeit und Fairness, Nichtschädigung, Verantwortung, Privatsphäre, Wohltätigkeit, Freiheit und Autonomie, Vertrauen, Nachhaltigkeit sowie Würde und Solidarität. Jeder dieser Grundsätze setzt sich aus mehreren Komponenten zusammen. Transparenz bezieht sich zum Beispiel auf verwandte Konzepte wie Erklärbarkeit, Verständlichkeit, Interpretierbarkeit, Kommunikation und Offenlegung.

Ein weiteres Beispiel sind die Ethikrichtlinien für vertrauenswürdige KI, die von der sogenannten Hochrangigen Expertengruppe für Künstliche Intelligenz beschrieben wurden. Die von der EU-Kommission 2018 eingesetzte Expertengruppe schlägt ein Rahmenwerk für vertrauenswürdige KI vor, das aus rechtskonformer, ethischer und robuster KI besteht. Dieses Rahmenwerk basiert auf vier ethischen Grundsätzen: Respektierung der menschlichen Autonomie, Vermeidung von Schäden, Fairness und Erklärbarkeit.

Es ist leicht zu erkennen, warum dieser grundsatzbasierte Ansatz attraktiv ist, auch wenn er gelegentlich kritisiert wird: Er ist unabhängig von häufig umstrittenen ethischen Theorien. Die Grundsätze selbst sind im Allgemeinen nicht kontrovers, bieten also die Möglichkeit eines Konsenses. Aber was bedeutet dies in der Praxis? Welche Probleme ergeben sich, und wie kann mit ihnen umgegangen werden?

Chancen und Risiken

Einer Diskussion der ethischen Aspekte der KI sollte vorangestellt werden, dass KI sowohl ethische Vorteile mit sich bringen als auch Probleme aufwerfen kann. Unter den Vorteilen haben die wirtschaftlichen Auswirkungen der KI vermutlich den höchsten Stellenwert. Der Einsatz von KI führt mutmaßlich zu höherer Effizienz und Produktivität. Dies sind ethische Werte, da sie wachsenden Wohlstand versprechen, der vielen Menschen ein besseres Leben ermöglicht und somit förderlich für das menschliche Gedeihen sein kann.

KI bietet technische Möglichkeiten, die unmittelbare ethische Vorteile haben können. So ist KI in der Lage, riesige Datenmengen und -quellen zu analysieren, die Menschen allein nicht verarbeiten könnten. Sie kann Daten verknüpfen, Muster finden und Ergebnisse über verschiedene Bereiche und geografische Grenzen hinweg liefern. Darüber hinaus kann sie konsistenter sein als Menschen, sich rasch an veränderte Kontexte anpassen und Menschen von mühsamen oder sich wiederholenden Aufgaben befreien. All diese Dinge sind zweifellos von großem allgemeinen Nutzen. Die mögliche Reduzierung von Pendelzeiten im Nahverkehr oder die Erhöhung der Effektivität von E-Mail-Spam-Filtern sind nur zwei alltägliche Beispiele dafür, wie KI das Leben vieler Menschen erleichtern kann.

Neben diesen Beispielen für zufällige Vorteile, die sich gewissermaßen als „Nebenwirkungen“ der technischen Entwicklungen ergeben, gibt es zunehmend Versuche, KI gezielt für ethische Zwecke zu nutzen. Dies geschieht derzeit unter dem Schlagwort „AI for Good“. Die Hauptherausforderung besteht dabei darin, zu definieren, was allgemein als (ethisch) gut zählt. Denn in einer pluralistischen Welt ist es nicht ungewöhnlich, dass oftmals keine Einigkeit darüber besteht, was gut ist oder warum etwas als gut gilt. Die Ansätze zur Verwirklichung von „AI for Good“ konzentrieren sich daher häufig auf etablierte moralische Ziele, etwa die allgemeinen Menschenrechte oder die 17 Ziele für nachhaltige Entwicklung der Vereinten Nationen (sustainable development goals, SDGs). Menschenrechte und Nachhaltigkeitsziele sind zwei Maßstäbe, die zur Bestimmung der ethischen Vorteile von KI herangezogen und mit den ethischen Bedenken kontrastiert werden können.

Es gibt zahlreiche Veröffentlichungen, die sich mit den ethischen Herausforderungen durch KI auseinandersetzen. Sie stehen größtenteils in der Tradition einer langjährigen Diskussion über Ethik und KI in der Wissenschaft, behandeln das Thema aber zunehmend auch aus einer politischen Perspektive. Im Folgenden diskutiere ich ethische Fragen entlang der von mir vorgeschlagenen Kategorisierung der KI.

Maschinelles Lernen

Die erste Gruppe ethischer Fragestellungen ergibt sich aus den Merkmalen des maschinellen Lernens. Viele der maschinellen Lernverfahren, die zum aktuellen Erfolg der KI geführt haben, basieren auf künstlichen neuronalen Netzwerken. Diese sind gekennzeichnet von Undurchsichtigkeit, Unvorhersehbarkeit und einem Bedarf an großen Datensätzen für das Training der Technologien.

Ein primäres und häufig zitiertes ethisches Problem, das sich daraus ergibt, ist das der Privatsphäre und des Datenschutzes. Privatsphäre und Datenschutz sind zwar nicht identisch, aber im Kontext der KI-Ethik kann Datenschutz als Mittel zur Sicherung der informationellen Privatsphäre verstanden werden. KI, die auf maschinellem Lernen basiert, birgt mehrere Risiken für den Datenschutz. Datenschutzbedenken sind direkt mit Fragen der Datensicherheit verknüpft. Die Cybersicherheit ist ein dauerhaftes Problem der Informations- und Kommunikationstechnologie, nicht nur der KI. KI-Systeme können jedoch neuen Arten von Sicherheitslücken ausgesetzt sein, etwa Modellvergiftungsangriffen. Bei diesen werden Trainingsdaten so verändert, dass das resultierende KI-Modell im Sinne des Angreifers modifiziert wird. Darüber hinaus können diese Systeme für neue Arten von Schwachstellen-Erkennung und -Ausnutzung verwendet werden. Datenschutz- und Datensicherheitsfragen weisen somit auf breitere Fragen der Verlässlichkeit von KI-Systemen hin. Während Verlässlichkeit eine Sorge für alle technischen Artefakte ist, bedeuten die Undurchsichtigkeit von maschinellem Lernen und ihre Unvorhersehbarkeit, dass traditionelle deterministische Testregime auf sie möglicherweise nicht anwendbar sind.

Einige maschinelle Lernsysteme sind nicht transparent. Bei proprietären Systemen, also solchen, die nur auf Geräten des jeweiligen Herstellers funktionieren, kann die kommerzielle Vertraulichkeit von Algorithmen und Modellen die Transparenz weiter einschränken. „Transparenz“ ist selbst ein umstrittener Begriff, aber mangelnde Transparenz wirft Fragen nach der Verantwortlichkeit auf. Mangelnde Transparenz erschwert auch die Erkennung und Behandlung von Fragen der Voreingenommenheit und Diskriminierung. Voreingenommenheit ist eine viel zitierte ethische Frage im Zusammenhang mit KI. Eine zentrale Herausforderung besteht darin, dass maschinelle Lernsysteme, absichtlich oder unbeabsichtigt, bereits bestehende Vorurteile reproduzieren können.

Konvergierende soziotechnische Systeme

Die zweite Gruppe ethischer Fragestellungen besteht aus solchen, die sich auf das beziehen, was ich als konvergierende soziotechnische Systeme bezeichne. Merkmale dieser Systeme sind Autonomie und soziale Auswirkungen einschließlich der Möglichkeit, dass menschliches Verhalten manipuliert wird.

Die sich daraus ergebenden ethischen Probleme sind mit KI verbunden, aber nicht auf KI beschränkt: Sie werfen die breitere gesellschaftliche und politische Frage auf, wie große soziotechnische Systeme strukturiert und genutzt werden sollten. Sie können daher nicht isoliert von ihrer gesellschaftlichen Rolle betrachtet werden, und viele der ethischen Fragestellungen werden direkt durch die Art und Weise verursacht, wie die Gesellschaft mit diesen Technologien arbeitet. So hängen viele Fragen, die sich aus dem Leben in einer digitalen Welt ergeben, mit der Wirtschaft zusammen. Die prominenteste unter ihnen betrifft die möglichen Auswirkungen auf den Arbeitsmarkt. Es wird befürchtet, dass KI sich negativ auf die Beschäftigung auswirken könnte, obwohl der erwartete Effekt umstritten bleibt.

Eine zentrale Herausforderung ist zudem die Konzentration wirtschaftlicher (und implizit politischer) Macht. Die Abhängigkeit der aktuellen KI-Systeme von großen Rechenressourcen und massiven Datenmengen bedeutet, dass Organisationen, die solche Ressourcen besitzen oder Zugang dazu haben, besonders gut positioniert sind, um von KI zu profitieren. Die internationale Konzentration solcher wirtschaftlichen Macht bei den großen Technologieunternehmen ist nicht nur auf KI gestützt, aber KI-bezogene Technologien haben das Potenzial, das Problem zu verschärfen. Damit verbunden sind breitere gesellschaftliche Themen wie Machtbeziehungen und Machtasymmetrien. Wirtschaftliche Dominanz und die Gestaltung von Handlungsoptionen können einigen Akteuren große Macht verleihen, bis hin zu dem Punkt, an dem demokratische Prinzipien gefährdet sind. Dies ist nicht nur ein Problem neuer Formen von Überwachung, Manipulation und Autoritarismus. Unsere demokratischen Strukturen können ebenfalls durch die Schaffung des Überwachungskapitalismus untergraben werden.

Ein anderes wohlbekanntes ethisches Problem der Informations- und Kommunikationstechnologien kann sich durch KI verschärfen, nämlich das der digitalen Ausgrenzung. Durch die Bereitstellung oder den Entzug von Informationen gestalten die Technologien, die uns umgeben, den Raum möglicher Handlungen. Informations- und Kommunikationstechnik im Allgemeinen und KI im Besonderen können die Handlungsoptionen eines Menschen erscheinen oder verschwinden lassen, ohne dass dieser Mensch sich dessen bewusst ist. KI kann aber auch enorme Möglichkeiten eröffnen und Räume für Handlungen schaffen, die zuvor undenkbar waren, beispielsweise indem sie sehbehinderten Menschen das autonome Fahren von Fahrzeugen ermöglicht oder maßgeschneiderte medizinische Lösungen jenseits des derzeit Möglichen schafft.

Der Verbesserung von Diagnosen und Behandlungen durch KI im Gesundheitswesen stehen jedoch auch Risiken und Nachteile gegenüber. Ein Beispiel sind Pflegetechnologien: Robotersysteme wurden lange als Möglichkeit zur Bewältigung der Herausforderungen des Pflegesektors vorgeschlagen, aber es gibt Bedenken, dass der menschliche Kontakt durch Technologie ersetzt werden könnte, was oft als grundlegendes ethisches Problem angesehen wird.

Ein prominent diskutiertes Problem ist zudem die Verwendung von KI zur Schaffung autonomer Waffen. Während nachvollziehbar ist, dass das Ersetzen von menschlichen Soldaten durch Roboter, um das Leben der Soldaten zu retten, ein ethischer Vorteil sein könnte, gibt es zahlreiche Gegenargumente: angefangen bei praktischen Aspekten wie der Zuverlässigkeit solcher Systeme über politische Erwägungen wie die Frage, ob autonome Waffen die Schwelle zum Beginn von Kriegen senken würden, bis hin zu grundlegenden Gesichtspunkten wie Frage, ob es jemals angemessen sein kann, menschliche Leben auf der Grundlage von maschinellen Eingaben zu beurteilen.

Künstliche Allgemeine Intelligenz

Künstliche Allgemeine Intelligenz gibt es momentan zwar (noch) nicht, dennoch ist sie Gegenstand erheblicher ethischer Diskussionen. Ich bezeichne die damit verbundenen Fragestellungen als langfristig, da sie, wenn überhaupt, vermutlich nicht kurzfristig zu lösen sind. In der Diskussion über ethische Fragen der KI berücksichtige ich sie aus zwei Gründen dennoch. Erstens regen Fragen über AGI zum Nachdenken an, nicht nur in Fachkreisen, sondern auch in den Medien und in der Gesellschaft insgesamt, weil sie viele grundlegende Aspekte der Ethik und der Menschlichkeit berühren. Zweitens werfen einige dieser Fragen ein Licht auf praktische Probleme der aktuellen KI, weil sie zu einer klareren Reflexion über Schlüsselkonzepte wie Autonomie und Verantwortung sowie über die Rolle der Technologie in einer guten Gesellschaft zwingen.

Die techno-optimistische Version von AGI besagt, dass es einen Zeitpunkt geben wird, an dem die KI ausreichend fortgeschritten ist, um sich selbst zu verbessern, und infolge einer positiven Rückkopplungsschleife der KI auf sich selbst eine Intelligenzexplosion – die Singularität – eintreten wird. Dies werde zur Entstehung von Superintelligenz führen. Eine solche wäre dann nicht nur in den meisten oder allen kognitiven Aufgaben besser als der Mensch, sondern auch in der Lage, ein Bewusstsein und Selbstbewusstsein zu entwickeln. Die Beiträger zu dieser Diskussion sind sich uneinig darüber, was als Nächstes passieren würde. Die superintelligente AGI könnte wohlwollend sein und das menschliche Leben verbessern, sie könnte die Menschen als Konkurrenten sehen und uns vernichten, oder sie könnte in einer anderen Bewusstseinssphäre existieren und die Menschheit größtenteils ignorieren.

Der Ökosystem-Ansatz

Schon dieser kurze und keineswegs erschöpfende Überblick zeigt, dass es eine Menge ethischer Aspekte gibt, die im Zusammenhang mit KI zu bedenken sind. Viele von ihnen sind umstritten und erzwingen trade-offs beziehungsweise schwierige Abwägungen von Vor- und Nachteilen, weil das eine nicht ohne das andere zu haben ist. So ermöglichen neuronale Netzwerke die automatische Erkennung von Mustern in Daten – da diese aber meist nicht transparent sind, werden auch Benachteiligung und Diskriminierung begünstigt. KI hat enormes ökonomisches Potenzial, aber die Wohlstandsvermehrung führt nicht automatisch zu gerechter Verteilung. Weiterhin sind die ethischen Grundlagen und Begriffe interpretationsbedürftig und oft nicht einfach anwendbar. Die Konsequenzen von Interventionen in KI sind typischerweise nicht leicht vorherzusehen. Und die Anzahl der Stakeholder im KI-Umfeld ist groß. Bei ihnen handelt es sich nicht nur Designer und Produzenten von KI, sondern auch um deren Nutzer, Verbraucher, staatliche Institutionen und zivilgesellschaftliche Organisationen aller Art.

Es ist daher nicht verwunderlich, dass es zahlreiche Vorschläge gibt, die darauf abzielen, die ethischen Fragen der KI anzugehen. Sie umfassen staatliche und gesamtgesellschaftliche Interventionen, einschließlich Regulierung und Gesetzgebung. Der in Vorbereitung befindliche „AI Act“ der Europäischen Union ist ein prominentes Beispiel dafür. Weitere staatliche und internationale Ansätze setzen auf die spezifische Anwendung von Menschenrechten auf KI, die Schaffung neuer Institutionen sowie die Verabredung internationaler Koordination. Auch Firmen und andere private Organisationen können zur Bearbeitung ethischer Fragen im Zusammenhang mit KI beitragen – in ihren Strategien und Leitbildern oder auch in alltäglichen Prozessen, etwa zum Risikomanagement oder Datenschutz. Ebenso haben Einzelpersonen als Bürger oder Mitarbeiter vielschichtige Rollen bei der Lösung ethischer Problem der KI: Sie können unter anderem bei der Entwicklung von Standards oder deren Zertifizierung mitwirken, sich für die Umsetzung von bestehenden Richtlinien engagieren oder als Entwickler an Methodologien mitarbeiten oder sie einsetzen.

Aufgrund der Mannigfaltigkeit und Komplexität der verschiedenen KI-Arten und der ethischen Fragen, die sie aufwerfen, ist nicht davon auszugehen, dass es eine klare Antwort gibt, wie diese Fragen zu behandeln oder zu lösen sind. Anstatt davon auszugehen, dass KI klar vorhersagbare Konsequenzen hat, die ethisch beurteilt und dann angegangen werden können, sollten wir KI anders verstehen: KI ist eine Gruppe von soziotechnischen Systemen, die in ökonomischen, sozialen und politischen Systemen integriert sind. Um diese Sichtweise widerzuspiegeln, wird häufig die Metapher des Ökosystems genutzt. Die Frage nach der Ethik der KI ist dann nicht mehr, was genau das ethische Problem ist und wie es zu lösen ist, sondern wie wir die verschiedenen KI-Ökosysteme formen und orchestrieren, um moralisch akzeptable und sozial wünschenswerte Zustände zu erreichen.

Dieser Vorschlag mag auf den ersten Blick frustrierend erscheinen. Er erlaubt nämlich keine (einfachen) Antworten auf die Fragen, die ich zu Beginn dieses Artikels angeführt habe. So lässt sich in dieser Sichtweise nicht eindeutig beantworten, ob es ethisch vertretbar für Studierende ist, ChatGPT zu benutzen, ob die Marktmacht der Internetfirmen ethisch problematisch ist oder wie wir mit Fragen der AGI umgehen sollten. Allerdings sollte es uns nicht überraschen, dass es auf diese Fragen keine einfachen Antworten gibt, sondern sie kontextspezifisch beantwortet werden müssen. KI als Teil unterschiedlicher Ökosysteme zu sehen, erlaubt es, die spezifische Konstellation von Technologie, Anwendung und sozialem Kontext in den Vordergrund zu rücken. Dies kann dann zu einer detaillierteren Analyse der spezifischen ethischen Fragen führen, aufgrund derer darauf abgestimmte Lösungen gefunden werden können. Ein solcher kontextspezifischer Ansatz der Ethik von KI-Ökosystemen scheint mir daher zielführender zu sein als der Versuch, allgemeingültige Lösungen zu finden, die im Detail und in der Anwendung oft nicht passen.

Fussnoten

Fußnoten

  1. John McCarthy et al., A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence, August 31, 1955, in: AI Magazine 4/2006, S. 12ff., hier S. 13.

  2. Dieser Artikel basiert auf der Diskussion zur Ethik der KI, die ich eingeführt habe in: Artificial Intelligence for a Better Future: An Ecosystem Perspective on the Ethics of AI and Emerging Digital Technologies, Cham 2021.

  3. Vgl. Ethem Alpaydin, Introduction to Machine Learning, Cambridge MA 2020.

  4. Vgl. Sébastien Bubeck et al., Sparks of Artificial General Intelligence: Early Experiments with GPT-4, 22.3.2023, Externer Link: https://arxiv.org/abs/2303.12712.

  5. Vgl. Bernd Carsten Stahl, Morality, Ethics, and Reflection: A Categorization of Normative IS Research, in: Journal of the Association for Information Systems 8/2012, Externer Link: https://aisel.aisnet.org/jais/vol13/iss8/1.

  6. Vgl. Anna Jobin/Marcello Ienca/Effy Vayena, The Global Landscape of AI Ethics Guidelines, in: Nature Machine Intelligence 9/2019, S. 389–399.

  7. Vgl. Hochrangige Expertengruppe für Künstliche Intelligenz (HEG-KI), Ethik-Leitlinien für eine vertrauenswürdige KI, Brüssel 2019, Externer Link: https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai.

  8. Vgl. Brent Mittelstadt, Principles Alone Cannot Guarantee Ethical AI, in: Nature Machine Intelligence 11/2019, S. 501–507.

  9. Vgl. Bettina Berendt, AI for the Common Good?! Pitfalls, Challenges, and Ethics Pen-Testing, in: Paladyn, Journal of Behavioral Robotics 1/2019, S. 44–65.

  10. Vgl. Mark Latonero, Governing Artificial Intelligence: Upholding Human Rights & Dignity, Data & Society Report, 10 10. 2018, Externer Link: https://datasociety.net/library/governing-artificial-intelligence.

  11. Vgl. Mark Coeckelbergh, AI Ethics, Cambridge MA 2020; Virginia Dignum, Responsible Artificial Intelligence. How to Develop and Use AI in a Responsible Way, Cham 2019.

  12. Vgl. HEG-KI (Anm. 7).

  13. Vgl. Giovanni Buttarelli, Choose Humanity: Putting Dignity Back into Digital, Opening Speech of Debating Ethics Public Session of the 40th Edition of the International Conference of Data Protection Commissioners, Brüssel 24.10.2018, Externer Link: http://www.privacyconference2018.org/system/files/2018-10/Choose%20Humanity%20speech_0.pdf.

  14. Vgl. Matthew Jagielski et al., Manipulating Machine Learning: Poisoning Attacks and Countermeasures for Regression Learning, in: The Institute of Electrical and Electronics Engineers (Hrsg.), 2018 IEEE Symposium on Security and Privacy, San Francisco 2018, S. 19–35.

  15. Vgl. Access Now (Hrsg.), Human Rights in the Age of Artificial Intelligence, November 2018, Externer Link: http://www.accessnow.org/cms/assets/uploads/2018/11/AI-and-Human-Rights.pdf.

  16. Vgl. Leslie Willcocks, Robo-Apocalypse Cancelled? Reframing the Automation and Future of Work Debate, in: Journal of Information Technology 4/2020, S. 286–302.

  17. Vgl. Paul Nemitz, Constitutional Democracy and Technology in the Age of Artificial Intelligence, in: Philosophical Transactions of the Royal Society A, 2133/2018, Externer Link: https://doi.org/10.1098/rsta.2018.0089.

  18. Vgl. Shoshana Zuboff, The Age of Surveillance Capitalism, New York 2019.

  19. Vgl. Raymond Kurzweil, The Singularity Is Near: When Humans Transcend Biology, New York 2005.

  20. Vgl. Nick Bostrom, Superintelligence: Paths, Dangers, Strategies, Oxford–New York 2016.

Lizenz

Dieser Text ist unter der Creative Commons Lizenz "CC BY-NC-ND 3.0 DE - Namensnennung - Nicht-kommerziell - Keine Bearbeitung 3.0 Deutschland" veröffentlicht. Autor/-in: Bernd Carsten Stahl für Aus Politik und Zeitgeschichte/bpb.de

Sie dürfen den Text unter Nennung der Lizenz CC BY-NC-ND 3.0 DE und des/der Autors/-in teilen.
Urheberrechtliche Angaben zu Bildern / Grafiken / Videos finden sich direkt bei den Abbildungen.
Sie wollen einen Inhalt von bpb.de nutzen?

ist Professor für Kritische Technologieforschung an der University of Nottingham, Vereinigtes Königreich.
E-Mail Link: bernd.stahl@nottingham.ac.uk