Künstliche Intelligenz: Unterschied zwischen den Versionen
Alshaw (Diskussion | Beiträge) |
Alshaw (Diskussion | Beiträge) |
||
Zeile 12: | Zeile 12: | ||
{{ #staatslexikon_printarticlesection:#articlesection1 }} | {{ #staatslexikon_printarticlesection:#articlesection1 }} | ||
</div> | </div> | ||
− | <p>Wie kaum ein anderes Thema rückt angesichts der immer weiter voranschreitenden Digitalisierung das Phänomen der künstlichen Intelligenz (KI), speziell der künstlichen neuronalen Netze (KNN) und des maschinellen Lernens (ML), ins Zentrum des philosophischen Interesses. Dieses Interesse betrifft konkret das begriffliche Verhältnis von Künstlichkeit und Intelligenz sowie die ethische Frage nach lebensweltlich gelingenden Formen von Mensch-Maschine-Interaktion. Damit eröffnet die Technologie künstlicher Intelligenz zahleiche philosophische Perspektiven, welche u.a. die Erkenntnistheorie, die Philosophie des Geistes, aber auch die Moralphilosophie betreffen.</p> | + | <p>Wie kaum ein anderes Thema rückt angesichts der immer weiter voranschreitenden [[Digitalisierung]] das Phänomen der künstlichen Intelligenz (KI), speziell der künstlichen neuronalen Netze (KNN) und des maschinellen Lernens (ML), ins Zentrum des philosophischen Interesses. Dieses Interesse betrifft konkret das begriffliche Verhältnis von Künstlichkeit und Intelligenz sowie die ethische Frage nach lebensweltlich gelingenden Formen von Mensch-Maschine-Interaktion. Damit eröffnet die Technologie künstlicher Intelligenz zahleiche philosophische Perspektiven, welche u.a. die Erkenntnistheorie, die Philosophie des Geistes, aber auch die Moralphilosophie ([[Moral]]) betreffen.</p> |
<div class="article__sub-section"> | <div class="article__sub-section"> | ||
<h3>1. Zum Begriff künstlicher Intelligenz</h3> | <h3>1. Zum Begriff künstlicher Intelligenz</h3> | ||
− | <p>Die Rede von einer „Künstlichkeit“ der Intelligenz, die durch die neuere technologische Entwicklung ermöglicht wird, ist mehrdeutig. Nach einer schwächeren Lesart spezifiziert „Künstlichkeit“ die Intelligenz von technischen Systemen in dem Sinne näher, dass sie menschliche Intelligenz imitieren oder simulieren. Nach einer stärkeren Lesart realisieren Maschinen hingegen menschliche Intelligenz oder übertreffen diese gar. Diese beiden Lesarten entsprechen in etwa der Unterscheidung von schwacher und starker KI, wie sie sich mittlerweile eingebürgert hat (Russell/Norvig 2022: 1020). Konzeptionen von schwacher KI fassen diese häufig als bloße technische Eigenschaft von Objekten auf, während Konzeptionen von starker KI Intelligenz als Eigenschaft eines technischen Systems verstehen und damit zu Anthropomorphisierungen neigen, die jedoch weniger philosophischen als spekulativen Charakter haben. Philosophisch stellt sich vor aller Spekulation zunächst die Frage, inwiefern man einem System wirklich Intelligenz zusprechen kann, oder ob es sich dabei nicht um uneigentliche Begriffe bzw. Kategorienfehler handelt. Dieses Problem zeigt sich etwa dann, wenn wir alltagssprachlich Computersysteme als Subjekte oder gar als Akteure auffassen und ihnen mentale Eigenschaften wie „erkennen“, „urteilen“, „wissen“, „verstehen“, „denken“, „entscheiden“, oder gar „wollen“ und „handeln“ zusprechen. Hier muss die Philosophie kritisch prüfen, inwiefern diese Prädikate eigentlich oder nur in analoger oder abgewandelter Form auf die jeweiligen technischen Phänomene zutreffen.</p> | + | <p>Die Rede von einer „Künstlichkeit“ der Intelligenz, die durch die neuere technologische Entwicklung ermöglicht wird, ist mehrdeutig. Nach einer schwächeren Lesart spezifiziert „Künstlichkeit“ die Intelligenz von technischen Systemen in dem Sinne näher, dass sie menschliche Intelligenz ''imitieren'' oder ''simulieren''. Nach einer stärkeren Lesart ''realisieren'' Maschinen hingegen menschliche Intelligenz oder übertreffen diese gar. Diese beiden Lesarten entsprechen in etwa der Unterscheidung von schwacher und starker KI, wie sie sich mittlerweile eingebürgert hat (Russell/Norvig 2022: 1020). Konzeptionen von schwacher KI fassen diese häufig als bloße technische Eigenschaft von Objekten auf, während Konzeptionen von starker KI Intelligenz als Eigenschaft eines technischen Systems verstehen und damit zu Anthropomorphisierungen neigen, die jedoch weniger philosophischen als spekulativen Charakter haben. Philosophisch stellt sich vor aller Spekulation zunächst die Frage, inwiefern man einem System ''wirklich'' Intelligenz zusprechen kann, oder ob es sich dabei nicht um uneigentliche Begriffe bzw. Kategorienfehler handelt. Dieses Problem zeigt sich etwa dann, wenn wir alltagssprachlich Computersysteme als Subjekte oder gar als Akteure auffassen und ihnen mentale Eigenschaften wie „erkennen“, „urteilen“, „wissen“, „verstehen“, „denken“, „entscheiden“, oder gar „wollen“ und „handeln“ zusprechen. Hier muss die Philosophie kritisch prüfen, inwiefern diese Prädikate eigentlich oder nur in analoger oder abgewandelter Form auf die jeweiligen technischen Phänomene zutreffen.</p> |
</div> | </div> | ||
<div class="article__sub-section"> | <div class="article__sub-section"> | ||
Zeile 23: | Zeile 23: | ||
<div class="article__sub-section"> | <div class="article__sub-section"> | ||
<h3>3. KI und Simulation (John Searle)</h3> | <h3>3. KI und Simulation (John Searle)</h3> | ||
− | <p>Die von Turing fokussierte Imitationsleistung kann auf zwei verschiedene Weisen verstanden werden. Zum einen kann „Imitation“ so viel wie Simulation bedeuten, zum andern aber auch im Sinne einer Duplikation, also Realisierung menschlicher Intelligenz verstanden werden. Auf diesen Unterschied hat insbesondere John Searle hingewiesen (Searle 1984). Er argumentiert, dass Computer menschliche kognitive Leistungen nur zu simulieren, jedoch nicht zu duplizieren vermögen (Searle 1984: 37 f.). Searle bezieht die „key distinction“ zwischen Simulation und Duplikation auf seine Unterscheidung von Syntax und Semantik (Searle 1984: 34). Er argumentiert, dass Computer immer nur syntaktische Operationen durch Symbolverarbeitung zu leisten imstande sind, die jedoch niemals zu semantischem Gehalt führen können, den nach Searle nur mentale Zustände besitzen (Searle 1984: 36).</p> | + | <p>Die von Turing fokussierte Imitationsleistung kann auf zwei verschiedene Weisen verstanden werden. Zum einen kann „Imitation“ so viel wie Simulation bedeuten, zum andern aber auch im Sinne einer Duplikation, also Realisierung menschlicher Intelligenz verstanden werden. Auf diesen Unterschied hat insbesondere John Searle hingewiesen (Searle 1984). Er argumentiert, dass Computer menschliche kognitive Leistungen nur zu simulieren, jedoch nicht zu duplizieren vermögen (Searle 1984: 37 f.). Searle bezieht die „key distinction“ zwischen Simulation und Duplikation auf seine Unterscheidung von Syntax und Semantik (Searle 1984: 34). Er argumentiert, dass Computer immer nur syntaktische Operationen durch Symbolverarbeitung ([[Symbol]]) zu leisten imstande sind, die jedoch niemals zu semantischem Gehalt führen können, den nach Searle nur mentale Zustände besitzen (Searle 1984: 36).</p> |
</div> | </div> | ||
<div class="article__sub-section"> | <div class="article__sub-section"> | ||
<h3>4. KI und Rekonstruktion (Hubert Dreyfus)</h3> | <h3>4. KI und Rekonstruktion (Hubert Dreyfus)</h3> | ||
− | <p>Während Turing und Searle aus philosophischer Perspektive vor allem auf symbolverarbeitende KI fokussieren, welche in regelgeleiteter Zeichenmanipulation besteht, hat sich Hubert Dreyfus mit dem konnektivistischen KI-Phänomen befasst, welches neuerdings besonders in Form von KNN und ML Beachtung findet. Denn durch das Aufkommen von ML zeigt sich, dass die Frage, inwiefern Computer intelligent genannt werden können, nicht allein durch die Unterscheidung von Simulation und Duplikation beantwortet werden kann. Vielmehr spielt dabei die strukturanaloge Rekonstruktion und Modellierung des menschlichen Gehirns mittels künstlicher Neuronen eine zentrale Rolle (Dreyfus 1988: 37 f.). Hier stellt sich nun die epistemologische Frage, inwiefern die Operationen und Resultate künstlicher neuronaler Netze als | + | <p>Während Turing und Searle aus philosophischer Perspektive vor allem auf symbolverarbeitende KI fokussieren, welche in regelgeleiteter Zeichenmanipulation besteht, hat sich Hubert Dreyfus mit dem konnektivistischen KI-Phänomen befasst, welches neuerdings besonders in Form von KNN und ML Beachtung findet. Denn durch das Aufkommen von ML zeigt sich, dass die Frage, inwiefern Computer intelligent genannt werden können, nicht allein durch die Unterscheidung von Simulation und Duplikation beantwortet werden kann. Vielmehr spielt dabei die strukturanaloge Rekonstruktion und Modellierung des menschlichen Gehirns mittels künstlicher Neuronen eine zentrale Rolle (Dreyfus 1988: 37 f.). Hier stellt sich nun die epistemologische Frage, inwiefern die Operationen und Resultate künstlicher neuronaler Netze als „[[Lernen]]“, als „Intelligenz“ und als „Wissen“ bezeichnet werden können. KNN operieren im Sinne von Mustererkennung, insofern sie von einer (empirischen) Datenbasis allgemeinere Strukturen abstrahieren. Mittels Fehlerrückkoppelung besitzt das System eine rudimentäre selbstbezügliche Struktur, die freilich nicht mit Selbstbewusstsein zu verwechseln ist. |
− | + | </p> | |
− | Eine rein behavioristische Beschreibung maschinellen Lernens greift insofern zu kurz, da sie nicht den Prozess betrachtet, der zu den jeweiligen Ergebnissen führt, deren epistemische Bedeutung in Frage steht. Dabei scheint es durchaus angemessen zu sein, mit Blick auf KNN von einem Lernprozess zu sprechen. Nach mehreren Durchläufen auf Basis großer Informationsmengen kann ein Lerneffekt des Netzes erzielt werden, der in der adäquaten Anpassung seiner Gewichtungen liegt. Hierin kann eine Art von Wissen erblickt werden, welches durch ein quasiexperimentelles und quasi-empirisches Abstraktionsverfahren erlangt wurde, wie es auch Lebewesen tun. Gerade aus empiristischer Perspektive haben insofern die neueren Phänomene neuronaler Netzwerke besondere philosophische Beachtung erfahren (Buckner 2018). Trotz aller Fortschritte und beeindruckender Ergebnisse ist immer noch Dreyfus’ Hinweis darauf relevant, dass „human beings are much more holistic than neural nets“ (Dreyfus 1988: 39). | + | <p> |
+ | Eine rein behavioristische Beschreibung maschinellen Lernens greift insofern zu kurz, da sie nicht den Prozess betrachtet, der zu den jeweiligen Ergebnissen führt, deren epistemische Bedeutung in Frage steht. Dabei scheint es durchaus angemessen zu sein, mit Blick auf KNN von einem Lernprozess zu sprechen. Nach mehreren Durchläufen auf Basis großer Informationsmengen kann ein Lerneffekt des Netzes erzielt werden, der in der adäquaten Anpassung seiner Gewichtungen liegt. Hierin kann eine Art von Wissen erblickt werden, welches durch ein quasiexperimentelles und quasi-empirisches Abstraktionsverfahren erlangt wurde, wie es auch Lebewesen tun. Gerade aus empiristischer Perspektive ([[Empirismus]]) haben insofern die neueren Phänomene neuronaler Netzwerke besondere philosophische Beachtung erfahren (Buckner 2018). Trotz aller Fortschritte und beeindruckender Ergebnisse ist immer noch Dreyfus’ Hinweis darauf relevant, dass „human beings are much more holistic than neural nets“ (Dreyfus 1988: 39). | ||
</p> | </p> | ||
</div> | </div> | ||
<div class="article__sub-section"> | <div class="article__sub-section"> | ||
<h3>5. KI und Lebenswelt</h3> | <h3>5. KI und Lebenswelt</h3> | ||
− | <p>KI wird immer mehr als lebensweltlicher Faktor zentral, so dass sich hier die Frage nach einer gelingenden Mensch-Maschine-Interaktion stellt. Aus trans- und posthumanistischer Perspektive wird entweder dafür argumentiert, die Mensch-Maschine-Interaktion so aufzulösen, dass KI in absehbarer Zukunft Bewusstsein erlange und gar den Menschen in Form einer „Superintelligenz“ übertreffe (Bostrom 2014), oder aber, dass Mensch und Maschine durch eine technologische Singularität miteinander verschmelzen (Kurzweil 2005). Diese Auffassung wurde von verschiedenen Seiten als haltlose Spekulation und „Silicon-Valley-Ideologie“ (Nida-Rümelin/Weidenfeld 2018: 18) kritisiert. Aus ethischer Perspektive stellt sich allerdings nicht so sehr die Frage, inwiefern KI selbst zu einem Akteur wird und die Menschheit bedroht, sondern vielmehr, inwiefern KI in unsere Lebenswelt so integriert werden kann, dass sie diese verbessert. Douglas Engelbart hat für dieses lebensweltliche Verständnis von KI die Wendung „Augmented Human Intellect“ geprägt (Engelbart 1962; Ramge 2020: 45). Es kommt hierbei insbesondere darauf an, eine solche Mensch-Maschine-Interaktion zu etablieren und zu kultivieren, d.h. KI so in unsere lebensweltliche Praxis zu integrieren, dass wir durch ihren Gebrauch unsere Autonomie nicht an technische Systeme blindlings delegieren, sondern vielmehr unsere Autonomie vergrößern (Noller 2022a; Noller 2022b)..</p> | + | <p>KI wird immer mehr als lebensweltlicher Faktor zentral, so dass sich hier die Frage nach einer gelingenden Mensch-Maschine-Interaktion stellt ([[Technikphilosophie]]). Aus trans- und posthumanistischer Perspektive ([[Transhumanismus]]) wird entweder dafür argumentiert, die Mensch-Maschine-Interaktion so aufzulösen, dass KI in absehbarer Zukunft Bewusstsein erlange und gar den Menschen in Form einer „Superintelligenz“ übertreffe (Bostrom 2014), oder aber, dass Mensch und Maschine durch eine technologische Singularität miteinander verschmelzen (Kurzweil 2005). Diese Auffassung wurde von verschiedenen Seiten als haltlose Spekulation und „Silicon-Valley-Ideologie“ (Nida-Rümelin/Weidenfeld 2018: 18) kritisiert. Aus ethischer Perspektive stellt sich allerdings nicht so sehr die Frage, inwiefern KI selbst zu einem Akteur wird und die Menschheit bedroht, sondern vielmehr, inwiefern KI in unsere Lebenswelt so integriert werden kann, dass sie diese verbessert. Douglas Engelbart hat für dieses lebensweltliche Verständnis von KI die Wendung „Augmented Human Intellect“ geprägt (Engelbart 1962; Ramge 2020: 45). Es kommt hierbei insbesondere darauf an, eine solche Mensch-Maschine-Interaktion zu etablieren und zu kultivieren, d.h. KI so in unsere lebensweltliche Praxis zu integrieren, dass wir durch ihren Gebrauch unsere Autonomie nicht an technische Systeme blindlings delegieren, sondern vielmehr unsere Autonomie vergrößern (Noller 2022a; Noller 2022b)..</p> |
</div> | </div> | ||
</div> | </div> |
Aktuelle Version vom 23. Oktober 2023, 23:46 Uhr
I. Philosophisch
Wie kaum ein anderes Thema rückt angesichts der immer weiter voranschreitenden Digitalisierung das Phänomen der künstlichen Intelligenz (KI), speziell der künstlichen neuronalen Netze (KNN) und des maschinellen Lernens (ML), ins Zentrum des philosophischen Interesses. Dieses Interesse betrifft konkret das begriffliche Verhältnis von Künstlichkeit und Intelligenz sowie die ethische Frage nach lebensweltlich gelingenden Formen von Mensch-Maschine-Interaktion. Damit eröffnet die Technologie künstlicher Intelligenz zahleiche philosophische Perspektiven, welche u.a. die Erkenntnistheorie, die Philosophie des Geistes, aber auch die Moralphilosophie (Moral) betreffen.
1. Zum Begriff künstlicher Intelligenz
Die Rede von einer „Künstlichkeit“ der Intelligenz, die durch die neuere technologische Entwicklung ermöglicht wird, ist mehrdeutig. Nach einer schwächeren Lesart spezifiziert „Künstlichkeit“ die Intelligenz von technischen Systemen in dem Sinne näher, dass sie menschliche Intelligenz imitieren oder simulieren. Nach einer stärkeren Lesart realisieren Maschinen hingegen menschliche Intelligenz oder übertreffen diese gar. Diese beiden Lesarten entsprechen in etwa der Unterscheidung von schwacher und starker KI, wie sie sich mittlerweile eingebürgert hat (Russell/Norvig 2022: 1020). Konzeptionen von schwacher KI fassen diese häufig als bloße technische Eigenschaft von Objekten auf, während Konzeptionen von starker KI Intelligenz als Eigenschaft eines technischen Systems verstehen und damit zu Anthropomorphisierungen neigen, die jedoch weniger philosophischen als spekulativen Charakter haben. Philosophisch stellt sich vor aller Spekulation zunächst die Frage, inwiefern man einem System wirklich Intelligenz zusprechen kann, oder ob es sich dabei nicht um uneigentliche Begriffe bzw. Kategorienfehler handelt. Dieses Problem zeigt sich etwa dann, wenn wir alltagssprachlich Computersysteme als Subjekte oder gar als Akteure auffassen und ihnen mentale Eigenschaften wie „erkennen“, „urteilen“, „wissen“, „verstehen“, „denken“, „entscheiden“, oder gar „wollen“ und „handeln“ zusprechen. Hier muss die Philosophie kritisch prüfen, inwiefern diese Prädikate eigentlich oder nur in analoger oder abgewandelter Form auf die jeweiligen technischen Phänomene zutreffen.
2. KI und Imitation (Alan Turing)
Die Frage, ob und inwiefern Maschinen intelligent genannt werden können, hat bereits Alan Turing in seinem klassischen Aufsatz „Computing Machinery and Intelligence“ beschäftigt (Turing 1950). Darin vertritt Turing die These, dass die Frage, ob und inwiefern Maschinen denken können, nicht sinnvoll direkt beantwortet werden könne – sie sei „too meaningless to deserve discussion“ (Turing 1950: 422). Anstelle der Frage „Can machines think?“, schlägt Turing vor, sie durch die Frage „Are there imaginable digital computers which would do well in the imitation game?“ zu ersetzen (Turing 1950: 442) Turing umgeht also eine direkte Definition des Begriffs künstlicher Intelligenz und ersetzt sie durch ein Gedankenszenario, in welchem die Bedingungen dafür entwickelt werden, eine Maschine mit guten Gründen als (künstlich) intelligent bezeichnen zu dürfen. Seine Ersetzungsthese entwickelt Turing durch das von ihm so genannte „imitation game“ (Turing 1950: 433). Dieses Experiment, auch „Turing-Test“ genannt, besteht zwischen drei Instanzen – einer Frau (A), einem Mann (B) und einer Person (C), welche durch geschickte Fragen das Geschlecht der ihr unbekannten beiden Personen – X und Y – herausfinden soll, die wiederum versuchen, C über ihre Identität im Unklaren zu lassen. Nun wird entweder die Frau oder der Mann durch einen Computer ersetzt, so dass sich als Gelingensbedingung der Zuschreibung von (künstlicher) Intelligenz an den Computer folgende Frage stellt: „Will the interrogator decide wrongly as often when the game is played like this as he does when the game is played between a man and a woman?“ (Turing 1950: 434) Hier stellt sich nun die weitergehende Frage, inwiefern das „Bestehen“ eines solchen Tests Rückschüsse auf die „Intelligenz“ eines Computers erlaubt.
3. KI und Simulation (John Searle)
Die von Turing fokussierte Imitationsleistung kann auf zwei verschiedene Weisen verstanden werden. Zum einen kann „Imitation“ so viel wie Simulation bedeuten, zum andern aber auch im Sinne einer Duplikation, also Realisierung menschlicher Intelligenz verstanden werden. Auf diesen Unterschied hat insbesondere John Searle hingewiesen (Searle 1984). Er argumentiert, dass Computer menschliche kognitive Leistungen nur zu simulieren, jedoch nicht zu duplizieren vermögen (Searle 1984: 37 f.). Searle bezieht die „key distinction“ zwischen Simulation und Duplikation auf seine Unterscheidung von Syntax und Semantik (Searle 1984: 34). Er argumentiert, dass Computer immer nur syntaktische Operationen durch Symbolverarbeitung (Symbol) zu leisten imstande sind, die jedoch niemals zu semantischem Gehalt führen können, den nach Searle nur mentale Zustände besitzen (Searle 1984: 36).
4. KI und Rekonstruktion (Hubert Dreyfus)
Während Turing und Searle aus philosophischer Perspektive vor allem auf symbolverarbeitende KI fokussieren, welche in regelgeleiteter Zeichenmanipulation besteht, hat sich Hubert Dreyfus mit dem konnektivistischen KI-Phänomen befasst, welches neuerdings besonders in Form von KNN und ML Beachtung findet. Denn durch das Aufkommen von ML zeigt sich, dass die Frage, inwiefern Computer intelligent genannt werden können, nicht allein durch die Unterscheidung von Simulation und Duplikation beantwortet werden kann. Vielmehr spielt dabei die strukturanaloge Rekonstruktion und Modellierung des menschlichen Gehirns mittels künstlicher Neuronen eine zentrale Rolle (Dreyfus 1988: 37 f.). Hier stellt sich nun die epistemologische Frage, inwiefern die Operationen und Resultate künstlicher neuronaler Netze als „Lernen“, als „Intelligenz“ und als „Wissen“ bezeichnet werden können. KNN operieren im Sinne von Mustererkennung, insofern sie von einer (empirischen) Datenbasis allgemeinere Strukturen abstrahieren. Mittels Fehlerrückkoppelung besitzt das System eine rudimentäre selbstbezügliche Struktur, die freilich nicht mit Selbstbewusstsein zu verwechseln ist.
Eine rein behavioristische Beschreibung maschinellen Lernens greift insofern zu kurz, da sie nicht den Prozess betrachtet, der zu den jeweiligen Ergebnissen führt, deren epistemische Bedeutung in Frage steht. Dabei scheint es durchaus angemessen zu sein, mit Blick auf KNN von einem Lernprozess zu sprechen. Nach mehreren Durchläufen auf Basis großer Informationsmengen kann ein Lerneffekt des Netzes erzielt werden, der in der adäquaten Anpassung seiner Gewichtungen liegt. Hierin kann eine Art von Wissen erblickt werden, welches durch ein quasiexperimentelles und quasi-empirisches Abstraktionsverfahren erlangt wurde, wie es auch Lebewesen tun. Gerade aus empiristischer Perspektive (Empirismus) haben insofern die neueren Phänomene neuronaler Netzwerke besondere philosophische Beachtung erfahren (Buckner 2018). Trotz aller Fortschritte und beeindruckender Ergebnisse ist immer noch Dreyfus’ Hinweis darauf relevant, dass „human beings are much more holistic than neural nets“ (Dreyfus 1988: 39).
5. KI und Lebenswelt
KI wird immer mehr als lebensweltlicher Faktor zentral, so dass sich hier die Frage nach einer gelingenden Mensch-Maschine-Interaktion stellt (Technikphilosophie). Aus trans- und posthumanistischer Perspektive (Transhumanismus) wird entweder dafür argumentiert, die Mensch-Maschine-Interaktion so aufzulösen, dass KI in absehbarer Zukunft Bewusstsein erlange und gar den Menschen in Form einer „Superintelligenz“ übertreffe (Bostrom 2014), oder aber, dass Mensch und Maschine durch eine technologische Singularität miteinander verschmelzen (Kurzweil 2005). Diese Auffassung wurde von verschiedenen Seiten als haltlose Spekulation und „Silicon-Valley-Ideologie“ (Nida-Rümelin/Weidenfeld 2018: 18) kritisiert. Aus ethischer Perspektive stellt sich allerdings nicht so sehr die Frage, inwiefern KI selbst zu einem Akteur wird und die Menschheit bedroht, sondern vielmehr, inwiefern KI in unsere Lebenswelt so integriert werden kann, dass sie diese verbessert. Douglas Engelbart hat für dieses lebensweltliche Verständnis von KI die Wendung „Augmented Human Intellect“ geprägt (Engelbart 1962; Ramge 2020: 45). Es kommt hierbei insbesondere darauf an, eine solche Mensch-Maschine-Interaktion zu etablieren und zu kultivieren, d.h. KI so in unsere lebensweltliche Praxis zu integrieren, dass wir durch ihren Gebrauch unsere Autonomie nicht an technische Systeme blindlings delegieren, sondern vielmehr unsere Autonomie vergrößern (Noller 2022a; Noller 2022b)..
Literatur
J. Noller: Digitalität. Zur Philosophie der digitalen Lebenswelt, 2022a • Ders.: Interobjektivität. Über Künstliche Intelligenz und Digitalität, in: O. Friedrich u.a. (Hg.): Mensch-Maschine-Interaktion, 2022b, 81-94 • S. Russell/P. Norvig: Artificial Intelligence, 2022 • T. Ramge: Augmented Intelligence, 2020 • C. Buckner: Empiricism without magic: transformational abstraction in deep convolutional neural networks, in: Synthese 195/3 (2018), 5339-5372 • J. Nida-Rümelin/N. Weidenfeld: Digitaler Humanismus. Eine Ethik für das Zeitalter der künstlichen Intelligenz, 2018 • N. Bostrom: Superintelligence, 2014 • R. Kurzweil: The Singularity is Near, 2005 • H. L. Dreyfus/S. L. Dreyfus: Making a Mind versus Modeling the Brain: Artificial Intelligence Back at a Branchpoint, in: Daedalus 117/1 (1988), 15-43 • J. Searle: Minds, Brains and Science, 31984 • A. Turing: Computing Machinery and Intelligence, in: Mind 59/236 (1950), 433-460.
Empfohlene Zitierweise
Zitation kopierenJ. Noller: Künstliche Intelligenz, I. Philosophisch, Version 17.08.2022, 12:00 Uhr, in: Staatslexikon8 online, URL: https://www.staatslexikon-online.de/Lexikon/K%C3%BCnstliche_Intelligenz (abgerufen: 24.11.2024)
II. Rechtlich
Abschnitt druckenKünstliche Intelligenz (KI) – wie etwa der Chatbot ChatGPT – ist eine Schlüsseltechnologie, die das Leben der Menschen fundamental verändern wird. Sie durchdringt alle Lebensbereiche und kommt schon heute in den unterschiedlichsten Anwendungsfeldern wie der Robotik, der Medizin oder der Mobilität zum Einsatz.
1. Begriff und Einordnung
Im Recht ist der schillernde Begriff bisher nicht in Form einer Legaldefinition verankert und führt oftmals zu Abgrenzungsschwierigkeiten zu verwandten Begriffen wie "algorithmische Systeme". Allgemein ist KI eine spezifische Eigenschaft von informationstechnischen Systemen, deren Fähigkeit darin besteht, aus den ihnen zur Verfügung gestellten Daten selbstständig zu lernen und neue Erkenntnisse zu gewinnen, wobei der Entscheidungsprozess nicht im Detail durch menschliche Programmierung vorgegeben ist.
Die bisher nur wenig vorangeschrittene rechtliche Regulierung von KI sowie die durch sie entstehenden vielfältigen Gefahrenlagen führen jedoch bei allen Akteuren zu erheblichen Rechtsunsicherheiten. Daher muss KI zum Gegenstand rechtlicher und anderer Regulierung werden. Denn technische Sachverhalte sind auch immer als soziotechnisches System von Bedeutung und müssen in ihrem spezifischen Anwendungskontext betrachtet werden. Dabei darf die Regulierung von KI nicht nur als reines Wirtschaftsregulierungsrecht (Wirtschaftsrecht) verstanden werden, sondern muss von einem menschenzentrierten Weltbild ausgehen.
2. Prämissen der KI-Regulierung
Wie jede Technologie unterliegt KI je nach ihrem Verwendungszusammenhang unterschiedlichen Normen mit jeweils unterschiedlichen Zielsetzungen. Diese können ganz allgemein vom Völkerrecht, über das Europa- und Verfassungsrecht bis hin zu besonderen Anforderungen aus dem Datenschutz-, Antidiskriminierungs-, Telemedien- (Medienrecht), Wettbewerbs-, Haftungs- und Technikrecht reichen. Dabei spielen insb. immer die Sicherheit von KI sowie der Schutz vor KI eine wesentliche Rolle.
2.1 Grundrechtliche Rahmung
Die Entwicklung und Nutzung moderner Technologien wie KI erfolgt in Ausübung grundrechtlicher Freiheiten. Eine Regulierung bewegt sich daher immer im Spannungsfeld der Abwehr von Gefahren durch ihre Verwendung (Art. 1 Abs. 1 GG) sowie der Erfüllung staatlicher Schutzpflichten (Art. 2 Abs. 2 S. 1 GG) einerseits und der Ausübung von Grundrechten der Technikverwender (Art. 12 GG, Art. 14 GG, Art. 5 Abs. 3 GG) andererseits. An diesen äußeren Grenzen muss sich KI-Regulierung kontextspezifisch messen lassen.
2.2 Grundprinzipien
Die Orientierung an übergeordneten Grundprinzipien erleichtert eine rechtskonforme KI-Regulierung, weil diese Maximen kontextspezifisch für die zahlreichen unterschiedlichen Anwendungsfelder fruchtbar gemacht werden können. Es lassen sich wenigstens fünf Grundprinzipien herleiten, die für eine KI-Regulierung substanziell sind.
Erstens darf KI nicht diskriminierend sein (Art. 3 Abs. 1 GG, Art. 21 Abs. 1 GRCh), sofern es hierfür im Rahmen ihres konkreten Verwendungszwecks keine sachliche Rechtfertigung gibt. Dort, wo besondere Diskriminierungsverbote bestehen (vgl. etwa Art. 3 Abs. 3 GG, Art. 33 Abs. 1 – 3 GG, Art. 38 Abs. 1 GG, Art. 22 DSGVO), sind diese strikt zu beachten. Sind etwa die durch die KI verarbeiteten Eingangsdaten qualitativ geringwertig und überlappen sich diese Daten mit besonders sensiblen Daten, kann KI dazu beitragen, bestehende Diskriminierungslagen zu verfestigen und die Stigmatisierung vulnerabler Gruppen zu fördern, sodass es hier besonderer rechtlicher Schutzmechanismen bedarf (Diskriminierung).
Zweitens müssen der Einsatz und die Verwendung von KI transparent und kontrollierbar sein. Denn eine fehlende Erkennbarkeit führt dazu, dass die betroffenen Akteure ihre Rechte überhaupt nicht oder nur eingeschränkt wahrnehmen können. Mit dem Rechtsstaatsprinzip (Rechtsstaat) ist eine solche Technikgestaltung nicht vereinbar, sodass fehlende Transparenz und fehlende Kontrollierbarkeit ihrerseits rechtfertigungsbedürftig sind. Erst recht gilt das, wo öffentlich-rechtliche Rechte und Pflichten betroffen sind.
Drittens ist KI situationsangemessen einzusetzen. Überall dort, wo Schematisierungen zulässig sind (vgl. etwa §§ 35a VwVfG, 31a SGB X, 155 Abs. 4 AO), besteht grundsätzlich Raum für ihren Einsatz. Je differenzierter und individueller die zu treffenden Entscheidungen hingegen sind – etwa im Gesundheitsbereich oder Gefahrenabwehrrecht (Polizei) –, desto spezifischer müssen die rechtlichen Anforderungen für die Verwendung von KI ausfallen.
Viertens müssen bei der Verwendung von KI Verantwortlichkeiten präzise bestimmt sein. Die regelmäßig fehlende Nachvollziehbarkeit von durch KI getroffenen Entscheidungen erfordert Verantwortungszuschreibungen, da andernfalls das Prinzip der Verantwortlichkeit der Handelnden als fundamentales Element der Rechtsordnung seine Wirkung verliert. Solange Verantwortlichkeiten nicht präzise bestimmt sind, ist es Aufgabe der Rechtswissenschaft Kriterien der Zurechnung von beteiligten Akteuren zu entwickeln. Hieraus lassen sich auch hinreichend klare Haftungsregelungen (Haftung) ableiten.
Fünftens ist Datenschutz sicherzustellen, sobald personenbezogene Daten durch KI verarbeitet werden. Im Hinblick auf Datenschutz und Datensicherheit steht die Regulierung von KI nicht mehr ganz am Anfang, da mit der Europäischen DS-GVO ein moderner Rechtsrahmen zur Verfügung steht, der einzelne Elemente enthält, die dem Einsatz von KI schon heute einen rechtlichen Rahmen vorgeben (vgl. Art 22 DSGVO – automatisierte Entscheidungen im Einzelfall einschließlich Profiling).
3. Status quo der KI-Regulierung
Dem nationalen Recht sind spezifische auf KI zugeschnittene Gesetze bisher fremd, sodass sich der Einsatz nach den allgemeinen Vorschriften richtet. Nur vereinzelt lassen sich einige wenige Normen mit KI in Verbindung bringen. Zu nennen sind hier etwa der vollständig automatisierte Erlass von Verwaltungsakten ohne menschliche Beteiligung (vgl. §§ 35a VwVfG, 31a SGB X, 88 Abs. 5 AO, 155 Abs. 4 AO) oder das Verbot automatisierter Einzelentscheidungen (vgl. §§ 37, 54 BDSG sowie Art. 22 DSGVO). In Deutschland sind derzeit keine besonderen Rechtssetzungsverfahren zum Erlass von spezifischen auf KI zugeschnittenen Gesetzen und Regelungen geplant.
4. Entwurf einer EU-Verordnung über Künstliche Intelligenz (KIVO-E)
Auf europäischer Ebene hat die Europäische Kommission im April 2021 einen Verordnungsentwurf veröffentlicht, der den rechtlichen Rahmen für vertrauenswürdige KI schaffen soll. Im Mittelpunkt der Regulierung steht das Bedürfnis, dass die auf dem europäischen Markt in Verkehr gebrachten und in der EU eingesetzten KI-Systeme sicher angewendet werden müssen und dabei die bestehenden Grundrechte und Werte der Union zu wahren sind. Ergänzend zum KIVO-E wurde der Entwurf einer RL über außervertragliche zivilrechtliche Haftung an KI veröffentlicht.
4.1 Wesentliche Regulierungsinhalte
Mit dem risikobasierten Ansatz verfolgt der KIVO-E das Ziel, ein verhältnismäßiges und wirksames Regelwerk für KI-Systeme einzuführen, sodass Art und Inhalt der Vorschriften auf die Intensität und den Umfang der Risiken zugeschnitten werden, die von KI-Systemen ausgehen können. Erstmalig wird auch eine Legaldefinition für „System(e) der künstlichen Intelligenz“ implementiert (Art. 3 Nr. 1 KIVO-E), die jedoch aufgrund ihres weiten Anwendungsbereichs umstritten ist, da auch Software erfasst wird, die von Informatikern nicht als KI bezeichnet werden würde. Der weite Anwendungsbereich der KIVO-E, der Anbieter (Art. 3 Nr. 2 KIVO-E) und Nutzer (Art. 3 Nr. 4 KIVO-E) von KI-Systemen verpflichtet, ist eröffnet, sobald durch die Verwendung eines KI-Systems ein Bezug zur EU hergestellt wird (Art. 2 Abs. 1 KIVO-E). Dadurch kann ein weitreichender Schutz sichergestellt werden. Der KIVO-E, der sich sichtbar in die Tradition des Technikrechts stellt und verbotene KI-Praktiken ausdrücklich benennt, verbietet generell KI-Systeme zur Verhaltensmanipulation und zum Social Scoring sowie mit Ausnahmen auch zur biometrischen Echtzeit-Fernidentifizierung (Art. 5 KIVO-E). Im Gegensatz dazu dürfen Hochrisiko-KI-Systeme (Art. 6 f. KIVO-E), also solche Systeme von denen erhebliche Risiken für die Gesundheit und die Sicherheit oder die Grundrechte von Personen ausgehen, nur unter besonders strengen Voraussetzungen verwendet werden (Art. 8 ff. KIVO-E). Hierzu zählen u.a. die Verwendung eines Risikomanagementsystems (Art. 9 KIVO-E), die Sicherstellung von Datenqualität (Art. 10 KIVO-E), Dokumentations-, Aufzeichnungs-, Informations- und Cybersicherheitspflichten (Art. 11 – 13 KIVO-E und Art. 15 KIVO-E) sowie die menschliche Aufsicht über diese Systeme (Art. 14 KIVO-E). Daneben werden Anbietern und Nutzern von Hochrisiko-KI-Systemen zahlreiche weitere spezifische Pflichten auferlegt (Art. 16 ff. KIVO-E). Ein eingerichteter Europäischer Ausschuss für künstliche Intelligenz (Art. 56 ff. KIVO-E) unterstützt die Europäische Kommission und nationale Aufsichtsbehörden stellen die Anwendung und Durchführung der KIVO-E sicher (Art. 59 KIVO-E). Schließlich können bei Verstößen gegen die Verordnung Geldbußen von bis zu 30.000.000 EUR oder gegenüber Unternehmen bis zu 6% des gesamten weltweiten Jahresumsatzes verhängt werden (Art. 71 Abs. 3 KIVO-E).
4.2 Kritische Würdigung
Der KIVO-E greift zahlreiche Ansätze einer fortschrittlichen Technologieregulierung auf, wobei den Vorschriften oftmals im Detail die Schärfe fehlt und die zu berücksichtigenden Grundprinzipien nicht konsequent verfolgt werden. Die Aufzählung der verbotenen KI-Praktiken benennt zwar gewichtige Sonderfälle, entbehrt aber einer leitenden Systematik. Die Rechte der von KI-Systemen betroffenen Personen sowie deren spezifische Verbraucherrechte (Verbraucherschutz) werden im KIVO-E nur unzureichend abgebildet. Auch zur konkreten Rechtsdurchsetzung fehlen Regelungen. Ebenso bleibt das Verhältnis zur DSGVO offen, obwohl gerade hier im Spannungsfeld zwischen informationeller Selbstbestimmung der von KI betroffenen Akteure und Datenverarbeitung durch KI-Systeme erheblicher Abgrenzungsbedarf besteht. Schließlich fehlen auch konkrete Haftungsregeln, wenngleich hier seit geraumer Zeit der Vorschlag für eine Richtlinie über KI-Haftung existiert, die allerdings nur den besonders spezifischen Anwendungsbereich der außervertraglichen zivilrechtlichen Haftung adressiert.
5. Ausblick
Sowohl im europäischen Recht als auch im nationalen Recht steht die Regulierung von KI noch ganz am Anfang. Mit dem KIVO-E nimmt die EU jedoch eine Vorreiterrolle ein. Dennoch bleibt abzuwarten, ob überhaupt sowie wann und mit welcher konkreten inhaltlichen Ausgestaltung der KIVO-E nach den Trilogverhandlungen verabschiedet wird. Angesichts der Bedeutung und Wirkmächtigkeit von KI sind langwierige Verhandlungen oder gar ein Scheitern zu verhindern.
Der deutsche Gesetzgeber kann sich an den unionsweit harmonisierten Grundsätzen und Prinzipien für eine vertrauenswürdige KI orientieren, sofern im nationalen Recht besonderer Regulierungsbedarf für spezifische KI-Systeme besteht. Dabei sind auch die UNESCO-Empfehlungen zur Ethik der KI sowie die Stellungnahme des Deutschen Ethikrats zu den Herausforderungen durch KI gebührend in den Blick zu nehmen. Die Regulierung von KI wird daher Gesetzgebung und Rechtswissenschaft noch langfristig begleiten.
Literatur
I. Spiecker gen. Döhmann: § 20 Digitalisierung, Informationsgesellschaft, Massendaten, Künstliche Intelligenz, in: U. Kischel/H. Kube (Hg.): Handbuch des Staatsrechts, Bd. 1, 2023, (im Erscheinen) • Deutscher Ethikrat: Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz, (2023), https://www.ethikrat.org/fileadmin/Publikationen/Stellungnahmen/deutsch/stellungnahme-mensch-und-maschine.pdf (abger.: 02.05.2023) • M. Winau: Gewährleistung effektiven Grundrechtsschutzes auf Grundlage des Kommissionsentwurfs für eine KI-Verordnung?, in: ZdiW 3/1 (2023), 14-19 • I. Spiecker gen. Döhmann: AI and Data Protection, in: L. A. DiMatteo/C. Poncibò/M. Cannarsa (Hg.): The Cambridge Handbook of Artificial Intelligence – Global Perspectives on Law and Ethics, 2022, 132-145 • G. Hornung: KI-Regulierung im Mehrebenensystem – Der KI-Verordnungsentwurf und regulatorische Perspektiven der Mitgliedstaaten, in: DuD 46/9 (2022), 561-566 • K. L. Neuman/D. Cory-Wright/C. Hespeler/M. White: European Commission’s Proposed Regulation on Artificial Intelligence: Conducting a Conformity Assessment for High-Risk AI – Say What?, in: RAIL 5/2 (2022), 135-144 • J. Englisch/M. Schuh: Algorithmengestützte Verwaltungsverfahren – Einsatzfelder, Risiken und Notwendigkeit ergänzender Kontrolle, in: Die Verwaltung 55/2 (2022), 155-190 • Rat der Europäischen Union: Allgemeine Ausrichtung zum Gesetz über künstliche Intelligenz vom 25.11.2022, Interinstitutionelles Dossier, 2021/0106(COD), https://data.consilium.europa.eu/doc/document/ST-14954-2022-INIT/de/pdf (abger.: 02.05.2023) • S. Bretthauer: Herausforderungen der Digitalisierung im Gesundheitswesen – Corona-Warn-App, Forschungsdaten und Künstliche Intelligenz, in: Die Verwaltung 54/3 (2021), 411-441 • A. Ebert/I. Spiecker gen. Döhmann: Der Kommissionsentwurf für eine KI-Verordnung der EU – Die EU als Trendsetter weltweiter KI-Regulierung, in: NVwZ 40/16 (2021), 1188-1193 • C. Geminn: Die Regulierung Künstlicher Intelligenz – Anmerkungen zum Entwurf eines Artificial Intelligence Act, in: ZD 11/7 (2021), 354-359 • D. Kugelmann: Künstliche Intelligenz aus Sicht der Datenschutzaufsicht, in: DuD 45/8 (2021), 503-508 • U. Kelber: Künstliche Intelligenz im Bereich der Strafverfolgung und Gefahrenabwehr, in: DuD 45/12 (2021), 780-782 • M. Martini: § 28 Digitalisierung der Verwaltung, in: W. Kahl/M. Ludwigs (Hg.): Handbuch des Verwaltungsrechts, Bd. 1, 2021 • UNESCO : Recommendation on the Ethics of Artificial Intelligence (2021), https://unesdoc.unesco.org/ark:/48223/pf0000381137 (abger.: 02.05.2023) • W. Hoffmann-Riem: Der Umgang mit Wissen bei der digitalisierten Rechtsanwendung, in: AöR 145/1 (2020), 1-39 • H.P. Bull: Über die rechtliche Einbindung der Technik – Juristische Antworten auf Fragen der Technikentwicklung, in: Der Staat 58/1 (2019), 5-100 • Gutachten der Datenethikkommission der Bundesregierung (2019), https://www.bmi.bund.de/SharedDocs/downloads/DE/publikationen/themen/it-digitalpolitik/gutachten-datenethikkommission.pdf;jsessionid=5FC7819B109306FBBD4486C1E5599BFA.1_cid322?__blob=publicationFile&v=7 (abger.: 04.05.2023) • T. Wischmeyer: Regulierung intelligenter Systeme, in: AöR 143/1 (2018), 1-66.
Gesetze
Europäische Kommission: Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung) vom 28.9.2022, COM(2022) 496 final, 2022/0303(COD), https://eur-lex.europa.eu/legal-content/DE/TXT/HTML/?uri=CELEX:52022PC0496 (abger.: 02.05.2023) • Europäische Kommission: Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für Künstliche Intelligenz (Gesetz über Künstliche Intelligenz) vom 21.4.2021, COM(2021) 206 final, 2021/0106(COD), https://eur-lex.europa.eu/legal-content/DE/TXT/HTML/?uri=CELEX:52021PC0206 (abger.: 02.05.2023).
Empfohlene Zitierweise
Zitation kopierenS. Bretthauer: Künstliche Intelligenz, II. Rechtlich, Version 20.10.2023, 09:30 Uhr, in: Staatslexikon8 online, URL: https://www.staatslexikon-online.de/Lexikon/K%C3%BCnstliche_Intelligenz (abgerufen: 24.11.2024)