Lade Inhalt...

Künstliche Intelligenz und moralische Urteilsfähigkeit. Welche Fähigkeiten müssen Maschinen erfüllen, um moralisch handeln zu können?

©2021 Hausarbeit 32 Seiten

Zusammenfassung

Verfügen Maschinen generell über eine moralische Urteilsfähigkeit und inwiefern können sie diese sinnvoll nutzen? Eine Dokumentenanalyse des im Jahr 2018 in der Zeitschrift „Aus Politik und Zeitgeschichte“ veröffentlichen Textbeitrags „Maschinenethik und „Artificial Morality“: Können und sollen Maschinen moralisch handeln?“ soll darüber Aufschluss geben. Die Durchführung einer strukturierten Inhaltsanalyse erfolgt anhand zuvor abgeleiteten Forschungs- und Teilforschungsfragen und eines Kategorienschemas, welches im weiteren Verlauf auf Basis der theoretischen Grundlagen und des Forschungsgegenstandes entwickelt wird. Die Zielsetzung besteht darin, mittels der strukturierten Analyse eine detaillierte Auswertung des zu untersuchenden Materials zu erhalten und anhand dieser Ergebnisse die Fragestellung beantworten zu können.

Leseprobe

Inhalt

Abkürzungsverzeichnis

Abbildungsverzeichnis

Tabellenverzeichnis

Anlagen

1. Einleitung
1.1 Problemstellung
1.2 Zielsetzung
1.3 Aufbau der Arbeit

2. Theoretische Grundlagen
2.1 Künstliche Intelligenz (KI)
2.1.1 Historischer Kontext
2.1.2 Definition von Künstlicher Intelligenz
2.1.3 Artificial Morality (AM)
2.2 Moral
2.2.1 Moralische Urteilsfähigkeit
2.3 Kohlbergs Stufenmodell der moralischen Entwicklung
2.4 Zusammenfassung der theoretischen Grundlagen und Formulierung der Forschungsfragen

3. Methodik
3.1 Ablauf einer qualitativen Inhaltsanalyse
3.2 Beschreibung des analysierten Textbeitrags
3.3 Ableitung des Kategorienschemas

4. Ergebnisse
4.1 Hauptkategorie 1 - Anwendungsfelder moralischer Maschinen
4.2 Hauptkategorie 2 - Benötigte Fähigkeiten
4.3 Hauptkategorie 3 - Chancen
4.4 Hauptkategorie 4 - Risiken

5. Diskussion und kritische Reflexion
5.1 Interpretation der Ergebnisse und Beantwortung der Forschungsfrage
5.2 Kritische Reflexion des Vorgehens - Einhaltung der Gütekriterien qualitativer

Forschung

6. Fazit und Ausblick

Anlagen

Anhang 1: Detailliertes Kategorienschema

Literatur- und Quellenverzeichnis

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

Abbildungsverzeichnis

Abbildung 1: Stufenmodell nach Kohlberg

Abbildung 2: Ablauf einer strukturierten Inhaltsanalyse

Abbildung 3: Gütekriterien quantitativer und qualitativer Forschung

Tabellenverzeichnis

Tabelle 1: Ableitung der Forschungs- und Teilforschungsfragen

Tabelle 2: Übersicht der Haupt- und Subkategorien

Anlagen

Anhang1: Detailliertes Kategorienschema

1. Einleitung

1.1 Problemstellung

Künstliche Intelligenz gewinnt in der heutigen Zeit immer mehr an Bedeutung und findet bereits in vielen alltäglichen Situationen Anwendung. Sei es der Apple-Sprachassistent Siri, verschiedene Smart Home-Applikationen, personalisierte Werbeanzeigen auf Social Media-Plattformen oder Fahrassistenzsysteme wie beispielsweise Abstandsreg­ler oder Schildererkennung. Hinter jedem dieser Anwendungsbeispiele steckt irgendeine Form von künstlicher Intelligenz. Durch das selbständige Adaptieren und Erlernen von Algorithmen sind diese Maschinen bereits teilweise in der Lage, bestimmte Aktionen ei­genständig auszuführen (Machine Learning).1 Das selbständige Treffen von Entschei­dungen durch künstliche Intelligenz wirft bei Wissenschaftlern und Kritikern die Frage auf, ob Maschinen in bestimmten Anwendungsfällen auch moralische Entscheidungen treffen können. Moralische Entscheidungen, die von Menschen getroffen werden, sind abhängig von den Umständen der Situation und von der Urteilsfähigkeit des Individuums. Um zu ermitteln, ob Maschinen in verschiedenen Situationen moralisch handeln können und überhaupt sollen, ist es notwendig, die damit verbundenen Chancen und Risiken zu untersuchen.

1.2 Zielsetzung

Die dargestellte Problematik bildet die Grundlage für die in der vorliegenden Arbeit be­handelten Fragestellung, ob Maschinen generell über eine moralische Urteilsfähigkeit verfügen und inwiefern diese sinnvoll genutzt werden kann. Eine Dokumentenanalyse des im Jahr 2018 in der Zeitschrift „Aus Politik und Zeitgeschichte“ veröffentlichen Textbeitrags „Maschinenethik und „Artificial Morality“: Können und sollen Maschinen mo­ralisch handeln?“ soll darüber Aufschluss geben. Die Durchführung einer strukturierten Inhaltsanalyse erfolgt anhand zuvor abgeleiteten Forschungs- und Teilforschungsfragen und eines Kategorienschemas, welches im weiteren Verlauf auf Basis der theoretischen Grundlagen und des Forschungsgegenstandes entwickelt wird. Die Zielsetzung besteht darin, mittels der strukturierten Analyse eine detaillierte Auswertung des zu untersuchen­den Materials zu erhalten und anhand dieser Ergebnisse die Fragestellung beantworten zu können.

1.3 Aufbau der Arbeit

Die Arbeit beginnt in Kapitel 1 mit einer Einleitung, welche die Problemstellung definiert und die Zielsetzung festlegt. Im zweiten Kapitel folgt die Erläuterung der wichtigsten the­oretischen Grundlagen. In diesem Zusammenhang wird der Begriff „Künstliche Intelli­genz“ genauer definiert. Weiterhin wird auch auf die Begrifflichkeiten „Artificial Morality“ und „Moral“ eingegangen. Noch im zweiten Kapitel wird das „Stufenmodell moralischer Entwicklung“ von Lawrence Kohlberg erläutert, welches im weiteren Verlauf der Arbeit von Bedeutung sein wird. Die theoretischen Grundlagen sind ausschlaggebend für die Ableitung der Forschungs- und Teilforschungsfragen. Anschließend wird im nächsten Kapitel 3 die Methodik vorgestellt. Nachdem der allgemeine Ablauf einer qualitativen In­haltsanalyse erläutert wurde, folgt die Beschreibung des zu untersuchenden Textbei­trags. Im Anschluss wird das Kategorienschema mit Haupt- und Subkategorien aufge­zeigt. Das vierte Kapitel stellt die Ergebnisse der qualitativen Inhaltsanalyse dar, indem die einzelnen Kategorien betrachtet werden. Diese Ergebnisse werden im fünften Kapitel nochmal aufgegriffen und hinsichtlich der Forschungsfrage diskutiert und interpretiert. Außerdem erfolgt eine kritische Reflexion der Vorgehensweise unter Einhaltung der Gü­tekriterien einer qualitativen Analyse. Das Fazit und der Ausblick schließen die Arbeit in Kapitel 6 ab.

2. Theoretische Grundlagen

2.1 Künstliche Intelligenz (KI)

2.1.1 Historischer Kontext

Obwohl der Einsatz von Künstlicher Intelligenz erst in den letzten Jahren immer mehr an Präsenz gewonnen hat, liegt der Ursprung bereits im Jahr 1950, in dem der Mathemati­ker Alan Turing den nach ihm benannten Turing-Test entwarf. Dieser besagte, dass eine Maschine dann im Besitz von künstlicher Intelligenz ist, wenn die Testperson nicht mehr unterscheiden kann, ob sie mit einem Menschen oder einer Maschine kommuniziert, ohne den Gegenüber zu sehen.2 Das „Summer Research Project on Artificial Intelli­gence“ aus demJahr 1956, welches am Darthmouth College (Hanover, New Hampshire) durchgeführt wurde, gilt jedoch als Geburtsstunde der künstlichen Intelligenz.3 John McCarthy definierte damals den heute noch gültigen Begriff „Artificial Intelligence“, wel­cher sich trotz bestehender Unstimmigkeiten durchgesetzt hat.4 Aufgrund der fehlenden Rechenkapazität der damaligen Computer verzögerte sich die Weiterentwicklung künst­licher Intelligenz und der erwartete große Durchbruch blieb aus. In den 1970er-Jahren begannen intensivere Forschungen und Experimente, bei denen menschliche Wissens­basen in eine für Computer verständliche Logik umgewandelt wurden. Den hohen Auf­wänden standen jedoch kaum Erfolge gegenüber, weshalb viele Forschungsgelder re­duziert und Expertensysteme abgeschafft wurden.5 In der heutigen Zeit gewinnt das Thema „Künstliche Intelligenz“ wieder mehr an Bedeutung und Unternehmen bis hin zu Großkonzernen sind bereit, immense Summen in die Entwicklung künstlicher Intelligenz zu investieren. Deutlich bessere KI-Verfahren und leistungsfähigere Hard- und Software ermöglichen diese Wende und investierende Unternehmen erhoffen sich durch den Ein­satz von KI-Anwendungen Wettbewerbsvorteile sowie die schnelle (und logische) Ver­arbeitung riesiger, zum Teil ungeordneter Datenmengen.6 Heutzutage lässt sich KI als ein interdisziplinäres Teilgebiet der Informatik einordnen, welches in vielen verschiede­nen Feldern Anwendung findet.

2.1.2 Definition von Künstlicher Intelligenz

Der Versuch einer allgemein gültigen Definition von Künstlicher Intelligenz scheitert zum einen an der Vielfältigkeit des Einsatzgebietes und zum anderen an der Schwierigkeit, allein den Begriff „Intelligenz“ zu definieren.7 Künstliche Intelligenz soll in der Lage sein, verschiedene Aspekte menschlicher Verhaltensweisen imitieren und dadurch „mensch­lich“ handeln zu können, ohne tatsächlich menschlich zu sein.8 Wittpahl beschreibt KI als „[.] de[n] Versuch, ein System zu entwickeln, das eigenständig komplexe Probleme bearbeiten kann.“9 Als Teilbereich der Informatik versucht KI menschliche Verhaltens­weisen insbesondere bei der Problemlösung nachzubauen, um dadurch neue und effi­zientere Lösungsmöglichkeiten zu entwickeln.10 Als eine der gängigsten Definitionen, welche auch in Zukunft stets aktuell sein wird, gilt die von Elaine Rich: „Artificial Intelli­gence (AI) is the study of how to make computers do things which, at the moment, people do better.“11 Es herrscht also Einigkeit darüber, dass KI-Systeme menschliches Handeln und Denken simulieren, um das Lösen von Problemen nachahmen zu können und dadurch leistungsfähiger zu werden. Ebenso sind sich die Wissenschaftler darüber einig, dass zwischen starker und schwacher KI unterschieden werden kann.

Eine KI gilt dann als stark, wenn sie vergleichbar mit dem menschlichen Geiste funktio­niert und entweder gleiche oder gar größere intellektuelle Fähigkeiten als eine reale Per­son aufweisen kann.12 Bis heute wurde diese Form von künstlicher Intelligenz noch nicht realisiert und auch keine Forschungsprojekte im Zusammenhang mit starker künstlicher Intelligenz bekannt.13

Im Gegensatz zur starken KI kann die schwache KI schon heute konkrete Anwendungs­probleme lösen.14 Durch die eindeutige Definition von Problemstellungen werden ge­zielte Algorithmen entwickelt, die zur Lösung des Problems beitragen.15 Dafür muss die KI in der Lage sein, ihre vorhandenen Fähigkeiten zu kombinieren und Probleme effizient lösen können. Außerdem muss sie über die Fähigkeit des Lernens verfügen, indem sie von der Umwelt und anderen intelligenten Systemen lernt, aber auch aus ihrer eigenen „Erfahrung“. Somit sollen sich Fähigkeiten verbessern, je öfter und länger sie durchge­führt werden.16

2.1.3 Artificial Morality (AM)

Durch KI soll die Leistungsfähigkeit von Menschen auf die Maschine übertragen werden. Dies hat zur Folge, dass sich ethische Fragestellungen und Anforderungen ergeben. KI ist heutzutage allgegenwärtig, beispielsweise im Alltag durch intelligente Sensoren, die autonomes Fahren ermöglichen. Dadurch entstehen nicht nur Chancen, sondern auch Risiken. Aktuell sind ethische Anforderungen rein an den Menschen gerichtet, sie wer­den lediglich an die Maschinen „weitergegeben“. Einfacher wäre es, wenn sich die Ethik direkt an die Maschinen richten würde und somit geeignete Formulierungen für „starke“ KI gebildet würden. Dies hätte eine Maschinenethik zufolge, auch „Artificial Morality (AM)“ genannt.17 Eine AM würde es Maschinen ermöglichen, moralisch zu handeln und auf moralischer Basis Entscheidungen zu treffen. Die Entwicklung moralischer „Agenten“ (auch: Artificial moral agents oder AMA) gewinnt immer mehr an Bedeutung, weil auch Maschinen immer autonomer handeln sollen. Diese moralischen Agenten bilden keinen Ersatz für moralische Verantwortung des Anwenders, sie erleichtern lediglich die ethi­sche Nutzung der Maschine, sofern eine Sensibilität für ethische Verhaltensweisen in­nerhalb der Software geschaffen ist.18 Um autonome und intelligente Technologien vor­teilhaft und in ihrer Gesamtheit nutzen zu können, ist die Entwicklung moralischer Ver­haltensweisen und Fähigkeiten bei Maschinen unumgänglich.

2.2 Moral

Der Begriff „Moral“ stammt ursprünglich aus dem Lateinischen und bedeutet übersetzt Sitte. Im Sprachgebrauch werden die Begriffe „Moral“ und „Ethik“ oft als Synonym ver­wendet. Karl Homann und Christoph Lütge distanzieren sich von diesem Vergleich und beschreiben Moral als „einen Komplex von Regeln und Normen, die das Handeln der Menschen bestimmen [...] und deren Übertretung zu Schuldvorwürfen gegen sich selbst bzw. gegen andere führt.“19 Ähnlich definieren Gerrig und Zimbardo (2013) den Moral­begriff, welcher als System fungiert, das sich aus Überzeugungen und Werten sowie den Urteilen über richtig und falsch in Bezug auf menschliches Handeln zusammensetzt.20 Jedoch ergibt sich dabei die Schwierigkeit, dass nicht immer deutlich wird, was richtig oder falsch ist. Sobald die Werte und angewandten Regeln zum Wohl der Gesamtheit beitragen und vom Handeln anderer betroffene Menschen schützen sollen, spricht man von Moral.21 Um moralisch handeln zu können, reicht die bloße Kenntnis und Akzeptanz der moralischen Regeln nicht aus, weshalb oftmals der Begriff „moralische Motivation“ fällt. Moralische Motivation bedeutet, dass ein Individuum eine Situation zunächst als moralisch wahrnehmen muss, um dann moralisch bedeutsame Kognitionen und Emoti­onen realisieren zu können und anschließend entsprechend handelt.22

Durch die Vielzahl von Definitionen wird deutlich, dass Moral einen hohen Stellenwert für das Zusammenleben und -wirken der Menschen darstellt.

2.2.1 Moralische Urteilsfähigkeit

Ein wichtiger Aspekt ist die moralische Entwicklung auf Basis des moralischen Urteils, also woran der Mensch festlegt, was in seinen Augen richtig oder falsch ist. Dies wird auch als moralische Urteilsfähigkeit bezeichnet, mit welcher die Regeln innerhalb einer Gesellschaft als moralisch akzeptabel festgelegt werden. Als einer der wichtigsten Be­gründer des moralischen Urteils gilt Lawrence Kohlberg. Dessen Ansatz basiert haupt­sächlich auf Theorien Piagets, der schon 1932 erste Untersuchungen zur Entwicklung moralischer Urteilsfähigkeit durchführte.23 Piagetstellte dabei fest, dass die Entwicklung desmoralischenUrteilsvermögensmit der kognitiven Entwicklung innerhalb der Kindheit zusammenhängt. Erist der Meinung, dass die Entwicklung im frühen Jugendalter been­det ist und ab dann eine autonome Moral vorherrscht. Dies würde bedeuten, dass man von da an andere so behandelt, wie man selbst behandelt werden möchte und Urteile Fairness sowie Handlungsmotive berücksichtigen. Kohlberg setzt auf dieser Theorie auf und erweitert die Ansicht Piagets, indem er Stufen für moralische Entwicklung bildet.

2.3 Kohlbergs Stufenmodell der moralischen Entwicklung

Der Ansatz von Lawrence Kohlberg legt den Fokus der Entwicklung moralischer Urteils­fähigkeit nicht nur auf das Kindesalter, sondern auf die gesamte Lebensspanne. Anhand verschiedener Dilemma-Situationen untersuchte er das Verhalten mehrerer Probanden in Bezug auf moralische Fragestellungen. Daraufhin entwickelte Kohlberg ein Stufenmo­dell, wobei jede Stufe eine andere Basis für moralische Urteile abbildet.24 Je komplexer die Entwicklungsstufe, desto höher steht sie. Insgesamt definiert Kohlberg drei Niveaus mit jeweils zwei Stufen.25

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Stufenmodell nach Kohlberg (Eigene Darstellung, in Anlehnung an Gerrig, Graf et al. 2013, S. 407)

Ausschlaggebend für die Einordnung der moralischen Stufe ist die Art und Weise, wie Urteile gefällt und begründet werden und nicht die Entscheidung selbst.26 Die Gestaltung der einzelnen Stufen kann typischerweise wie folgt interpretiert werden:

Auf Stufe 1 herrscht eine egozentrische Perspektive. Regeln werden befolgt, um nega­tive Folgen wie Strafen zu vermeiden. Weiterhin bekommt Gehorsam einen Wert zuge­schrieben. Moralische Urteile entstehen egozentrisch und richten sich nach dem Ergeb­nis für den Handelnden.

Stufe 2 wirkt nach einer Kosten-Nutzen-Orientierung. Dafür werden Regeln auf Grund persönlicher Interessen befolgt und es wird erkannt, dass Interessen auch in Konflikten zueinander stehen können. Bei moralischen Urteilen herrscht eine strategische Tausch­gerechtigkeit („Auge um Auge“, Reziprozität), wobei die individualistische Perspektive bevorzugt wird.

Mit Stufe 3 wird das Niveau der konventionellen Moral erreicht. Moralische Urteile richten sich auf soziale Anerkennung und Vermeidung von Ablehnung aus. Das Individuum kann sich in die Rolle vom Gegenüber hineinversetzen und moralische Erwartungen erken­nen. Diese Erwartungen möchte der Proband erfüllen und trifft dementsprechend seine moralischen Urteile.

Stufe 4 orientiert sich an der Einhaltung von Gesetzen und der Aufrechterhaltung einer bereits vorhandenen Ordnung. Der Urteilende möchte mit seinem Verhalten dazu bei­tragen, dass Institutionen und das System funktionieren. Der Fokus liegt auf der Gesell­schaft und der Urteilende nimmt die Perspektive des sozialen Systems ein.

Die nachfolgende Stufe 5 wird dem Niveau der postkonventionellen Moral zugeordnet und orientiert sich an Sozialverträgen und Gerechtigkeit. Nach Kohlbergs Ansicht ist es jedoch so, dass viele Erwachsene die Stufen 5 und 6 gar nicht erreichen werden. Auf Stufe 5 nimmt der Urteilende Normen und Werte an, die zum Wohlergehen der Gesell­schaft dienen.

Die letzte Stufe 6 richtet ihre Urteile anhand universell gültiger ethischer Prinzipien. Dafür müssen gesellschaftliche Werte und Normen auf diese Prinzipien überprüft werden. Die sechste Stufe nimmt eine der Gesellschaft übergeordnete Perspektive ein und geht von Vermeidung von Selbstverurteilung aus.

Kohlberg ist der Auffassung, dass eine höhere Stufe stets die niedrigere Stufe inkludiert und die Erfahrungen der niedrigeren Stufen beibehalten werden. Urteile werden jedoch immer nach der höchsten erreichten Stufe gefällt. Durch die Auseinandersetzung mit verschiedenen Dilemmasituationen sollen Personen ihre moralische Entwicklung ver­bessern, indem sie dadurch die nächste Stufe erreichen.27 Als besonders fördernd sticht die Diskussion mit einer moralisch „höherstehenden“ Person heraus, weil dadurch auto­matisch eine Auseinandersetzung mit einer anderen Perspektive erfolgt. Zentral für Kohlbergs Stufenmodell ist das Prinzip der Gerechtigkeit. So sagt Kohlberg, dass mora­lische Entscheidungen rational und gerecht getroffen werden sollen und gleichzeitig das Wohlbefinden der Betroffenen berücksichtigt werden muss.28

2.4 Zusammenfassung der theoretischen Grundlagen und Formulierung der Forschungsfragen

Der Begriff „Künstliche Intelligenz“ ist bereits seit Jahrzehnten in der Forschung aufzu­finden. Seit 1956 wird stetig an der Weiterentwicklung künstlicher Intelligenz gearbeitet und ist heutzutage in vielen Unternehmen und Konzernen allgegenwärtig. Sei es in Form von Chatbots auf Webseiten, Spracherkennung oder Roboter-basierte Prozessautoma­tisierung (RPA), künstliche Intelligenz findet ihren Einzug in das alltägliche Leben. Die Form der heutigen künstlichen Intelligenz wird auch als schwache KI bezeichnet, da sie in der Lage ist, konkrete Anwendungsprobleme zu lösen und durch regelmäßige Wie­derholungen und Erfahrungen ihre Algorithmen optimieren kann. Dadurch ist sie lernfä­hig und kann sich gegebenenfalls an neue, andere Situationen anpassen. Die andere Form der starken KI, bei der sie mit menschlichen Denkweisen verglichen werden kann und die menschlichen, geistigen Fähigkeiten sogar übertreffen kann, existiert zum heu­tigen Zeitpunkt (noch) nicht.

Maschinen werden vor der Herausforderung stehen, moralische Entscheidungen treffen zu können. Das hat die Entwicklung einer Maschinenethik („Artificial Morality“) zur Folge. Durch diese Maschinenethik könnten Systeme eine Sensibilität für ethische Fragestel­lungen entwickeln und anhand dieser Grundlage Entscheidungen treffen. Dadurch ergibt sich jedoch die Fragestellung, ob Maschinen überhaupt moralisch handeln können und sollen.

Moral zeichnet sich dadurch aus, dass die Einhaltung gewisser Regeln und das Handeln nach bestimmten Werten und Normen für das Wohlbefinden einer Gemeinschaft sorgen soll. Moralisches Handeln ist essenziell für das Zusammenleben von Menschen, wobei sich die moralische Urteilsfähigkeit individuell unterscheidet. Die moralische Urteilsfähig­keit legt dabei fest, ob eine Person das eigene Handeln für richtig oder falsch empfindet. Sie definiert moralisch akzeptable Regeln innerhalb einer Gesellschaft und entwickelt sich bis ins Erwachsenenalter weiter. Lawrence Kohlberg unterteilt die verschiedenen Entwicklungen in Stufen, woraus das von ihm entwickelte „Stufenmodell der moralischen Entwicklung“ entsteht. Dieses besteht insgesamt aus drei Niveaus mit jeweils zwei Stu­fen. Kohlberg geht davon aus, dass bis zum Erwachsenenalter zumindest Stufe 4 er­reicht wird, auf welcher das Handeln im Sinne der Gesellschaft und unter Einhaltung von Regeln und Gesetzen basiert.

Ausgehend von den dargestellten theoretischen Grundlagen und dem zugrunde liegen­den Forschungsgegenstand, ein Textbeitrag von Catrin Misselhorn (2018) in der Zeit­schrift „Aus Politik und Zeitgeschichte (APuZ)“, lassen sich folgende Forschungsfrage und zugehörige Teilforschungsfragen ableiten:

Forschungsfrage:

Verfügen Maschinen über eine moralische Urteilsfähigkeit und können sie diese sinnvoll nutzen?

Teilforschungsfrage 1:

Welche grundsätzlichen Veränderungen bringen moralische Maschinen in verschie­denen Anwendungsfeldern mit sich?

Teilforschungsfrage 2:

Welche Fähigkeiten müssen Maschinen erfüllen, um moralisch handeln zu können?

Teilforschungsfrage 3:

Welche Chancen und Risiken ergeben sich durch den Einsatz moralischer Maschi­nen?

Tabelle 1: Ableitung der Forschungs- und Teilforschungsfragen (Eigene Darstellung)

3. Methodik

3.1 Ablauf einer qualitativen Inhaltsanalyse

In diesem Kapitel soll zunächst die qualitative Inhaltsanalyse vorgestellt werden. Quali­tative Verfahren der Datenanalyse legen den Fokus auf die Sinnhaftigkeit und das Ver­stehen des zugrunde liegenden Forschungsgegenstandes.29 Philipp Mayring, einer der Mitbegründer der qualitativen Inhaltsanalyse, definiert folgende sechs Punkte, die zu be­achten sind:30

- Analyse der Kommunikation
- Analyse fixierter Kommunikation, d.h. sie liegt in irgendeiner Form protokolliert vor
- Systematisches Vorgehen
- Regelgeleitetes Vorgehen, um Analyse nachvollziehbar und verständlich zu ge­stalten
- Theoriegeleitetes Vorgehen, also eine Analyse auf Basis theoretischer Frage­stellungen
- Schlussfolgernde Methode, um Rückschlüsse aus explizit festgelegten Aspekten ziehen zu können

Mayring bezeichnet die Inhaltsanalyse auf Grund dieser sechs Punkte auch als „katego­riengeleitete Textanalyse“.31 Bei der qualitativen Inhaltsanalyse steht insbesondere die Kategorienbildung im Mittelpunkt, bei der inhaltlich für die Fragestellung relevante Text­teile einer Kategorie oder Subkategorie zugeordnet werden. Dafür wird das vorliegende Textmaterial systematisch untersucht und mit Hilfe von Codierregeln eindeutige Zuord­nungen zu Kategorien vorgenommen.32 Als zentrale Analysetechnik wird zumeist die strukturierende Inhaltsanalyse angewandt, bei der zunächst eine deduktive Kategorien­bildung anhand der theoretischen Grundlagen erfolgt. Hierbei ist zu beachten, dass die Kategorien gewisse formale Anforderungen erfüllen müssen. Demnach sollten sie unab­hängig voneinander sein, sich ausschließen und weiterhin sämtliche relevanten Ausprä­gungen ausschließen.33 Nachdem die Bildung der Kategorien abgeschlossen ist, wird der erste Codierprozess durchgeführt, bei dem einzelne Texteinheiten den jeweiligen Kategorien zugeordnet werden. Als Hilfsmittel dafür dient ein Codierleitfaden, welcher die Definition der Kategorie, Ankerbeispiele und Codierregeln enthält.34 Nachfolgende Abbildung verdeutlicht die einzelnen Schritte der strukturierenden Inhaltsanalyse nach Kuckartz:

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2: Ablauf einer strukturierten Inhaltsanalyse (Quelle: Eigene Darstellung, in Anlehnung an Kuckartz (2016), S. 100)

[...]


1 Vgl. Luber (2016).

2 Vgl. Mainzer (2019). S. 10

3 Vgl. Buxmann (2019). S. 3

4 Vgl. Manhart (2021).

5 Vgl. Wittpahl (2019). S. 24

6 Vgl. Manhart (2021).

7 Vgl. Buxmann (2019). S. 6

8 Vgl. Gentsch (2019). S. 18

9 Wittpahl (2019) S. 21

10 Vgl. Lämmel/Cleve (2012) S. 13

11 Rich et al. (2019). S. 3

12 Vgl. Karliczek (2020) S.8

13 Vgl. Buxmann (2019) S. 6

14 Vgl. Karliczek (2020) S. 8

15 Vgl. Buxmann (2019) S. 7

16 Vgl. Goertzel/Pennachin (2007) S. 7

17 Vgl. Wittpahl (2019) S. 242 - 244

18 Vgl. Allen et al. (2005) S. 149

19 Homann/Lütge (2005) S. 12

20 Vgl. Gerrig et al. (2013). S. 406

21 Vgl. Horster (2007) S. 7

22 Vgl. Horster (2007) S. 83

23 Vgl. Gerrig et al. (2013). S. 406

24 Vgl. Gerrig et al. (2013). S. 406

25 Vgl. Horster (2007) S. 21

26 Vgl. Fritz et al. (2019) S. 79

27 Vgl. Fritz et al. (2019) S. 79

28 Vgl. Fritz et al. (2019) S. 80

29 Vgl. Helfferich (2011) S. 21

30 Vgl. Mayring (2015) S. 13

31 Vgl. Mayring (2015). S. 13

32 Vgl. Baur/Blasius (2019) S. 453

33 Vgl. Schnell et al. (2013). S. 401

34 Vgl. Baur/Blasius (2019) S. 638

Details

Seiten
32
Jahr
2021
ISBN (PDF)
9783346561749
ISBN (Paperback)
9783346561756
Sprache
Deutsch
Institution / Hochschule
SRH Hochschule Riedlingen
Erscheinungsdatum
2021 (Dezember)
Note
1,3
Schlagworte
Künstliche Intelligenz Inhaltsanalyse Moral Urteilsfähigkeit Qualitative Datenanalyse Artificial Morality Kohlberg
Zurück

Titel: Künstliche Intelligenz und moralische Urteilsfähigkeit. Welche Fähigkeiten müssen Maschinen erfüllen, um moralisch handeln zu können?