Künstliche Intelligenz und moralische Urteilsfähigkeit. Welche Fähigkeiten müssen Maschinen erfüllen, um moralisch handeln zu können?
Zusammenfassung
Leseprobe
Inhalt
Abkürzungsverzeichnis
Abbildungsverzeichnis
Tabellenverzeichnis
Anlagen
1. Einleitung
1.1 Problemstellung
1.2 Zielsetzung
1.3 Aufbau der Arbeit
2. Theoretische Grundlagen
2.1 Künstliche Intelligenz (KI)
2.1.1 Historischer Kontext
2.1.2 Definition von Künstlicher Intelligenz
2.1.3 Artificial Morality (AM)
2.2 Moral
2.2.1 Moralische Urteilsfähigkeit
2.3 Kohlbergs Stufenmodell der moralischen Entwicklung
2.4 Zusammenfassung der theoretischen Grundlagen und Formulierung der Forschungsfragen
3. Methodik
3.1 Ablauf einer qualitativen Inhaltsanalyse
3.2 Beschreibung des analysierten Textbeitrags
3.3 Ableitung des Kategorienschemas
4. Ergebnisse
4.1 Hauptkategorie 1 - Anwendungsfelder moralischer Maschinen
4.2 Hauptkategorie 2 - Benötigte Fähigkeiten
4.3 Hauptkategorie 3 - Chancen
4.4 Hauptkategorie 4 - Risiken
5. Diskussion und kritische Reflexion
5.1 Interpretation der Ergebnisse und Beantwortung der Forschungsfrage
5.2 Kritische Reflexion des Vorgehens - Einhaltung der Gütekriterien qualitativer
Forschung
6. Fazit und Ausblick
Anlagen
Anhang 1: Detailliertes Kategorienschema
Literatur- und Quellenverzeichnis
Abkürzungsverzeichnis
Abbildung in dieser Leseprobe nicht enthalten
Abbildungsverzeichnis
Abbildung 1: Stufenmodell nach Kohlberg
Abbildung 2: Ablauf einer strukturierten Inhaltsanalyse
Abbildung 3: Gütekriterien quantitativer und qualitativer Forschung
Tabellenverzeichnis
Tabelle 1: Ableitung der Forschungs- und Teilforschungsfragen
Tabelle 2: Übersicht der Haupt- und Subkategorien
Anlagen
Anhang1: Detailliertes Kategorienschema
1. Einleitung
1.1 Problemstellung
Künstliche Intelligenz gewinnt in der heutigen Zeit immer mehr an Bedeutung und findet bereits in vielen alltäglichen Situationen Anwendung. Sei es der Apple-Sprachassistent Siri, verschiedene Smart Home-Applikationen, personalisierte Werbeanzeigen auf Social Media-Plattformen oder Fahrassistenzsysteme wie beispielsweise Abstandsregler oder Schildererkennung. Hinter jedem dieser Anwendungsbeispiele steckt irgendeine Form von künstlicher Intelligenz. Durch das selbständige Adaptieren und Erlernen von Algorithmen sind diese Maschinen bereits teilweise in der Lage, bestimmte Aktionen eigenständig auszuführen (Machine Learning).1 Das selbständige Treffen von Entscheidungen durch künstliche Intelligenz wirft bei Wissenschaftlern und Kritikern die Frage auf, ob Maschinen in bestimmten Anwendungsfällen auch moralische Entscheidungen treffen können. Moralische Entscheidungen, die von Menschen getroffen werden, sind abhängig von den Umständen der Situation und von der Urteilsfähigkeit des Individuums. Um zu ermitteln, ob Maschinen in verschiedenen Situationen moralisch handeln können und überhaupt sollen, ist es notwendig, die damit verbundenen Chancen und Risiken zu untersuchen.
1.2 Zielsetzung
Die dargestellte Problematik bildet die Grundlage für die in der vorliegenden Arbeit behandelten Fragestellung, ob Maschinen generell über eine moralische Urteilsfähigkeit verfügen und inwiefern diese sinnvoll genutzt werden kann. Eine Dokumentenanalyse des im Jahr 2018 in der Zeitschrift „Aus Politik und Zeitgeschichte“ veröffentlichen Textbeitrags „Maschinenethik und „Artificial Morality“: Können und sollen Maschinen moralisch handeln?“ soll darüber Aufschluss geben. Die Durchführung einer strukturierten Inhaltsanalyse erfolgt anhand zuvor abgeleiteten Forschungs- und Teilforschungsfragen und eines Kategorienschemas, welches im weiteren Verlauf auf Basis der theoretischen Grundlagen und des Forschungsgegenstandes entwickelt wird. Die Zielsetzung besteht darin, mittels der strukturierten Analyse eine detaillierte Auswertung des zu untersuchenden Materials zu erhalten und anhand dieser Ergebnisse die Fragestellung beantworten zu können.
1.3 Aufbau der Arbeit
Die Arbeit beginnt in Kapitel 1 mit einer Einleitung, welche die Problemstellung definiert und die Zielsetzung festlegt. Im zweiten Kapitel folgt die Erläuterung der wichtigsten theoretischen Grundlagen. In diesem Zusammenhang wird der Begriff „Künstliche Intelligenz“ genauer definiert. Weiterhin wird auch auf die Begrifflichkeiten „Artificial Morality“ und „Moral“ eingegangen. Noch im zweiten Kapitel wird das „Stufenmodell moralischer Entwicklung“ von Lawrence Kohlberg erläutert, welches im weiteren Verlauf der Arbeit von Bedeutung sein wird. Die theoretischen Grundlagen sind ausschlaggebend für die Ableitung der Forschungs- und Teilforschungsfragen. Anschließend wird im nächsten Kapitel 3 die Methodik vorgestellt. Nachdem der allgemeine Ablauf einer qualitativen Inhaltsanalyse erläutert wurde, folgt die Beschreibung des zu untersuchenden Textbeitrags. Im Anschluss wird das Kategorienschema mit Haupt- und Subkategorien aufgezeigt. Das vierte Kapitel stellt die Ergebnisse der qualitativen Inhaltsanalyse dar, indem die einzelnen Kategorien betrachtet werden. Diese Ergebnisse werden im fünften Kapitel nochmal aufgegriffen und hinsichtlich der Forschungsfrage diskutiert und interpretiert. Außerdem erfolgt eine kritische Reflexion der Vorgehensweise unter Einhaltung der Gütekriterien einer qualitativen Analyse. Das Fazit und der Ausblick schließen die Arbeit in Kapitel 6 ab.
2. Theoretische Grundlagen
2.1 Künstliche Intelligenz (KI)
2.1.1 Historischer Kontext
Obwohl der Einsatz von Künstlicher Intelligenz erst in den letzten Jahren immer mehr an Präsenz gewonnen hat, liegt der Ursprung bereits im Jahr 1950, in dem der Mathematiker Alan Turing den nach ihm benannten Turing-Test entwarf. Dieser besagte, dass eine Maschine dann im Besitz von künstlicher Intelligenz ist, wenn die Testperson nicht mehr unterscheiden kann, ob sie mit einem Menschen oder einer Maschine kommuniziert, ohne den Gegenüber zu sehen.2 Das „Summer Research Project on Artificial Intelligence“ aus demJahr 1956, welches am Darthmouth College (Hanover, New Hampshire) durchgeführt wurde, gilt jedoch als Geburtsstunde der künstlichen Intelligenz.3 John McCarthy definierte damals den heute noch gültigen Begriff „Artificial Intelligence“, welcher sich trotz bestehender Unstimmigkeiten durchgesetzt hat.4 Aufgrund der fehlenden Rechenkapazität der damaligen Computer verzögerte sich die Weiterentwicklung künstlicher Intelligenz und der erwartete große Durchbruch blieb aus. In den 1970er-Jahren begannen intensivere Forschungen und Experimente, bei denen menschliche Wissensbasen in eine für Computer verständliche Logik umgewandelt wurden. Den hohen Aufwänden standen jedoch kaum Erfolge gegenüber, weshalb viele Forschungsgelder reduziert und Expertensysteme abgeschafft wurden.5 In der heutigen Zeit gewinnt das Thema „Künstliche Intelligenz“ wieder mehr an Bedeutung und Unternehmen bis hin zu Großkonzernen sind bereit, immense Summen in die Entwicklung künstlicher Intelligenz zu investieren. Deutlich bessere KI-Verfahren und leistungsfähigere Hard- und Software ermöglichen diese Wende und investierende Unternehmen erhoffen sich durch den Einsatz von KI-Anwendungen Wettbewerbsvorteile sowie die schnelle (und logische) Verarbeitung riesiger, zum Teil ungeordneter Datenmengen.6 Heutzutage lässt sich KI als ein interdisziplinäres Teilgebiet der Informatik einordnen, welches in vielen verschiedenen Feldern Anwendung findet.
2.1.2 Definition von Künstlicher Intelligenz
Der Versuch einer allgemein gültigen Definition von Künstlicher Intelligenz scheitert zum einen an der Vielfältigkeit des Einsatzgebietes und zum anderen an der Schwierigkeit, allein den Begriff „Intelligenz“ zu definieren.7 Künstliche Intelligenz soll in der Lage sein, verschiedene Aspekte menschlicher Verhaltensweisen imitieren und dadurch „menschlich“ handeln zu können, ohne tatsächlich menschlich zu sein.8 Wittpahl beschreibt KI als „[.] de[n] Versuch, ein System zu entwickeln, das eigenständig komplexe Probleme bearbeiten kann.“9 Als Teilbereich der Informatik versucht KI menschliche Verhaltensweisen insbesondere bei der Problemlösung nachzubauen, um dadurch neue und effizientere Lösungsmöglichkeiten zu entwickeln.10 Als eine der gängigsten Definitionen, welche auch in Zukunft stets aktuell sein wird, gilt die von Elaine Rich: „Artificial Intelligence (AI) is the study of how to make computers do things which, at the moment, people do better.“11 Es herrscht also Einigkeit darüber, dass KI-Systeme menschliches Handeln und Denken simulieren, um das Lösen von Problemen nachahmen zu können und dadurch leistungsfähiger zu werden. Ebenso sind sich die Wissenschaftler darüber einig, dass zwischen starker und schwacher KI unterschieden werden kann.
Eine KI gilt dann als stark, wenn sie vergleichbar mit dem menschlichen Geiste funktioniert und entweder gleiche oder gar größere intellektuelle Fähigkeiten als eine reale Person aufweisen kann.12 Bis heute wurde diese Form von künstlicher Intelligenz noch nicht realisiert und auch keine Forschungsprojekte im Zusammenhang mit starker künstlicher Intelligenz bekannt.13
Im Gegensatz zur starken KI kann die schwache KI schon heute konkrete Anwendungsprobleme lösen.14 Durch die eindeutige Definition von Problemstellungen werden gezielte Algorithmen entwickelt, die zur Lösung des Problems beitragen.15 Dafür muss die KI in der Lage sein, ihre vorhandenen Fähigkeiten zu kombinieren und Probleme effizient lösen können. Außerdem muss sie über die Fähigkeit des Lernens verfügen, indem sie von der Umwelt und anderen intelligenten Systemen lernt, aber auch aus ihrer eigenen „Erfahrung“. Somit sollen sich Fähigkeiten verbessern, je öfter und länger sie durchgeführt werden.16
2.1.3 Artificial Morality (AM)
Durch KI soll die Leistungsfähigkeit von Menschen auf die Maschine übertragen werden. Dies hat zur Folge, dass sich ethische Fragestellungen und Anforderungen ergeben. KI ist heutzutage allgegenwärtig, beispielsweise im Alltag durch intelligente Sensoren, die autonomes Fahren ermöglichen. Dadurch entstehen nicht nur Chancen, sondern auch Risiken. Aktuell sind ethische Anforderungen rein an den Menschen gerichtet, sie werden lediglich an die Maschinen „weitergegeben“. Einfacher wäre es, wenn sich die Ethik direkt an die Maschinen richten würde und somit geeignete Formulierungen für „starke“ KI gebildet würden. Dies hätte eine Maschinenethik zufolge, auch „Artificial Morality (AM)“ genannt.17 Eine AM würde es Maschinen ermöglichen, moralisch zu handeln und auf moralischer Basis Entscheidungen zu treffen. Die Entwicklung moralischer „Agenten“ (auch: Artificial moral agents oder AMA) gewinnt immer mehr an Bedeutung, weil auch Maschinen immer autonomer handeln sollen. Diese moralischen Agenten bilden keinen Ersatz für moralische Verantwortung des Anwenders, sie erleichtern lediglich die ethische Nutzung der Maschine, sofern eine Sensibilität für ethische Verhaltensweisen innerhalb der Software geschaffen ist.18 Um autonome und intelligente Technologien vorteilhaft und in ihrer Gesamtheit nutzen zu können, ist die Entwicklung moralischer Verhaltensweisen und Fähigkeiten bei Maschinen unumgänglich.
2.2 Moral
Der Begriff „Moral“ stammt ursprünglich aus dem Lateinischen und bedeutet übersetzt Sitte. Im Sprachgebrauch werden die Begriffe „Moral“ und „Ethik“ oft als Synonym verwendet. Karl Homann und Christoph Lütge distanzieren sich von diesem Vergleich und beschreiben Moral als „einen Komplex von Regeln und Normen, die das Handeln der Menschen bestimmen [...] und deren Übertretung zu Schuldvorwürfen gegen sich selbst bzw. gegen andere führt.“19 Ähnlich definieren Gerrig und Zimbardo (2013) den Moralbegriff, welcher als System fungiert, das sich aus Überzeugungen und Werten sowie den Urteilen über richtig und falsch in Bezug auf menschliches Handeln zusammensetzt.20 Jedoch ergibt sich dabei die Schwierigkeit, dass nicht immer deutlich wird, was richtig oder falsch ist. Sobald die Werte und angewandten Regeln zum Wohl der Gesamtheit beitragen und vom Handeln anderer betroffene Menschen schützen sollen, spricht man von Moral.21 Um moralisch handeln zu können, reicht die bloße Kenntnis und Akzeptanz der moralischen Regeln nicht aus, weshalb oftmals der Begriff „moralische Motivation“ fällt. Moralische Motivation bedeutet, dass ein Individuum eine Situation zunächst als moralisch wahrnehmen muss, um dann moralisch bedeutsame Kognitionen und Emotionen realisieren zu können und anschließend entsprechend handelt.22
Durch die Vielzahl von Definitionen wird deutlich, dass Moral einen hohen Stellenwert für das Zusammenleben und -wirken der Menschen darstellt.
2.2.1 Moralische Urteilsfähigkeit
Ein wichtiger Aspekt ist die moralische Entwicklung auf Basis des moralischen Urteils, also woran der Mensch festlegt, was in seinen Augen richtig oder falsch ist. Dies wird auch als moralische Urteilsfähigkeit bezeichnet, mit welcher die Regeln innerhalb einer Gesellschaft als moralisch akzeptabel festgelegt werden. Als einer der wichtigsten Begründer des moralischen Urteils gilt Lawrence Kohlberg. Dessen Ansatz basiert hauptsächlich auf Theorien Piagets, der schon 1932 erste Untersuchungen zur Entwicklung moralischer Urteilsfähigkeit durchführte.23 Piagetstellte dabei fest, dass die Entwicklung desmoralischenUrteilsvermögensmit der kognitiven Entwicklung innerhalb der Kindheit zusammenhängt. Erist der Meinung, dass die Entwicklung im frühen Jugendalter beendet ist und ab dann eine autonome Moral vorherrscht. Dies würde bedeuten, dass man von da an andere so behandelt, wie man selbst behandelt werden möchte und Urteile Fairness sowie Handlungsmotive berücksichtigen. Kohlberg setzt auf dieser Theorie auf und erweitert die Ansicht Piagets, indem er Stufen für moralische Entwicklung bildet.
2.3 Kohlbergs Stufenmodell der moralischen Entwicklung
Der Ansatz von Lawrence Kohlberg legt den Fokus der Entwicklung moralischer Urteilsfähigkeit nicht nur auf das Kindesalter, sondern auf die gesamte Lebensspanne. Anhand verschiedener Dilemma-Situationen untersuchte er das Verhalten mehrerer Probanden in Bezug auf moralische Fragestellungen. Daraufhin entwickelte Kohlberg ein Stufenmodell, wobei jede Stufe eine andere Basis für moralische Urteile abbildet.24 Je komplexer die Entwicklungsstufe, desto höher steht sie. Insgesamt definiert Kohlberg drei Niveaus mit jeweils zwei Stufen.25
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 1: Stufenmodell nach Kohlberg (Eigene Darstellung, in Anlehnung an Gerrig, Graf et al. 2013, S. 407)
Ausschlaggebend für die Einordnung der moralischen Stufe ist die Art und Weise, wie Urteile gefällt und begründet werden und nicht die Entscheidung selbst.26 Die Gestaltung der einzelnen Stufen kann typischerweise wie folgt interpretiert werden:
Auf Stufe 1 herrscht eine egozentrische Perspektive. Regeln werden befolgt, um negative Folgen wie Strafen zu vermeiden. Weiterhin bekommt Gehorsam einen Wert zugeschrieben. Moralische Urteile entstehen egozentrisch und richten sich nach dem Ergebnis für den Handelnden.
Stufe 2 wirkt nach einer Kosten-Nutzen-Orientierung. Dafür werden Regeln auf Grund persönlicher Interessen befolgt und es wird erkannt, dass Interessen auch in Konflikten zueinander stehen können. Bei moralischen Urteilen herrscht eine strategische Tauschgerechtigkeit („Auge um Auge“, Reziprozität), wobei die individualistische Perspektive bevorzugt wird.
Mit Stufe 3 wird das Niveau der konventionellen Moral erreicht. Moralische Urteile richten sich auf soziale Anerkennung und Vermeidung von Ablehnung aus. Das Individuum kann sich in die Rolle vom Gegenüber hineinversetzen und moralische Erwartungen erkennen. Diese Erwartungen möchte der Proband erfüllen und trifft dementsprechend seine moralischen Urteile.
Stufe 4 orientiert sich an der Einhaltung von Gesetzen und der Aufrechterhaltung einer bereits vorhandenen Ordnung. Der Urteilende möchte mit seinem Verhalten dazu beitragen, dass Institutionen und das System funktionieren. Der Fokus liegt auf der Gesellschaft und der Urteilende nimmt die Perspektive des sozialen Systems ein.
Die nachfolgende Stufe 5 wird dem Niveau der postkonventionellen Moral zugeordnet und orientiert sich an Sozialverträgen und Gerechtigkeit. Nach Kohlbergs Ansicht ist es jedoch so, dass viele Erwachsene die Stufen 5 und 6 gar nicht erreichen werden. Auf Stufe 5 nimmt der Urteilende Normen und Werte an, die zum Wohlergehen der Gesellschaft dienen.
Die letzte Stufe 6 richtet ihre Urteile anhand universell gültiger ethischer Prinzipien. Dafür müssen gesellschaftliche Werte und Normen auf diese Prinzipien überprüft werden. Die sechste Stufe nimmt eine der Gesellschaft übergeordnete Perspektive ein und geht von Vermeidung von Selbstverurteilung aus.
Kohlberg ist der Auffassung, dass eine höhere Stufe stets die niedrigere Stufe inkludiert und die Erfahrungen der niedrigeren Stufen beibehalten werden. Urteile werden jedoch immer nach der höchsten erreichten Stufe gefällt. Durch die Auseinandersetzung mit verschiedenen Dilemmasituationen sollen Personen ihre moralische Entwicklung verbessern, indem sie dadurch die nächste Stufe erreichen.27 Als besonders fördernd sticht die Diskussion mit einer moralisch „höherstehenden“ Person heraus, weil dadurch automatisch eine Auseinandersetzung mit einer anderen Perspektive erfolgt. Zentral für Kohlbergs Stufenmodell ist das Prinzip der Gerechtigkeit. So sagt Kohlberg, dass moralische Entscheidungen rational und gerecht getroffen werden sollen und gleichzeitig das Wohlbefinden der Betroffenen berücksichtigt werden muss.28
2.4 Zusammenfassung der theoretischen Grundlagen und Formulierung der Forschungsfragen
Der Begriff „Künstliche Intelligenz“ ist bereits seit Jahrzehnten in der Forschung aufzufinden. Seit 1956 wird stetig an der Weiterentwicklung künstlicher Intelligenz gearbeitet und ist heutzutage in vielen Unternehmen und Konzernen allgegenwärtig. Sei es in Form von Chatbots auf Webseiten, Spracherkennung oder Roboter-basierte Prozessautomatisierung (RPA), künstliche Intelligenz findet ihren Einzug in das alltägliche Leben. Die Form der heutigen künstlichen Intelligenz wird auch als schwache KI bezeichnet, da sie in der Lage ist, konkrete Anwendungsprobleme zu lösen und durch regelmäßige Wiederholungen und Erfahrungen ihre Algorithmen optimieren kann. Dadurch ist sie lernfähig und kann sich gegebenenfalls an neue, andere Situationen anpassen. Die andere Form der starken KI, bei der sie mit menschlichen Denkweisen verglichen werden kann und die menschlichen, geistigen Fähigkeiten sogar übertreffen kann, existiert zum heutigen Zeitpunkt (noch) nicht.
Maschinen werden vor der Herausforderung stehen, moralische Entscheidungen treffen zu können. Das hat die Entwicklung einer Maschinenethik („Artificial Morality“) zur Folge. Durch diese Maschinenethik könnten Systeme eine Sensibilität für ethische Fragestellungen entwickeln und anhand dieser Grundlage Entscheidungen treffen. Dadurch ergibt sich jedoch die Fragestellung, ob Maschinen überhaupt moralisch handeln können und sollen.
Moral zeichnet sich dadurch aus, dass die Einhaltung gewisser Regeln und das Handeln nach bestimmten Werten und Normen für das Wohlbefinden einer Gemeinschaft sorgen soll. Moralisches Handeln ist essenziell für das Zusammenleben von Menschen, wobei sich die moralische Urteilsfähigkeit individuell unterscheidet. Die moralische Urteilsfähigkeit legt dabei fest, ob eine Person das eigene Handeln für richtig oder falsch empfindet. Sie definiert moralisch akzeptable Regeln innerhalb einer Gesellschaft und entwickelt sich bis ins Erwachsenenalter weiter. Lawrence Kohlberg unterteilt die verschiedenen Entwicklungen in Stufen, woraus das von ihm entwickelte „Stufenmodell der moralischen Entwicklung“ entsteht. Dieses besteht insgesamt aus drei Niveaus mit jeweils zwei Stufen. Kohlberg geht davon aus, dass bis zum Erwachsenenalter zumindest Stufe 4 erreicht wird, auf welcher das Handeln im Sinne der Gesellschaft und unter Einhaltung von Regeln und Gesetzen basiert.
Ausgehend von den dargestellten theoretischen Grundlagen und dem zugrunde liegenden Forschungsgegenstand, ein Textbeitrag von Catrin Misselhorn (2018) in der Zeitschrift „Aus Politik und Zeitgeschichte (APuZ)“, lassen sich folgende Forschungsfrage und zugehörige Teilforschungsfragen ableiten:
Forschungsfrage:
Verfügen Maschinen über eine moralische Urteilsfähigkeit und können sie diese sinnvoll nutzen?
Teilforschungsfrage 1:
Welche grundsätzlichen Veränderungen bringen moralische Maschinen in verschiedenen Anwendungsfeldern mit sich?
Teilforschungsfrage 2:
Welche Fähigkeiten müssen Maschinen erfüllen, um moralisch handeln zu können?
Teilforschungsfrage 3:
Welche Chancen und Risiken ergeben sich durch den Einsatz moralischer Maschinen?
Tabelle 1: Ableitung der Forschungs- und Teilforschungsfragen (Eigene Darstellung)
3. Methodik
3.1 Ablauf einer qualitativen Inhaltsanalyse
In diesem Kapitel soll zunächst die qualitative Inhaltsanalyse vorgestellt werden. Qualitative Verfahren der Datenanalyse legen den Fokus auf die Sinnhaftigkeit und das Verstehen des zugrunde liegenden Forschungsgegenstandes.29 Philipp Mayring, einer der Mitbegründer der qualitativen Inhaltsanalyse, definiert folgende sechs Punkte, die zu beachten sind:30
- Analyse der Kommunikation
- Analyse fixierter Kommunikation, d.h. sie liegt in irgendeiner Form protokolliert vor
- Systematisches Vorgehen
- Regelgeleitetes Vorgehen, um Analyse nachvollziehbar und verständlich zu gestalten
- Theoriegeleitetes Vorgehen, also eine Analyse auf Basis theoretischer Fragestellungen
- Schlussfolgernde Methode, um Rückschlüsse aus explizit festgelegten Aspekten ziehen zu können
Mayring bezeichnet die Inhaltsanalyse auf Grund dieser sechs Punkte auch als „kategoriengeleitete Textanalyse“.31 Bei der qualitativen Inhaltsanalyse steht insbesondere die Kategorienbildung im Mittelpunkt, bei der inhaltlich für die Fragestellung relevante Textteile einer Kategorie oder Subkategorie zugeordnet werden. Dafür wird das vorliegende Textmaterial systematisch untersucht und mit Hilfe von Codierregeln eindeutige Zuordnungen zu Kategorien vorgenommen.32 Als zentrale Analysetechnik wird zumeist die strukturierende Inhaltsanalyse angewandt, bei der zunächst eine deduktive Kategorienbildung anhand der theoretischen Grundlagen erfolgt. Hierbei ist zu beachten, dass die Kategorien gewisse formale Anforderungen erfüllen müssen. Demnach sollten sie unabhängig voneinander sein, sich ausschließen und weiterhin sämtliche relevanten Ausprägungen ausschließen.33 Nachdem die Bildung der Kategorien abgeschlossen ist, wird der erste Codierprozess durchgeführt, bei dem einzelne Texteinheiten den jeweiligen Kategorien zugeordnet werden. Als Hilfsmittel dafür dient ein Codierleitfaden, welcher die Definition der Kategorie, Ankerbeispiele und Codierregeln enthält.34 Nachfolgende Abbildung verdeutlicht die einzelnen Schritte der strukturierenden Inhaltsanalyse nach Kuckartz:
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 2: Ablauf einer strukturierten Inhaltsanalyse (Quelle: Eigene Darstellung, in Anlehnung an Kuckartz (2016), S. 100)
[...]
1 Vgl. Luber (2016).
2 Vgl. Mainzer (2019). S. 10
3 Vgl. Buxmann (2019). S. 3
4 Vgl. Manhart (2021).
5 Vgl. Wittpahl (2019). S. 24
6 Vgl. Manhart (2021).
7 Vgl. Buxmann (2019). S. 6
8 Vgl. Gentsch (2019). S. 18
9 Wittpahl (2019) S. 21
10 Vgl. Lämmel/Cleve (2012) S. 13
11 Rich et al. (2019). S. 3
12 Vgl. Karliczek (2020) S.8
13 Vgl. Buxmann (2019) S. 6
14 Vgl. Karliczek (2020) S. 8
15 Vgl. Buxmann (2019) S. 7
16 Vgl. Goertzel/Pennachin (2007) S. 7
17 Vgl. Wittpahl (2019) S. 242 - 244
18 Vgl. Allen et al. (2005) S. 149
19 Homann/Lütge (2005) S. 12
20 Vgl. Gerrig et al. (2013). S. 406
21 Vgl. Horster (2007) S. 7
22 Vgl. Horster (2007) S. 83
23 Vgl. Gerrig et al. (2013). S. 406
24 Vgl. Gerrig et al. (2013). S. 406
25 Vgl. Horster (2007) S. 21
26 Vgl. Fritz et al. (2019) S. 79
27 Vgl. Fritz et al. (2019) S. 79
28 Vgl. Fritz et al. (2019) S. 80
29 Vgl. Helfferich (2011) S. 21
30 Vgl. Mayring (2015) S. 13
31 Vgl. Mayring (2015). S. 13
32 Vgl. Baur/Blasius (2019) S. 453
33 Vgl. Schnell et al. (2013). S. 401
34 Vgl. Baur/Blasius (2019) S. 638