Lade Inhalt...

Offener Unterricht in der Grundschule

Normative Vorgaben und studentische Erwartungen an Unterrichtsmethoden und deren Einsatz im Unterricht unter besonderer Berücksichtigung der Studierenden mit dem Berufsziel Primarstufe.

Masterarbeit 2011 107 Seiten

Pädagogik - Schulpädagogik

Leseprobe

Inhaltsverzeichnis

1 Einleitung

2 Forschungsablauf
2.1 Problembenennung und Operationalisierung
2.2 Empirische Forschungsmethoden
2.3 Fragebogen und Durchführung
2.4 Datenanalyse und Auswertung

3 Bildungssystem und Primarstufe in Rheinland-Pfalz
3.1 Strukturell-normativer Rahmen
3.2 Inhaltlich-pädagogischer Rahmen
3.3 Primarstufe in Rheinland-Pfalz

4 Konzepte offenen Unterrichts
4.1 Begründungsaspekte und Lehrerrolle
4.2 Wahldifferenzierter Unterricht
4.3 Tages- und Wochenplanarbeit
4.4 Projektarbeit

5 Studierendenbefragung
5.1 Problembenennung und Operationalisierung
5.2 Hypothesen / Arbeitsthesen
5.3 Auswahl und Anwendung der Forschungsmethode
5.4 Stichproben- und Ergebnisdarstellung

6 Schluss

7 Literaturverzeichnis

8 Abbildungsverzeichnis

1 Einleitung

Die Lebenssituation der Schülerinnen und Schüler ist einem ständigen Wechsel unterzogen und erfordert immer wieder aufs Neue eine Anpassung an die veränderte Berufs- und Ar- beitswelt sowie die gesamte Umwelt. Auf Grund dessen wird auch in den aktuellen Diskussi- onen immer häufiger über notwendige innerschulische als auch außerschulische Veränderun- gen gesprochen - von einer „Öffnung der Schule“. Diese sollen den Schülerinnen und Schü- lern im täglichen Unterrichtsalltag die Chance bieten, sich durch Mitbestimmungs- und Ge- staltungsprozesse besser auf die Lebenswelt vorbereiten zu können. Auch der Aspekt der He- terogenität spielt eine bedeutende Rolle, denn schließlich handelt es sich um individuelle Ler- nerinnen und Lerner, die auf unterschiedliche Weisen gefordert bzw. gefördert werden müs- sen. Im Rahmen meines Studiums wurde ich in verschiedenen Praktika immer wieder ansatz- weise mit Formen des offenen Unterrichts konfrontiert. Was genau eine offene Unterrichtsge- staltung auszeichnet und ob diese den Vorgaben des Bildungssystems in Rheinland-Pfalz ge- recht wird, soll in der folgenden Masterarbeit zum Thema „Offener Unterricht in der Grund- schule. Normative Vorgaben und studentische Erwartungen an Unterrichtsmethoden und de- ren Einsatz im Unterricht unter besonderer Berücksichtigung der Studierenden mit dem Be- rufsziel Primarstufe.“ dargelegt und näher erläutert werden. Wenn ständig auf mehr Selbst- ständigkeit und Individualität im Unterricht gepocht wird, muss in diesem Zusammenhang geklärt werden, was angehende Grundschullehrerinnen und Grundschullehrer über die Kon- zepte offenen Unterrichts wissen und was sie von deren Einsatz halten. Zu Beginn geht diese Arbeit auf die empirische Sozialforschung ein. Hierbei werden zunächst Begrifflichkeiten beschrieben und erklärt, die als Grundlage für die folgende Befragung dienen sollen. Im An- schluss daran wird das Bildungssystem und die Primarstufe in Rheinland-Pfalz erläutert, um später vergleichen zu können, inwieweit die offenen Unterrichtsformen diesen Vorgaben ge- recht werden. Danach werde ich verschiedene Teilkonzepte offenen Unterrichts vorstellen, wobei die Schwerpunkte auf dem wahldifferenzierten Unterricht, der Tages- und Wochen- planarbeit sowie der Projektarbeit liegen. Anknüpfend an diese theoretischen Ausarbeitungen wird die Studierendenbefragung durchgeführt - ich werde mein Vorgehen erläutern und die Befragung auswerten. Abschließend ziehe ich ein Fazit zum Einsatz offener Unterrichtskon- zepte in der Grundschule und fasse die gewonnenen Erkenntnisse zusammen.

2 Forschungsablauf

Unter dem Begriff „Empirische Sozialforschung“ versteht man im Allgemeinen verschiedene Vorgehensweisen, Methoden und Instrumente, die einer wissenschaftlichen Untersuchung zugrunde liegen und die Durchführung einer solchen erst möglich machen (vgl. Häder 2006, S. 20). Die Grundlagen der empirischen Sozialforschung stellen in der vorliegenden Arbeit den theoretischen Teil dar und liefern somit die Basis für das weitere Vorgehen hinsichtlich der praktischen Dimension – der Studierendenbefragung.

Die empirische Sozialforschung stellt eine Querschnittsdisziplin dar; sie befasst sich mit ver- schiedenen Wissensgebieten, in welchen das Anliegen der Sozialforschung allerdings immer das gleiche ist: Sie ist bemüht, Ereignisse im sozialen Leben oder der Natur zu sammeln, zu ordnen und Aussagen darüber zu machen bzw. Erkenntnisse zu gewinnen – kurz: sie versucht systematisch soziale Tatbestände zu erfassen und zu deuten. Die systematische Erfassung hat das Aufzeigen der sozialen Wirklichkeit nach bestimmten Regeln zum Inhalt. Ein Schritt folgt auf den nächsten, alle Schritte sind geplant und durchdacht, wodurch letztlich die Nachvoll- ziehbarkeit gewährleistet wird. Die Erfassung sozialer Tatbestände beinhaltet „beobachtbares menschliches Verhalten, von Menschen geschaffene Gegenstände sowie durch Sprache ver- mittelte Meinungen, Informationen über Erfahrungen, Einstellungen, Werturteile, Absichten“ (Atteslander 2006, S. 3), welche in Betracht genommen werden. All diese Punkte lassen sich aber immer nur in Teilen zusammentragen; man kann nie von einer vollständigen Erfassung aller Aspekte sprechen. Die Grundfragen der empirischen Sozialforschung befassen sich mit dem Was, dem Warum und dem Wie des zu Erfassenden. Dabei bezieht sich das Was auf den Aspekt bzw. Ausschnitt der sozialen Wirklichkeit, der erörtert werden soll. Das Warum bein- haltet den Entstehungs- und Verwertungszusammenhang und das Wie die Erhebungsmetho- den sowie die Auswertung sozialer Daten. Insgesamt geht es der empirischen Sozialforschung um eine größtmögliche Objektivität. Nicht allein das Zusammentragen von Erlebtem, welches immer subjektiv ist, steht im Fokus, sondern auch die objektive Sichtung, die Wissenschaft- lichkeit, welche als Voraussetzung für die Überprüfbarkeit der gewonnenen Ergebnisse gilt. Somit vollziehen die eingesetzten Methoden zur Forschung immer eine Gradwanderung zwi- schen Theorie und Praxis. Der gesamte Forschungsablauf lässt sich anhand von fünf Schritten darstellen, welche aus der Problembenennung, Gegenstandsbenennung, Durchführung und Anwendung der Forschungsmethoden, Analyse mitsamt des Auswertungsverfahrens und der Verwendung der Ergebnisse besteht (vgl. Atteslander 2006, S. 4ff.).

Im Folgenden soll nun auf die Problembenennung und die Gegenstandsbenennung, unter wel- che die Operationalisierung fällt, näher eingegangen und diese erläutert werden. Daran an- schließend wird der dritte Punkt in den Fokus gerückt, wenn von Empirischen Forschungsme- thoden – im Speziellen von Methoden hinsichtlich der Befragung – die Rede ist. Die beiden letzten Aspekte, Analyse und Verwendung, werden unter dem Punkt „Datenanalyse und Auswertung“ näher beleuchtet.

2.1 Problembenennung und Operationalisierung

Der Aspekt der Problembenennung im Rahmen des Forschungsablaufes lässt sich der theore- tischen Dimension zuordnen. Unter Problembenennung versteht man im Allgemeinen, dass soziale Probleme in Form von wissenschaftlichen Fragestellungen formuliert werden (vgl. Atteslander 2006, S. 18). Es muss geklärt werden, welches soziale Problem oder Phänomen im Mittelpunkt der Untersuchung stehen soll.

Die Problembenennung ist zu Beginn der empirischen Untersuchung zumeist noch recht vage. Es bietet sich an, eine Unterscheidung zwischen einer hypothesenerkundenden, induktiven und einer hypothesenprüfenden, deduktiven Untersuchung vorzunehmen: Erstere beschäftigt sich mit der Beobachtung, Beschreibung und Dokumentation realer Erscheinungen, wohinge- gen eine hypothesentestende Untersuchung sich darauf beschränkt, aus Theorien abgeleitete Hypothesen empirisch zu überprüfen. Es lässt sich festhalten, dass bei induktiver Vorgehens- weise eine Hypothese das Resultat und bei deduktiver Vorgehensweise den Ausgangspunkt der empirischen Untersuchung darstellt. Häufig wird der theoretische Vorgang der deduktiven Vorgehensweise auch als Konzeptspezifikation beschrieben. Beide Vorgehensweisen haben gemein, dass sie sich den Definitions-, Operationalisierungs- und Messproblemen stellen müssen (vgl. Bortz / Döring 2006, S. 30ff.). Die Problembenennung versucht Erklärungsver- suche der unerklärten Umwelt mit Hilfe von Hypothesen zu liefern. Eine Hypothesenbildung grenzt zum einen das Problem ab, muss aber gleichzeitig auch begründen, warum es einer empirischen Untersuchung bedarf. Diese Vorarbeit hinsichtlich der Aufstellung einer Hypo- these legt somit den Grundstein der Forschungsarbeit und der damit verbundenen Überprü- fung der aufgestellten Vermutung mit den in der Wirklichkeit gegebenenfalls existierenden Zusammenhängen. Insgesamt hat die Problembenennung allerdings einen veränderbaren, nur vorläufigen Charakter: Meist verändert sie sich im Laufe des Forschungsprozesses (vgl. At- teslander 2006, S. 18ff.). Im Zusammenhang mit der Problembenennung sei auch der Begriff der „Theorien“ näher erläutert: Theorien nehmen die Funktionen der Beschreibung, Erklärung und Vorhersagung hinsichtlich bestimmter Sachverhalte ein, welche dann in der Realität überprüft werden. Je höher der Grad der Bewährung, desto mehr gewinnt die Theorie am Wert einer Gesetzmäßigkeit (vgl. Bortz / Döring 2006, S. 15). Dabei haben Theorien be- stimmte Kriterien zu erfüllen: Zum einen müssen sie eine logische Form aufweisen, so dass sie als weiteres Kriterium anhand ihrer Aussage über die Wirklichkeit mit dieser verglichen und auch überprüft werden können. Darüber hinaus müssen Theorien, die neu aufgestellt werden, auch neue Aspekte des Problems verbalisieren, so dass als Ergebnis das Wissen hin- sichtlich der Problemstellung erweitert wird. Es können vier Theoriearten unterschieden wer- den: Theorien hinsichtlich der Beobachtung empirischer Regelmäßigkeiten, Ad-hoc-Theorien, Theorien mittlerer Reichweite und Theorien höherer Komplexität. Erstere sind rein beschrei- bend, deskriptiv hinsichtlich bestimmter Erscheinungen und vernachlässigen oft die notwen- digen Erklärungen bezüglich der Entstehung von Regelmäßigkeiten. Ad-hoc-Theorien lassen sich nicht verallgemeinern, denn sie sind sehr spezifisch, was die Aussagen über ein bestimm- tes Gruppenverhalten, die Zeit und den Ort angehen. Theorien mittlerer Reichweite erklären das Gruppenverhalten in Gesellschaften, die kulturell vergleichbar sind. Vor allem in der Grundlagenforschung sind häufig Hypothesen vorzufinden, die sich unter der Beschreibung „Theorien mittlerer Reichweite“ fassen lassen. Die zuletzt genannten Theorien höherer Kom- plexität lassen sich nur selten finden. Sie entziehen sich weitestgehend der empirischen For- schung, da sie relativ abstrakt und somit schwer überprüfbar sind (vgl. Atteslander 2006, S. 29f.). Im Weiteren erfolgt der Operationalisierungsvorgang, auch übergreifend als Gegen- standsbenennung bezeichnet. Es handelt sich hierbei um einen Prozess, bestehend aus mehre- ren Schritten, bei welchem man den theoretischen Begriffen Sachverhalte, Indikatoren ge- nannt, zuordnet, so dass Messungen ermöglicht werden. Zuerst allerdings muss geklärt wer- den, ob überhaupt eine Operationalisierbarkeit vorliegt. Darunter versteht man allgemein die Widerlegung einer Aussage anhand verschiedener Vergleiche. Wenn dies der Fall ist, also eine Operationalisierbarkeit vorliegt, folgen drei Operationalisierungsschritte: Die Gegen- standsbenennung, die Formulierung von Hypothesen und die Definition von Begriffen sowie deren Umsetzung in Variable und Indikatoren (vgl. Atteslander 2006, S. 40ff.). Die Gegen- standsbenennung wird von verschiedenen Ereignissen beeinflusst – durch die Zeit, den Ge- genstandsbereich und den Feldzugang. Da es sich bei der Gegenstandbenennung meist um verbale Beschreibungen handelt, kann man hierbei von „Modellen“ sprechen, welche Abbil- dungen von Gegenständen oder Abläufen darstellen. Diese Beobachtungen werden systema- tisch geordnet; sei es durch Symbole, auf Grund von differenten Verhaltensweisen oder Ähn- lichem. Demnach erfolgt eine Klassifikation oder eine Typologie, in der entweder Merkmale oder Erscheinungen verschiedenen Klassen bzw. Gruppen zugeordnet werden. Man spricht von der Taxonomie – jedem Taxom werden gleiche Merkmale oder Erscheinungen zugeord- net. Eine Klassifikation zeichnet sich vor allem dadurch aus, dass sie eindeutig ist, was bedeu- tet, dass jedem Objekt die Ausprägung eines Merkmals zugeordnet werden kann. Darüber hinaus spielt die Vollständigkeit, also die Zuordnung der Ausprägungen in eine Klasse und die Ausschließlichkeit eine Rolle. Letztere meint die Tatsache, dass nur eine Merkmalsaus- prägung zutrifft. Insgesamt ist zu sagen, dass die Problembenennung und die Gegenstandsbe- nennung nicht als getrennte Prozesse zu sehen sind; vielmehr ergänzen bzw. bereichern sie sich gegenseitig. So kann es vorkommen, dass die Problembenennung nach der Gegenstands- benennung noch einmal verändert werden muss, da es sich um eine Wechselwirkung handelt, die in der Theorie nicht sichtbar wird (vgl. Atteslander 2006, S. 33f.). Auf den Schritt der Hy- pothesenbildung bei der Operationalisierung sei hier näher eingegangen: Unter Hypothesen- bildung wird die Aufstellung von Hypothesen verstanden, die wahrscheinlich richtig sind, aber noch nicht bewiesen wurden. Aus diesen Hypothesen lassen sich im Weiteren Theorien ableiten. Hypothesen unterliegen vier Kriterien: Zum Einen muss es sich um Hypothesen handeln, die reale Sachverhalte darlegen und als allgemeingültige Aussagen aufgefasst wer- den können, die übergreifend formuliert sind („All-Satz“) (Bortz / Döring 2006, S. 4). Nicht zuletzt müssen sie überprüfbar bzw. falsifizierbar sein, was heißt, dass diese Hypothesen nicht als allgemeingültig richtig angesehen, sondern vielmehr widerlegt werden können. Um nach- zuweisen, ob es sich bei einer Hypothese auch um eine wissenschaftliche Hypothese handelt, die den genannten Kriterien gerecht wird, ist es von Vorteil, zu testen, ob sich die aufgestellte Aussage in einen „Wenn-dann-Satz“ bzw. „Je-desto-Satz“ (Bortz / Döring 2006, S. 4) um- wandeln lässt. Wenn dies der Fall ist, fällt die Zuordnung der Variablen leicht: Die Bedingung im Wenn-Teil, welche eine Ausprägung der Variablen darstellt, wird als unabhängige Variab- le angesehen und die Folge im Dann-Teil als Ausprägung einer abhängigen Variable (vgl. Bortz / Döring 2006, S. 4ff.). Trotz dieser relativ eindeutigen Definition von Hypothesen han- delt es sich nicht um Aussagen, die es gilt, immer auf die gleich Weise zu überprüfen und letztlich zu falsifizieren oder verifizieren, sondern um Wahrscheinlichkeitsaussagen. Grund dafür ist der Allgemeinheitsanspruch von Hypothesen, der zur Folge hat, dass alle jemals auf- getretenen Fälle zur Untersuchung herangezogen werden müssten. Das dies allerdings nicht durchführbar ist, steht außer Frage (vgl. Bortz / Döring 2006, S. 10). Für den Operationalisie- rungsvorgang ist es notwendig, in der theoretischen Vorarbeit bestimmte Begriffe zu definie- ren. Hinsichtlich der Merkmalsuntersuchung in der empirischen Sozialforschung wurde aus diesem Grund der Begriff „Variable“ eingeführt, mit welchem sich Merkmalsunterschiede klar hervorheben lassen (vgl. Bortz / Döring 2006, S. 2). Variablen können verschiedene Ausprägungen annehmen, so dass es grundlegend ist, diese Ausprägungen im Vorhinein klar zu benennen, damit keine Überscheidungen entstehen (vgl. Häder 2006, S. 23). Hinsichtlich der Bedeutung von Variablen wird unterschieden zwischen „abhängigen und unabhängigen Variablen“ (Bortz / Döring 2006, S. 3). Als abhängige Variable bezeichnet man diejenige, die letztlich gesucht ist; also jene, für welche im Rahmen der Untersuchung eine Erklärung ge- funden werden soll. Die unabhängige Variable ermöglicht dies, denn sie bedingt das Resultat der Studie durch das Liefern von Erklärungen. Man kann an dieser Stelle von einer gegensei- tigen Bedingung zwischen den Variablen sprechen. Darüber hinaus wirken sich „moderieren- de Variable“ sowohl auf unabhängige als auch auf abhängige Variable aus, denn sie beein- flussen die Erstere in dem Sinne, dass auch die abhängige Variable beeinflusst wird. Man spricht von einer Kontrollvariablen, wenn die moderierende einer Kontrolle dient; wird diese allerdings übersehen bzw. außer Acht gelassen, handelt es sich um eine Störvariable. All diese Formen der Variablen lassen sich unter der Formulierung „Stellenwert für die Untersuchung“ (Bortz / Döring 2006, S. 7) zusammenfassen. Weiterhin wird unterschieden zwischen ver- schiedenen Arten der Merkmalsausprägung: Unter den Begriff „quantitative Variable“ fallen neben den stetigen, das heißt Variablen mit vielfältigen Ausprägungen, auch die diskreten, beschränkten Variablen, welche untergliedert werden in dichotom und polytom. Diese Unter- teilung dient dazu, zu unterscheiden, ob es sich um zweistufige oder mehrstufige Merkmale handelt, die wiederum natürlich oder künstlich zu Stande gekommen sein können. Bedeutsam für die empirische Forschung ist es ferner, festzuhalten, ob eine Variable manifest und somit klar ersichtlich ist, oder aber latent, was heißt, dass sich die Merkmalsausprägung an Hand einer manifesten Variablen erschließen lässt (Bortz / Döring 2006, S. 3f.). Durch die Benen- nung des Arbeitstitels und die Wahl der Untersuchungsart wird in einer hypothesenprüfenden Untersuchung festgelegt, welche Variablen aufgenommen werden und somit erkundet oder als abhängig bzw. unabhängig betitelt werden. Im Anschluss daran erfolgen die Präzisierung der Variablenbezeichnung und die Festlegung bestimmter Definitionen. Hinsichtlich dessen kann von einem Überbrückungsproblem gesprochen werden, welches dadurch gekennzeichnet ist, die verwendeten Variablen zu operationalisieren, d.h. in Vorschriften zu verwandeln, die eine Beobachtung und Messung ermöglichen (Bortz / Döring 2006, S. 60). Begriffliche Klar- heit und eindeutige Definitionen sind für wissenschaftliche Zwecke von großer Bedeutung. Diesen Vorgang der theoretischen Begriffsfestlegung bezeichnet man als Explikation. Hin- sichtlich der Definitionen unterscheidet man zwischen Real- und Nominaldefinitionen, sowie analytischen und operationalen: Eine Realdefinition zielt darauf ab, durch eine präzise Be- griffsdefinition und mit Hilfe von direkten Verweisen auf reale Sachverhalte ein Vokabular festzulegen, welches kommunikationsfähig und ökonomisch ist. Eine Nominaldefinition baut auf Realdefinitionen auf, indem bereits definierte Begriffe herangezogen werden, um einen neuen Begriff einzuführen. Mit Hilfe einer analytischen Definition wird dargelegt, was genau unter dem verwendeten Begriff im vorliegenden Kontext zu verstehen ist – die Bedeutung wird analysiert. Diese Definitionen müssen letztlich überprüfbar sein, so dass sich anhand der Forschungspraxis belegen lässt, ob die aufgestellten Erläuterungen zutreffen. Operationale Definitionen beinhalten folgende Aspekte: Eine Begriffsdefinition enthält mehrere Operatio- nen, mit denen der verwendete Begriff ermittelt werden kann; die Definition erfolgt anhand von Operationen, die im Zusammenhang mit dem Begriff stehen. Die Bedeutung eines Be- griffes wird dadurch festgelegt, dass man seinen Verwendungszweck registriert. Die Operati- onen stehen im Mittelpunkt, so dass unser Wissen an diesen relativiert wird (vgl. Bortz / Dö- ring 2006, S. 60ff.). Bei einer Operationalisierung wird darüber hinaus angegeben, wie für einen bestimmten Begriff die Messungen vorgenommen werden. Erst im Anschluss an die erhobenen Messungen und mit Hilfe derer kann entschieden werden, ob eine zu prüfende Theorie verifiziert oder falsifiziert wird (vgl. Schnell u.a. 1995, S. 10). Dadurch wird deutlich, von welch hoher Relevanz es ist, dass die Begriffe einen Realitätsbezug aufweisen und die Hypothesen möglicherweise falsifizierbar sind. Angelehnt an diese Forschungsschritte wer- den auch die Messinstrumente entwickelt und auf ihre Validität bzw. Reliabilität überprüft (vgl. Atteslander 2006, S. 41). Eng zusammenhängend mit der Operationalisierung tritt das Problem der Messtheorie in den Vordergrund. Die Schwierigkeit beim Messen besteht darin, den ausgewählten Untersuchungsobjekten Zahlen zuzuordnen, so dass eine Messung stattfin- den kann. Die verwendeten Zahlen müssen so geartet sein, dass das empirische Relativ, also die Menge von Objekten, welche die Art der Beziehung bzw. die Beziehungen der Objekte untereinander darstellt auf ein numerisches Relativ, ein Darstellung in Zahlen, abgebildet werden kann. Eine solche Abbildung wird dann als homomorph bezeichnet (vgl. Bortz / Dö- ring 2006, S. 65). Daraus ergibt sich im Folgenden eine Skala, welche sowohl das empirische als auch das numerische Relativ sowie die homomorphe Abbildung beinhaltet. Bezeichnet wird dieser Vorgang als Repräsentationsproblem, welches mit einem Eindeutigkeitsproblem einhergeht. Bei diesem stellt sich die Frage nach der Übertragbarkeit einer Abbildungsfunkti- on auf eine andere, wobei die Skaleneigenschaften erhalten bleiben müssen. Hierzu werden Transformationen angegeben, die keinerlei Auswirkungen auf die Skalen ausüben. Eng ver- knüpft mit dem Eindeutigkeitsproblem ist auch das Bedeutsamkeitsproblem: Man fragt hier nach den mathematischen Operationen, die sinnvoll sind hinsichtlich der erhobenen Messun- gen. Eine numerische Aussage lässt sich als bedeutsam bezeichnen, wenn unter dem Einsatz von Transformationen keine Veränderung stattfindet (Bortz / Döring 2006, S. 65ff.). Es lassen sich vier Skalenarten / Skalenniveaus unterscheiden: Die Nominalskala, Ordinalskala, Inter- vallskala und Ratioskala. Die Nominalskala beinhaltet eine Kategorisierung, so dass lediglich eine Unterscheidung der Variablen zwischen ’gleich’ und ’ungleich’ stattfindet, nicht aber eine Rangordnung entstehen kann. Merkmalsausprägungen lassen sich demnach nur einer Kategorie zuordnen, ohne dabei eine inhaltliche Unterscheidung vorzunehmen. Rechenopera- tionen sind nicht möglich; lediglich Häufigkeitswerte können berechnet werden. Ordi- nalskalen hingegen zielen ebenfalls auf eine kategorische Einteilung ab, wobei bei dieser aber eine weitere Differenzierung hinsichtlich der Reihenfolge möglich ist. Aus diesem Grund werden solche Skalen auch als Rangordnungsskalen bezeichnet – sie erlauben an Hand der verschiedenen Ränge, Vergleiche zu ziehen. Aber auch hier sind keine weiteren Rechenopera- tionen durchführbar. Intervall- und Ratioskalen sind beide Verhältnisskalen. Eine Inter- vallskala ermöglicht es ebenfalls, Werte in eine Reihenfolge zu bringen. Der Unterschied zur Rangordnungsskala besteht darin, dass die Differenzen bzw. Abstände zwischen den einzel- nen Rängen messbar sind; sie sind somit also in einem bestimmten Abstand festgelegt. Bei Ratioskalen gibt es zudem einen absoluten Nullpunkt. Zusätzlich zum addieren und subtrahie- ren bei Intervallskalen kann man bei Ratioskalen auch multiplizieren und dividieren. Eine weitere Unterscheidung erfolgt auf höherer Ebene zwischen metrischen, kardinalen und nichtmetrischen, kategorialen Skalen: Erstere umfassen die Intervall- und Ratioskalen, letzte- re die Nominal- und Ordinalskalen (vgl. Schirmer 2009, S. 119ff.).

2.2 Empirische Forschungsmethoden

Die Forschungsmethoden bilden die instrumentelle Grundlage, mit deren Hilfe wissenschaft- liche Aussagen aufgestellt und überprüft werden können. Dabei haben sie bestimmten Krite- rien zu unterliegen: Neben der Adäquatheit, dem gerecht werden des Gegenstandes, müssen sie repräsentativ sein – die Merkmale mitsamt ihrer Komplexität widerspiegeln. Zwangsläufig erfolgt eine Beschränkung hinsichtlich der prägnantesten, dominantesten Elemente und Be- ziehungen, denn eine ganzheitliche Erfassung ist nicht möglich. Die formulierten Hypothesen gelten dann als relevant, wenn sie sich an gesellschaftlichen, individuellen und emanzipatori- schen Gegebenheiten orientieren. Die Forschungsmethode an sich sollte freigestellt werden können, das heißt unabhängig vom Forscher und somit Anwender der Methode sein, damit eine gewisse Objektivität zum Tragen kommt. Bei der Auswahl der Forschungsmethode sollte der Forscher zudem immer auch einen Vergleich zwischen dem Aufwand und dem Nutzen ziehen, welcher eine Untersuchung mit sich bringt, so dass deren Einsatz gerechtfertigt wird (vgl. Schimunek 2001, S. 44ff.).

Unterschieden wird in der empirischen Sozialforschung zwischen qualitativen und quantitati- ven Methoden: Bei den qualitativen Forschungsmethoden spielen sich die wichtigsten Vor- gänge im Kopf des Forschers ab und werden zunächst verbalisiert; die Erfahrungswirklichkeit wird interpretativ ausgelegt, wohingegen bei der quantitativen Forschung die Erfahrungsreali- tät numerisch beschrieben wird und letztlich zu einer statistischen Verarbeitung von Mess- werten führt. Der Forschungsprozess ist hierbei auf Grund einer klaren Vorgehensweise für andere überprüfbar (vgl. Bortz / Döring 2006, S. 2f.). Die quantitativen Forschungsmethoden legen Wert auf die Objektivität der erhobenen Daten und deren Auswertung sowie auf ein theoriegeleitetes Vorgehen und eine statistische Verallgemeinerbarkeit der Ergebnisse. Das theoretische Konstrukt kann demnach reproduziert und überprüft werden. Die Ausprägung eines oder mehrerer bestimmter Merkmale wird gemessen, so dass diese Messwerte miteinan- der oder mit anderen Variablen in Beziehung gesetzt und auf die Grundgesamtheit generali- siert werden können. Verlässlich, reliabel ist eine quantitative Messmethode genau dann, wenn bei einer Wiederholung unter gleichen Voraussetzungen dasselbe Ergebnis erzielt wird. Hinzu kommt der Aspekt der Gültigkeit, der Validität: Die interne Validität meint die Tatsa- che, dass die eingesetzte Messmethode auch wirklich das messen muss, was gemessen werden soll. Nur wenn diese beiden Punkte erfüllt werden, kann man von Empirie sprechen; anderen- falls handelt es sich um Empirismus (vgl. Atteslander 2006, S. 6f.). Auf der theoretischen Ebene geht es darum, ein Konstruktionsmodell zu erschaffen, welches sich durch Objektivität auszeichnet und somit auf die Realität übertragen werden kann bzw. sich in der Realität über- prüfen lässt. Quantitative Methoden werden diesem Anspruch gerecht, denn sie sind über- prüfbar, reproduzierbar und lassen sich darüber hinaus mit dem theoretischen Modell verglei- chen. Demgegenüber stehen qualitative Methoden, deren Hauptanliegen auf der Problemlö- sung und dem daraus resultierenden Schaffen eines rationaleren und humaneren Lebens liegt (vgl. Schnell u.a. 1995, S. 6). Quantitative und qualitative Methoden schließen sich dennoch nicht aus; vielmehr kann man hier oft von einer Wechselwirkung sprechen (vgl. Atteslander 2006, S. 5).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Unterschiede zwischen quantitativen und qualitativen Ansätzen

Der Methodenteil einer empirischen Untersuchung beginnt zunächst mit der Festlegung des Forschungsdesigns, worunter eine Hypothesenüberprüfung und die Erklärung des Einsatzes von Forschungsinstrumenten fallen (vgl. Atteslander 2006, S. 44). In diesem Begründungszu- sammenhang muss eine passende Methode gewählt werden, die sich anbietet, um das vorlie- gende Problem zu lösen. Auf dieser methodischen Ebene ist zu beachten, dass nicht alle Per- sonen oder Erscheinungen berücksichtigt werden können, sondern lediglich nur Teile derer. Somit liegt es auf der Hand, dass die Grundgesamtheit mit Hilfe von Stichproben erfasst wer- den muss und die ausgewählten Vertreter als Repräsentanten anzusehen sind. Entscheidend ist nun, auf welche Art und Weise die Auswahl der Vertreter vorgenommen wird: Per Zufalls- auswahl, Quotenauswahl oder mit Hilfe einer anfallenden Stichprobe. Bei einer Zufallsaus- wahl ist die Tatsache gegeben, dass jedes Objekt der Gesamtheit die gleiche Chance besitzt, für die Untersuchung hinzugezogen zu werden. Bei der Quotenauswahl hingegen wird die Stichprobe hinsichtlich bestimmter Merkmale durchgeführt und bei einer anfallenden Stich- probe werden lediglich „greifbare“ Personen zur Forschungsuntersuchung herangezogen (vgl. Schimunek 2001, S. 37ff.). Weiterhin beinhaltet die Stichprobenkonstruktion den Umfang derer sowie die Anwerbung der Untersuchungsteilnehmer, was als „Rekrutierung“ bezeichnet wird. Letztlich wird bereits durch die Problemstellung ersichtlich, welche Stichprobenart zum Tragen kommen soll (vgl. Bortz / Döring 2006, S. 88). Hinsichtlich der Gegenstandbereiche und der damit verbundenen Methoden empirischer Sozialforschung kann auf erster Ebene zwischen Produkten menschlicher Tätigkeit, was als Methode eine Inhaltsanalyse mit sich zieht, und aktuellem menschlichem Verhalten, das entweder durch Beobachtung, Befragung oder ein Experiment erfasst werden kann, unterschieden werden. Auf diese Weise lässt sich die soziale Wirklichkeit mit Hilfe einer der vier Methoden systematisch greifen (vgl. Attes- lander 2006, S. 48f.). Man versteht unter der ausgewählte Methode und deren Einsatz den Schritt der Datenerhebung. Im Folgenden wird nun besonders auf die Methode der Befragung eingegangen, welche zu den am häufigsten angewandten Datenerhebungsmethoden zählt: Unter einer Befragung versteht man die Kommunikation zwischen Menschen, die durch Sti- mulationen hervorgerufen wird und Reaktionen verursacht. Kennzeichen einer Kommunikati- on ist die jeweilige Erwartung des Gegenübers. Die Reaktionen zeichnen sich dadurch aus, dass sie mit Erinnerungen, Meinungen oder Bewertungen verknüpft werden. Eine Befragung erfasst allerdings nicht all dies, sondern lediglich das verbale Verhalten der Personen (vgl. Atteslander 2006, S. 101). Allgemein wird zwischen schriftlichen und mündlichen Befragun- gen unterschieden. Der bedeutendste Unterschied zwischen beiden Methoden liegt in der Er- hebungssituation, denn bei einer schriftlichen Befragung wird eine gewisse Anonymität ge- währleistet; man kann von einer Distanz sprechen die dazu führt, dass die Bereitschaft zu ehr- lichen Angaben steigt. Zu den mündlichen Befragungen zählen Interviews in vielfältiger Wei- se. Man unterscheidet sie hinsichtlich des Grads der Standardisierung, dem Autoritätsan- spruch des Interviewers, der Art des Kontaktes zum Interviewenden, der Anzahl der Intervie- wer und nach der Funktion. Unter Standardisierung versteht man ein vollständig durchstruktu- riertes Interview, in dem die Fragen an sich als auch die Reihenfolge der Fragen immer gleich sind. Diese müssen präzise formuliert sein und somit dem Befragten die Möglichkeit bieten, kurz und knapp antworten zu können. Im Gegensatz dazu stehen nichtstandardisierte Inter- views, die unter die qualitativen Methoden fallen. Hier steht lediglich das Oberthema fest; der Gesprächsverlauf wird aber nicht mit Hilfe von Fragen gelenkt. Darüber hinaus gibt es halb- standardisierte oder teilstandardisierte Interviews, die sich durch sowohl offene als auch ge- schlossene Fragen und eine unterschiedliche Standardisierung bezüglich der Durchführung des Interviews auszeichnen. Der Autoritätsanspruch des Interviewers rückt seine Haltung während des Interviews in das Blickfeld: Je nachdem, ob der Interviewer eine einfühlsame und entgegenkommende oder eher fordernd-aggressive Haltung einnimmt, unterscheidet man zwischen weichen und harten Interviews. Ein neutrales Interview sieht den Interviewer als auch den Befragten auf einer gleichwertigen Ebene. Das es sich bei einem Interview nicht immer um ein so genanntes „Paper-and-Pencil-Interview“ handeln muss wird deutlich, wenn man sich den verschiedenen Arten des Interviewkontaktes widmet: Neben den Kontakten via Computer oder andersartigen schriftlichen Kontakten wird der telefonische Kontakt immer beliebter. Dieser eignet sich, um kurze Befragungen durchzuführen und bietet – wie auch die schriftliche Befragung – einen relativ hohen Grad an Distanz und wird auf Grund dessen als weitestgehend anonym betrachtet. Programmsysteme bieten für telefonische Interviews eine gute Hilfestellung und erleichtern das Vorgehen. Die Anzahl der befragten Personen ent- scheidet darüber, ob es sich um ein Einzel- oder ein Gruppeninterview handelt, wobei letzte- res auch in ein Gruppendiskussionsverfahren übergehen kann. Gruppeninterviews bieten sich vor allem dann an, wenn die Problemstellung es erlaubt, einen Fragebogen einzusetzen (wel- che dann allerdings weniger dem Bereich der mündlichen als der schriftlichen Befragung an- gehören). Gruppendiskussionsverfahren basieren darauf, dass die Teilnehmerinnen und Teil- nehmer motiviert, engagiert und gesprächbereit sind – der Meinungsbildungsprozess ist ent- scheidend. Aber nicht nur die Anzahl der Befragten ist von Bedeutung; auch kann die Anzahl der Interviewer variieren: Man spricht von Einzelinterviews, bei denen es einen Interviewer und einen Befragten gibt, Tandeminterviews mit zwei und Hearings mit mehreren Intervie- wern. Zu den Funktionen einer mündlichen Befragung ist zu sagen, dass man zwischen in- formationsermittelnden und informationsvermittelnden Interviews unterscheidet. Hat man sich für die Form eines Interviews entschieden, beginnt die theoretische Vorarbeit. Auf der Ebene der Makroplanung erfolgt die Festlegung des Themenbereiches, welcher erfragt wer- den soll. Untergliedert wird dieser in einzelne Teilbereiche, so dass eine klare Struktur ent- steht. Die Mikroplanung umfasst die Spezialisierung der Inhalte und führt letztlich zu klar formulierten Fragestellungen, die es gilt, von einem oder mehreren Befragten beantworten zu lassen. Darüber hinaus muss beachtet werden, dass die Befragung mit einem hohen Maß an Motivation und Aufmerksamkeit einhergeht. Wie dies aufgebaut und konstant gehalten wer- den kann, ist ebenfalls im Vorhinein vom Interviewer zu klären (vgl. Bortz / Döring 2006, S. 236ff.). Zu erwähnen ist letztlich die Tatsache, dass verschiedenartige Intervieweffekte auftre- ten können, die beispielsweise auf Grund bestimmter Verhaltensweisen des Interviewers oder aber allein durch sein Erscheinungsbild hervorgerufen werden können. Aus diesem Grund existiert die Forderung nach Invarianz: Jeder Interviewer sollte durch eine andere Person er- setzbar sein. Dies zeichnet sich dadurch aus, dass er während des Interviews ein gleich blei- bend neutrales Verhalten an den Tag legt. Dass dies nicht immer gewährleistet werden kann steht außer Frage, denn schließlich handelt es sich um „lebende Messinstrumente“ (Bortz / Döring 2006, S. 246). Trotz allem lassen sich Merkmale nennen, die einen guten Interviewer auszeichnen. Durch eine Interviewerschulung werden dem Interviewer grundlegende Fähig- keiten näher gebracht: Zu nennen ist die inhaltliche Kenntnis, welche besagt, dass der Inter- viewer sehr genau über die Befragungsgegenstände informiert sein muss und somit auch auf Zwischenfragen, die nicht direkt den Fragenkatalog betreffen, eingehen kann. Weiterhin wird der Aufbau eines Fragebogens in den Fokus gerückt – die interne Logik muss dem Intervie- wer deutlich sein sowie die Unterscheidung zwischen den Fragen und seinen Instruktionen. Hinsichtlich der Dokumentation der Antworten lernt der Interviewer, die gegebenen Antwor- ten zu Protokoll zu nehmen. Immer wieder kann es auch vorkommen, dass Untersuchungs- teilnehmer eine Antwort verweigern. Der Schulungsaspekt „Verweigerungen“ dient dazu, dem Interviewer mögliche Vorgehensweisen bei einem solchen Fall näher zu bringen. Darun- ter fällt auch das Verhalten bei einem Interviewabbruch. Nicht zuletzt stehen Probeinterviews im Rahmen der Interviewerschulung an. Diese gewährleisten, dass die Interviewer bereits im Vorhinein schon einmal mit möglichen Pannen konfrontiert werden und sich mögliche Ver- haltensregeln aneignen können. Zu den schriftlichen Befragungen gehören Fragebögen in vielfältiger Form. Hierbei werden den Teilnehmern Fragen vorgelegt, die es gilt, selbstständig schriftlich zu beantworten. Nicht von der Hand zu weisen ist die Tatsache, dass eine solche Befragung im Vorhinein eine große theoretische Vorarbeit verlangt, denn die Fragebögen müssen so konzipiert sein, dass sie an Hand ihrer klaren Strukturierung verständlich sind und keine Eingriffe des Interviewers erfordern. Es lassen sich sowohl Vor- als auch Nachteile ausmachen, denn auf der einen Seite ist diese Methode der Datenerhebung relativ kostengüns- tig, auf der anderen Seite aber nur schwer kontrollierbar, da zum Teil keine standardisierten Bedingungen bei der Befragung vorherrschen (vgl. Bortz / Döring 2006, S. 247ff.).

Im Folgenden wird nun konkret auf verschiedene Aspekte von Fragebögen eingegangen so- wie deren Erstellung und Durchführung erläutert.

2.3 Fragebogen und Durchführung

Ein Fragebogen dient dazu, aus verschiedenen Fragen ein Datenerhebungsinstrument zu er- stellen, mit dessen Hilfe gesuchte bzw. benötigte Informationen gewonnen werden können. Übergreifend lassen sich zwei Fragebogenarten unterscheiden: Es gibt Fragebögen, die darauf abzielen, Persönlichkeitsmerkmale zu erfassen oder aber solche, die dafür konzipiert sind, bestimmte Sachverhalte zu beschreiben und zu bewerten. Egal welches Ziel verfolgt wird, Fragebögen werden immer an Hand bestimmter, aufeinander folgender Phasen und damit verbundener Kriterien konzipiert. Zu Beginn der Fragebogenentwicklung ist es von Vorteil, sich mit bereits vorliegenden Fragebögen auseinanderzusetzen, die schon hinsichtlich des gewählten Themenschwerpunktes konzipiert wurden. Sie können eine erste Hilfestellung sein und Anhaltspunkte liefern. Trotz allem liegt meist der Fall vor, dass die Fragen neu formuliert werden müssen, so dass sie sprachlich genau an die eigenen Untersuchungsteilnehmer ange- passt sind. Es bietet sich die Methode des Brainstormings an, bei der man alle Bestandteile eines bestimmten Bereiches auflistet und strukturiert. Daraus entwickeln sich nach und nach konkrete Fragen, die den gewünschten Bereich komplett abdecken. Hilfestellung bei der Ent- wicklung von Items, also den Merkmalen einer Untersuchungseinheit, kann eine Facettenana- lyse bieten, bei welcher der zu befragende Inhalt durch Facetten strukturiert wird (vgl. Bortz / Döring 2006, S. 253f.). Widmet man sich nun der Formulierung von Fragen, muss man sich zwischen offenen und geschlossenen Fragen entscheiden bzw. eine Mischung beider vorneh- men. Generell ist allerdings die geschlossene Form effizienter, denn zum einen wird die Aus- wertung erleichtert und zum anderen die Objektivität gesteigert. Antwortskalen für Häufigkei- ten, Intensitäten, Bewertungen und Wahrscheinlichkeiten sind überwiegend vorzufinden (vgl. Schnell 1995, S. 309). Darüber hinaus stellt sich die Frage nach der Formulierung an sich: Es muss geklärt werden, ob es sich um Fragen oder Behauptungen handeln soll. Je nach zu un- tersuchendem Inhalt klärt sich dies aber problemlos: Möchte man Meinungen oder Ansichten der Befragten zum Thema erhalten, bieten sich Behauptungen an, denn so können diese diffe- renzierter erfasst werden als durch Fragen. Auf Grund der Tatsache, dass ein Hauptanliegen der empirischen Forschung die Objektivität ist, muss erwähnt werden, dass sowohl Fragen als auch Behauptungen immer subjektive Anteile beinhalten. Der Forscher sollte deshalb zu je- dem Teilthemenaspekt mehrere Fragen oder Behauptungen aufstellen, die sich gegenseitig neutralisieren, so dass keine einseitige Wertung entsteht (vgl. Bortz / Döring 2006, S. 254f.). Auch Wortwahl und Satzbau spielen eine wichtige Rolle. Die Fragen sind kurz zu halten und sollten keine doppelten Verneinungen beinhalten. Darüber hinaus ist darauf zu achten, dass die Fragen dem Sprachniveau der ausgewählten Personengruppe angepasst sind (vgl. Stier 1999, S. 171ff.). Beachtet man bei einer Fragebogenentwicklung die Regeln der Wahl eindeu- tiger Begriffe und Formulierungen bzw. definiert unklare Begriffe, stellt kurze und präzise Fragen, verwendet keine doppelten Stimuli und Verneinungen, stellt nur Fragen deren Inhalt allen Teilnehmern zugänglich und voraussetzbar ist und einen eindeutigen zeitlichen Bezug aufweist, liefert eindeutige Antwortkategorien und beachtet, dass der Kontext der Fragen für sich steht und sich nicht auf die Beantwortung auswirkt, ergibt sich letztlich meist ein gelun- gener Fragebogen (vgl. Porst 2011, S. 95f.). Der Aufbau des Fragebogens zeichnet sich vor allem dadurch aus, dass zu Beginn der Befragung klare Instruktionen erfolgen müssen, die sprachlich auf die Zielgruppe abgestimmt sind. Die Makro- und Mikroplanung geschieht auf dieselben Weise wie bei mündlichen Befragungen – zuerst erfolgt die Festlegung der The- menbereiche, so dass darauf aufbauend konkrete Fragen formuliert werden können. Die An- ordnung der Fragen, die Fragensequenz, ist größtenteils nebensächlich, wobei die Fragen am Schluss der Untersuchung einfach zu halten sind (vgl. Bortz / Döring 2006, S. 256). Unter- schieden wird zwischen Einleitungs- und Übergangsfragen, die je nach Funktion eingesetzt werden. Einleitungsfragen dienen dazu einen guten Einstieg in die Befragung zu finden, ein angenehmes Miteinander zu schaffen. Sie sind so zu gestalten, dass sie leicht beantwortet werden können und auf interessante Weise in das Untersuchungsthema einführen. Übergangs- fragen sind Fragen, die einen Übergang hinsichtlich der verschiedenen Themenbereiche ein- läuten; sie grenzen die Themenbereiche voneinander ab und weisen implizit auf einen inhalt- lichen Wechsel hin. Trotz all der Kriterien, die einer Fragebogenentwicklung zu Grunde lie- gen, kann man letztlich nicht von dem „perfekten“ Fragebogen sprechen, denn allgemeingül- tige wissenschaftliche Prinzipien lassen sich nicht ausmachen. Es handelt sich vielmehr um eine individuelle Vorgehensweise, bei welcher verschiedene Gesichtspunkte zu beachten sind (vgl. Stier 1999, S. 181f.).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2: Schema für das Erstellen eines Fragebogens

Die meisten schriftlichen Befragungen erfolgen auf dem Postweg und werden deshalb als postalische Befragungen bezeichnet. Die Personen, welche auf diese Weise befragt werden sollen, haben nicht die Möglichkeit auf einen Interviewer „zurückzureifen“ falls es zu Unver- ständnissen kommt. Deshalb muss ein solcher Fragebogen sowohl inhaltlich als auch formal vollkommen klar und verständlich gestaltet sein. Nachteilig hinsichtlich dieser Befragungs- weise ist der Aspekt der unkontrollierbaren Erhebungssituation zu nennen, denn es kann nicht sichergestellt werden, ob auch wirklich die angeschriebene Person den Fragebogen ausfüllt. Insgesamt ist das Ziel, eine hohe Rücklaufquote zu erreichen, so dass die Ergebnisse auch repräsentativ sind. Positiv darauf wirkt sich das Thema der Untersuchung aus – handelt es sich um ein aktuelles und interessantes und ist der befragte Personenkreis hinsichtlich dessen präzise gewählt, kann davon ausgegangen werden, dass viele Fragebögen relativ schnell aus- gefüllt zurückgesandt werden. Umfragen, die im Rahmen einer universitären Institution durchgeführt werden und somit auch das entsprechende Einzugsgebiet beinhalten, haben mit den besten Rückläufen zu rechnen haben (vgl. Bortz / Döring 2006, S. 257). Onlinebefragun- gen stellen eine weitere Möglichkeit der Fragebogenuntersuchung dar: Auf Grund der Tatsa- che, dass immer mehr Menschen heutzutage online sind, bietet sich eine solche Form der Un- tersuchung an, um Personen in allen möglichen Gebieten zu erreichen. Zu unterscheiden ist hauptsächlich zwischen WWW-Fragebögen und Onlineumfragen per E-Mail. Bei offenen WWW-Umfragen, die bestenfalls auf einer täglich häufig abgefragten Website zu finden sind, erzielt der Forscher ein hohes Maß an Stichproben. Teilnehmen daran werden voraussichtlich auch nur Personen, denen das Thema zusagt und die somit ein großes Interesse daran aufwei- sen (vgl. Bortz / Döring 2006, S. 260f.). E-Mail Umfragen hingegen erlauben es dem Unter- suchenden, den Personenkreis selbst einzuschränken, wodurch allerdings die Rücklaufquote wieder zum Tragen kommt.

2.4 Datenanalyse und Auswertung

Nachdem die Befragung abgeschlossen ist, stehen dem Forscher eine Menge von Informatio- nen zur Verfügung, die es gilt aufzubereiten, so dass eine Analyse der erhobenen Daten statt- finden kann. Hierfür bietet sich eine Datenmatrix an, in welcher alle gewonnenen Daten tabel- larisch dargestellt werden können. In den Zeilen werden hierzu die befragten Personen und in den Spalten die Variablen, also die gegebenen Antworten eingetragen. Auf diese Weise kann eine Fülle von Daten geordnet dargestellt werden, wobei darauf zu achten ist, dass eine Liste erstellt wird, die alle erhobenen Variablen mitsamt ihren Ausprägungen erfasst. Diesen wird dann ein Wert zugeordnet, ein so genannter Code, wodurch letztlich ein Codeplan entsteht. Die erhobenen Daten werden codiert und verschriftlicht oder gespeichert, um mit ihnen arbei- ten zu können (vgl. Schnell u.a. 1995, S. 387f.). Bestimmte Dateibearbeitungsprogramme, Datenbanksysteme, Tabellenkalkulationsprogramme oder eine Statistiksoftware sind hierbei nützlich und hilfreich. Erst im Anschluss daran erfolgt die Analyse der aufbereiteten Daten, was bedeutet, dass die Daten der Beobachtung bzw. Befragung mit Hilfe der deskriptiven Statistik beschrieben werden sowie anhand der analytischen, schließenden Statistik die Über- prüfung der Hypothesen stattfindet (vgl. Atteslander 2006, S. 282ff.). Die beschreibende Sta- tistik ist der erste Schritt im Ablauf der Datenanalyse. Die erhobenen Daten werden geordnet und auf bestimmte Muster hin untersucht. Die Datensätze werden verdichtet, so dass die schließende Statistik darauf aufbauen und Aussagen über eine Grundgesamtheit treffen kann. Weiterhin ist es wichtig, sich im Vorhinein der Datenanalyse die verschiedenen Skalenni- veaus vor Augen zu führen, so dass eventuell benötigte Rechenoperationen durchgeführt wer- den können (vgl. Schirmer 2009, S. 123f.). Als Drittes ist die Unterscheidung zwischen der Anzahl der zu betrachtenden Variablen zu beachten – es handelt sich je nachdem um eine univariate, eindimensionale, bivariate, zweidimensionale oder multivariate, mehrdimensionale Statistik. Bei der univariaten Analyse liegt das Hauptaugenmerk auf der Häufigkeitsvertei- lung, dem Mittelwert oder auch auf Verfahren, die das Stichprobenergebnis auf die Grundge- samtheit übertragen lassen. Demgegenüber stehen Zusammenhänge, so genannte Korrelatio- nen der Variablen im Mittelpunkt bivariater und multivariater Statistiken (vgl. Schirmer 2009, 231ff.). Statistische Daten lassen sich auf vielfältige Weise darstellen. Quantitative Daten werden meist mit Hilfe von Tabellen oder Grafiken verbildlicht und lassen sich so leicht in- terpretieren. Tabellen bieten die Möglichkeit, einen groben Überblick zu gewinnen und die- nen letztlich auch der Analyse der Daten. Häufigkeitstabellen liegen hauptsächlich der univa- riaten Statistik zugrunde, wohingegen Kreuztabellen zur Darstellung von Zusammenhängen zwischen Variablen in der bivariaten und multivariaten Statistik verwendet werden. Man un- terscheidet in der tabellarischen Zusammenfassung der Häufigkeiten, die für alle Skalenni- veaus zu erstellen ist, zwischen absoluten Werten, also der Anzahl des Vorkommens und rela- tiven Werten, den Prozentwerten. Bei Intervall- und Ratioskalen ist allerdings darauf zu ach- ten, dass die Ausprägungen der Variablen im Vorhinein zusammengefasst werden müssen, so dass die Übersichtlichkeit der Tabellenform erhalten bleibt. Diese Kategorisierung erfolgt immer hinsichtlich der gleichen Größe und beinhaltet keine Überschneidungen. Im Zusam- menhang mit den tabellarischen und grafischen Darstellungsweisen ist von verschiedenen statistischen Kennwerten die Rede, die es ermöglichen, eine Fülle von Daten zu verdichten und Antworten auf bestimmte Fragestellungen zu liefern. Dazu zählen übergeordnet das Maß der zentralen Tendenz sowie das Variabilitätsmaß. Zu dem Kennwert der zentralen Tendenz gehört der Modalwert, welcher den am häufigsten gewählten Wert repräsentiert. Weiterhin zu nennen ist der Median: Hierbei handelt es sich um jenen Wert, bei welchem sowohl überhalb als auch unterhalb des Wertes die Hälfte der Personen vertreten ist. Das arithmetische Mittel ist ein weiterer Wert zur Beschreibung der zentralen Tendenz. Es drückt den Mittelwert aus und wird auch als Durchschnittswert bezeichnet. Zu den Maßen der Variabilität zählt zum einen die Spannweite, welche ein ziemlich weit gefasster Wert ist und daher nicht alle Ver- hältnisse der Verteilung widerspiegelt. Neben der Spannweite beschreiben auch die Varianz und die Standardabweichung einen Kennwert der Variabilität. Ihre Werte drücken beide die Abweichungen vom Mittelwert aus, unterscheiden sich dabei allerdings (vgl. Wosnitza / Jäger 1997, S. 101ff.). Hinsichtlich der grafischen Darstellung von Daten ist die Exploratory Data Analysis, kurz EDA-Analyse, zu nennen. Sie dient dazu, einen Überblick über den Datensatz zu geben, indem die einzelnen Messwerte in den Fokus gerückt werden. Das Ziel dieser Ana- lyse liegt darin, gedankliche Weiterführungen vornehmen zu können. Für diese EDA-Analyse bieten sich vielfältige Grafiken, Plots genannt, an: Stem-and-Leaf-Plots sind Histogramme (eine Sonderform von Balkendiagrammen), die die Ausprägung von Merkmalen mit Hilfe der jeweiligen Messwerte untermauern. Man verwendet sie vor allem für intervall- und ratioska- lierte Daten. Box-Plots werden verwendet, um Gruppenunterschiede hinsichtlich eines Merkmals grafisch darzustellen und sowohl den Median als auch die Ausreißer zu beachten. Balkendiagramme ermöglichen es, die Mittelwerte der Gruppe mit Hilfe der Höhe der Balken zu veranschaulichen, beachten dabei allerdings nicht die Streuung der Werte. Box-Plots bie- ten sich auch an, um genaueren Aufschluss über den mittleren Wert und die Verteilungsform zu liefern. Scatter-Plots dienen dazu, Zusammenhänge zwischen zwei Merkmalen deutlich zu machen, indem letztlich zwei Merkmalsausprägungen gegeneinander aufgewogen werden (vgl. Bortz / Döring 2006, S 373ff). Als Verfahren der multivariaten Statistik seien die Fakto- ren- und Clusteranalyse genannt. Liegt dem Forscher eine sehr große Menge von Daten vor, so kann er diese mit Hilfe dieser beiden Verfahren inhaltlich reduzieren und komprimieren. Die Faktorenanalyse stellt Wirkungszusammenhänge unter den Variablen dar und ermöglicht es, diese anhand von Faktoren zu beschreiben. Korrelierende Variable sollen auf einer höhe- ren Ebene zusammengefasst werden um die Datenmenge so einzuschränken, dass letztlich nur noch einige wenige Faktorwerte bestehen, die die gesamten Informationen der vielen Variab- len abbilden. Zunächst wird hierfür eine so genannte Korrelationsmatrix erstellt, aus welcher mit Hilfe unterschiedlicher Verfahren die Faktoren ausgesiebt werden, um letztlich diese Fak- toren benennen zu können. Einigkeit herrscht hinsichtlich der explorativen Dimension dieser Methode: Neue und bislang unentdeckte Zusammenhänge tun sich auf und werden mit Hilfe der Faktorenanalyse erklärt (vgl. Bortz / Döring 2006, S. 369f. sowie Schirmer 2009, S. 253f.). Das gleiche gilt für die Clusteranalyse, bei welcher es neben der Klassifizierung um Ähnlichkeiten zwischen den Untersuchungsobjekten geht. So wird beispielsweise eine Viel- zahl von Personen anhand der Ähnlichkeit ihrer Merkmale in Cluster zusammengefasst (vgl. Bortz / Döring 2006, S. 377). Dadurch wird gewährleistet, dass die Cluster an sich weitestge- hend homogen sind, was man als Ähnlichkeit bezeichnet. Proximitätsmaße, bestimmte Kenn- ziffern, dienen dazu, das Maß der Ähnlichkeit der Objekte hinsichtlich ausgewählter Merkma- le numerisch auszudrücken. An die nun beschriebene deskriptive Statistik schließt die analyti- sche Statistik an, welche das Anliegen hat, Hypothesen durch so genannte Signifikanztests zu überprüfen. Diese liefern Aufschluss über die Brauchbarkeit einer Hypothese. Bei einem de- duktiven Vorgehen werden Hypothesen aus einer Theorie abgeleitet, so dass letztlich diese Hypothesen auf ihre Stichhaltigkeit hin untersucht werden können. Die Frage der Verallge- meinerung auf die Grundgesamtheit wird geklärt. Bevor ein Signifikanztest zum Tragen kommt, müssen die aufgestellten Hypothesen allerdings so umformuliert werden, dass sie einer inhaltlich-qualitativen Forschungshypothese gerecht werden. Die so neu entstandene Hypothese wird als Alternativhypothese bezeichnet und erweitert den bisherigen Kenntnis- stand. Die ursprüngliche Hypothese, die Nullhypothese, steht der Alternativhypothese gegen- über, die an der Ursprungshypothese getestet wird. Dadurch lässt sich entscheiden, ob und mit welcher Wahrscheinlichkeit die Alternativhypothese anzunehmen ist. Auch die Irrtumswahr- scheinlichkeit der Verwerfung der Nullhypothese wird angezeigt. Von einem signifikanten Ergebnis spricht man dann, wenn bei einer vorher festgelegten Irrtumswahrscheinlichkeit die Nullhypothese verworfen werden kann, so dass die Alternativhypothese daraufhin angenom- men wird. Wichtig bei Signifikanztests ist die Vorgehensweise bzw. Abfolge: Grundvoraus- setzung ist die Wahrscheinlichkeitsauswahl der Stichprobe, so dass die Nullhypothese als auch die Alternativhypothese formuliert werden kann. Im Anschluss wird das Signifikanzni- veau festgelegt und ein Signifikanztest berechnet die Irrtumswahrscheinlichkeit. Es eröffnet sich die Frage, ob die Nullhypothese angenommen oder verworfen wird, so dass letztlich das Ergebnis formuliert werden kann (vgl. Schirmer 2009, S. 249ff.). An die deskriptive und ana- lytische Statistik schließt sich die Interpretation an, welche natürlich auch schon ansatzweise während der empirischen Untersuchung stattgefunden hat.

3 Bildungssystem und Primarstufe in Rheinland-Pfalz

Unter dem Begriff „Bildungssystem“ versteht man alle Einrichtungen, deren Aufbau und die Möglichkeiten, die gegeben sind, um Bildung zu erlangen. Darunter fällt neben dem Elemen- tarbereich (Kindergarten) das Schulsystem, das Hochschulsystem sowie das Weiterbildungs- system. Das gesamte Bildungswesen in Deutschland wird durch die föderative Staatstruktur bestimmt, was bedeutet, dass das Recht der Gesetzgebung für das Bildungswesen bei den je- weiligen Bundesländern liegt, die die Schulgesetze für ihre Schulen festlegen. Das Schulwe- sen untersteht letztlich der staatlichen Aufsicht (vgl. GG Art. 7, Absatz 1). Die Verwaltung der Schulen und des Schulsystems liegt nahezu ausschließlich in der Aufgabe der Länder. Gemeinsame Aufgaben von Bund und Ländern, so genannte Gemeinschaftsaufgaben, welche das Grundgesetz vorsieht, gibt es beispielsweise hinsichtlich Fragen der Hochschulforschung sowie bei der Feststellung der Leistungsfähigkeit des deutschen Bildungswesens im internati- onalen Vergleich und der daraus resultierenden Berichte und Empfehlungen (vgl. SdSKdKdL 2010a, S. 33). Momentan vollziehen sich im Bildungssystem grundlegenden Veränderungen, vor allem hinsichtlich der Qualitätsentwicklung und Qualitätssicherung. Dieser Wandel sieht vor, das Bildungssystem ergebnisorientierter zu gestalten, indem den Schulen mehr Selbst- ständigkeit und Eigenverantwortlichkeit zugestanden wird. Aber auch die Übergange zwi- schen den einzelnen Bereichen, frühkindliche Bildung–Schule–Ausbildung–Hochschule, sol- len weiter verbessert werden. In Deutschland herrscht eine allgemeine Schulpflicht, welche alle Kinder dazu verpflichtet, die Schule zu besuchen. In der Regel beginnt diese mit der Vollendung des sechsten Lebensjahres und umfasst in Rheinland-Pfalz neun Vollzeitschuljah- re. Falls der Jugendliche nach dieser allgemeinen Schulpflicht allerdings keine allgemeinbil- dende oder berufliche Vollzeitschule besucht, besteht weiterhin eine Teilzeitschulpflicht, wel- che in der Regel - je nach Ausbildungsberuf - weitere drei Teilzeitschuljahre umfasst. Zur Erfüllung dieser Schulpflicht gehört neben der regelmäßigen Teilnahme am Unterricht auch die Teilnahme an sonstigen schulischen Veranstaltungen, für die sowohl die Schülerinnen und Schüler selbst, als auch ihre Eltern verantwortlich sind. Durch den jeweiligen Schulleiter wird die Einhaltung der Schulpflicht kontrolliert. Die Mehrzahl der Schulen in Deutschland sind staatlich-kommunale Schulen in öffentlicher Trägerschaft - sie werden in Kooperation von Land und Kommune finanziell getragen. Das Land übernimmt die Kosten für das Lehrerper- sonal und die Kommune die übrigen personellen und sächlichen Auslagen. Demgegenüber stehen Schulen in freier Trägerschaft, die ebenfalls einen Beitrag zur Gestaltung von Staat und Gesellschaft liefern und den Wettbewerb und die Innovation unter den Schulen und dem Bildungswesen im Allgemeinen fördern. Schulen müssen gesteuert und beaufsichtigt werden, was als Konsequenz die Notwendigkeit einer Schulaufsichtsbehörde mit sich zieht. Diese Aufsicht, also die Planung und Organisation des Schulwesens, wird an oberster Stelle von den Kultusministerien der Länder und den nachgeordneten Schulbehörden übernommen. Die Bil- dungsziele, die in den Schulgesetzen vorgegeben sind, erhalten ihre inhaltliche Festlegung durch die Lehrpläne des Kultusministeriums. Sie werden als Verordnungen bekannt gegeben und sind somit für alle Lehrer verpflichtend einzuhalten (vgl. SdSKdKdL 2010a, S. 30ff.).

3.1 Strukturell-normativer Rahmen

Die allgemeine Gliederung des deutschen Bildungssystems sieht eine Unterteilung in den Elementarbereich, Primarbereich, Sekundarbereich, tertiären Bereich und den Bereich der Weiterbildung vor.

[...]

Details

Seiten
107
Jahr
2011
ISBN (eBook)
9783656167815
ISBN (Buch)
9783656168270
Dateigröße
794 KB
Sprache
Deutsch
Katalognummer
v191809
Institution / Hochschule
Universität Koblenz-Landau
Note
1,0
Schlagworte
Offener Unterricht Grundschule Grundschulbildung Grundschulpädagogik Masterarbeit Umfrage

Autor

Teilen

Zurück

Titel: Offener Unterricht in der Grundschule