In dieser Arbeit soll der Frage nachgegangen werden, inwieweit die Prinzipien der Cognitive Theory of Multimedia Learning auch im Rahmen der Blinden- und Gehörlosenpädagogik angewandt werden können. Hierzu ist es zunächst notwendig zu klären, worum es bei der genannten Theorie grundsätzlich geht, von welchen Grundannahmen diese ausgeht und welche kognitiven Prozesse beim Lernen in einer multimedialen Lernumgebung ablaufen, bevor fünf grundlegende Prinzipien der genannten Theorie kurz vorgestellt werden.
Anschließend soll näher auf das Gebiet der Gehörlosen- und Blindenpädagogik eingegangen werden, was man darunter versteht und mit welchen Einschränkungen und Fähigkeiten die Behinderungen verbunden sind. Zudem soll ein kurzer Einblick gegeben werden, inwieweit Behinderte beziehungsweise die Sonderpädagogik auf multimediale Angebote zurückgreift. Nach dieser theoretischen Einführung, soll die darauffolgende Untersuchung klären, ob die Multimedia-Learning-Prinzipien bei blinden oder gehörlosen Menschen umgesetzt werden können, welche Vorteile, aber auch welche Grenzen sich in diesem Zusammenhang für die Sonderpädagogik ergeben. Abschließend werden die gewonnenen Erkenntnisse zusammengefasst und ein Ausblick gegeben.
Inhaltsverzeichnis
1. Lernen in Zeiten von Inklusion und Multimedialität
2. Cognitive Theory of Multimedia Learning
2.1. Grundannahmen und Prozesse
2.2. Grundlegende Prinzipien
2.2.1. Multimedia-Prinzip
2.2.2. Split-Attention-Prinzip
2.2.3. Modalitäts-Prinzip
2.2.4. Redundanz-Prinzip
2.2.5. Signaling-Prinzip
3. Blinden- und Gehörlosenpädagogik
3.1. Klassifikation, Fähigkeiten und Einschränkungen von Blinden und Gehörlosen
3.1. Ziel, Gegenstand und Stand der Blinden- und Gehörlosenpädagogik
3.3. (Multi)media-Einsatz von Behinderten
4. Multimediales Lernen in der Blinden- und Gehörlosenpädagogik
4.1. Anpassung der Annahmen zur Cognitive Theory of Multimedia Learning
4.2. Anwendung der multimedialen Prinzipien
5. Multimedia Learning – Chance für die Behindertenpädagogik?
6. Literaturverzeichnis
1. Lernen in Zeiten von Inklusion und Multimedialität
„Ein Bild sagt mehr als tausend Worte“ (zitiert nach Wüst, 2010, o. S.). Dieses alte Sprichwort aus dem 19. Jahrhundert sagt aus, dass ein komplexer Sachverhalt durch Bilder leichter erklärt werden kann als durch Text. Hinweise wie diese sind ein Beispiel dafür, wie man seit Jahrhunderten versucht, den besten Weg zu finden, um etwas auszudrücken, damit es beim Empfänger möglichst verständlich und einprägsam ankommt.
Während seit Jahrtausenden Wörter, ob gesprochen oder gedruckt, die wichtigste Vermittlungsform im Unterricht darstellten, haben sich mit den technischen Entwicklungen der letzten Jahrzehnte zahlreiche neue mediale Formen herausgebildet, die es ermöglichen, Wort und Bild auf die verschiedenste Art zu verknüpfen und Sachverhalte darzustellen (Mayer, 2014, S. 44). Diese neuen Medien verändern nicht nur den Alltag der Menschen, sondern auch die Art und Weise, wie sie Dinge wahrnehmen und sich einprägen. Kurzum, die Medien verändern, wie wir lernen.
Verschiedene multimediale Lerntheorien wie die Cognitive Theory of Multimedia Learning sprechen den Medien längst eine große Bedeutung im Bildungsbereich zu. Dazu geben zahlreiche daraus abgeleitete Gestaltungsprinzipien Empfehlungen für den idealen Medieneinsatz zum Lernen. Doch hierbei stellt sich die Frage, inwiefern es überhaupt möglich ist, allgemein gültige Prinzipien aufzustellen, die zu einem optimalen Lernerfolg führen. Denn tatsächlich spielen viel mehr Faktoren eine Rolle dabei, ob sich jemand einen Sachverhalt merken kann oder nicht, als nur die grundlegende Gestaltung der Informationen. Auch auf den Lernenden selbst kommt es an. Und nicht jeder Mensch ist gleich, hat dieselben Interessen, Wissensstände oder Fähigkeiten. Dies wirft ein grundlegendes Problem der multimedialen Gestaltungsprinzipien auf: Nicht jeder lernt auf dieselbe Weise. Und nicht alle sind in der Lage, die gleichen Medien zu rezipieren, weil sie beispielsweise eine Einschränkung haben.
Im Jahr 2013 hatten bereits 10,2 Millionen Menschen in Deutschland eine anerkannte Behinderung, mehr als 100.000 davon befanden sich noch in schulischer oder beruflicher Ausbildung (Statistisches Bundesamt, 2017, S. 14 u. 23). Diese große Zahl zeigt, dass Lehrmaterialien Menschen mit verschiedensten Fähigkeiten gerecht werden müssen.
Mit der Unterzeichnung der UN-Behindertenrechtskonvention im Jahr 2006 wurde das Recht von Menschen mit Behinderungen auf Bildung gesetzlich festgelegt (Praetor Intermedia UG, o. J.). Man will diesen die gleichen Chancen bieten wie Nicht-Behinderten und in diesem Zusammenhang auch ein inklusives Schulsystem vorantreiben. Doch inwieweit sind moderne Lerninhalte für Menschen rezipierbar, die eine Sinneseinschränkung haben, ihr Augenlicht oder Gehör verloren haben? Es muss die Frage gestellt werden, welchen Hindernissen Menschen mit Handicap in multimedialen Lernumgebungen begegnen und ob man überhaupt allgemeingültige Kriterien für die Bildung durch neue Medien aufstellen kann.
Aus diesem Grund soll im Folgenden der Frage nachgegangen werden, inwieweit die Prinzipien der Cognitive Theory of Multimedia Learning auch im Rahmen der Blinden- und Gehörlosenpädagogik angewandt werden können. Hierzu ist es zunächst notwendig zu klären, worum es bei der genannten Theorie grundsätzlich geht, von welchen Grundannahmen diese ausgeht und welche kognitiven Prozesse beim Lernen in einer multimedialen Lernumgebung ablaufen, bevor fünf grundlegende Prinzipien der genannten Theorie kurz vorgestellt werden. Anschließend soll näher auf das Gebiet der Gehörlosen- und Blindenpädagogik eingegangen werden, was man darunter versteht und mit welchen Einschränkungen und Fähigkeiten die Behinderungen verbunden sind. Zudem soll ein kurzer Einblick gegeben werden, inwieweit Behinderte beziehungsweise die Sonderpädagogik auf multimediale Angebote zurückgreift. Nach dieser theoretischen Einführung, soll die darauffolgende Untersuchung klären, ob die Multimedia-Learning-Prinzipien bei blinden oder gehörlosen Menschen umgesetzt werden können, welche Vorteile, aber auch welche Grenzen sich in diesem Zusammenhang für die Sonderpädagogik ergeben. Abschließend werden die gewonnenen Erkenntnisse zusammengefasst und ein Ausblick gegeben.
2. Cognitive Theory of Multimedia Learning
Zunächst gilt es, die Cognitive Theory of Multimedia Learning (CTML) genauer vorzustellen. Neben der Cognitive Load Theory von John Sweller, dem integrativen Modell des Text- und Bildverständnisses von Wolfgang Schnotz und dem Four-Component-Instructional-Design-Modell von Jeroen J. G. van Merriënboer ist die Cognitive Theory of Multimedia Learning eine der vier wesentlichen Theorien, die ein Verständnis darüber vermitteln wollen, wie Menschen in multimedialen Lernumgebungen lernen und wie Medien gestaltet werden müssen, um einen optimalen Lernerfolg zu erzielen (Mayer, 2014, S. 8). Die vorliegende Theorie stammt von Richard E. Mayer und wurde in den vergangenen Jahrzehnten mehrfach weiterentwickelt, während denen sie auch unter verschiedenen Namen bekannt wurde, wie beispielsweise unter „Model of meaningful learning“, „Cognitive conditions for effective illustrations“ oder das „Dual-Coding-Model“ (Mayer, 2014, S. 64). Sie versucht im Wesentlichen darzustellen, wie Menschen mithilfe von Wörtern und Bildern lernen, um daraus Möglichkeiten abzuleiten, multimedialen Unterricht zu verbessern.
2.1. Grundannahmen und Prozesse
Um eine multimediale Lernumgebung ideal gestalten zu können, ist es in erster Linie notwendig zu wissen, wie Menschen lernen. Unter multimedialem Lernen versteht Richard E. Mayer das Lernen aus Wörtern und Bildern, mit dem Ziel, sich an das Gelernte zu erinnern und es verstehen zu können (Mayer, 2014, S. 1 u. 20). Das Material kann dabei durch verschiedenste Medienprodukte präsentiert werden (ebd., S. 44). In seiner Theorie geht Mayer (2014) von drei Grundannahmen aus, die sich auf Forschungen aus der kognitiven Psychologie stützen. Zunächst wird davon ausgegangen, dass der Mensch zwei getrennte Kanäle besitzt, über die Informationen verarbeitet werden (S. 47-53 und zum Folgenden1). Vom Auge wahrgenommene visuelle Materialien wie Bilder, Animationen oder Videos werden vom visuellen Kanal verarbeitet, während akustische Informationen durch den auditiven Kanal erfasst werden. Hat der Lernende genug kognitive Ressourcen zur Verfügung, so ist eine Darstellung der Information im jeweils anderen Kanal möglich. Dies führt bereits zur zweiten Annahme, nämlich die der begrenzten Kapazität des Arbeitsgedächtnisses. Dieses ist im Gegensatz zum sensorischen und dem Langzeitgedächtnis nur in der Lage, eine begrenzte Anzahl von visuellen oder auditiven Informationen gleichzeitig zu speichern. Insofern ist es notwendig, multimediale Lerninhalte so zu gestalten, dass das kognitive System nicht überlastet wird.
Die dritte Grundannahme der CTML ist, dass der Mensch Informationen aktiv im Arbeitsgedächtnis verarbeitet und sie nicht nur passiv rezipiert. Zu dieser aktiven Verarbeitung gehört es, relevante Informationen zu beachten, sie in einer kognitiven Struktur zu organisieren und sie schließlich mit bisher erworbenem Wissen abzugleichen. Diese drei kognitiven Prozesse, die beim aktiven Lernen auf das Material angewendet werden, nennt Richard E. Mayer Selektion, Organisation und Integration. Zunächst gelangen Bilder und geschriebener Text durch die Augen und gesprochener Text durch die Ohren in das sensorische Gedächtnis des Menschen, wo sie kurzzeitig gespeichert werden, bevor relevante Bilder und relevante Wörter ausgewählt und anschließend in das Arbeitsgedächtnis eingebracht werden. Dieser Selektionsprozess ist wiederum auf die begrenzte Kapazität des Arbeitsgedächtnisses zurückzuführen. Danach werden die Informationen im Arbeitsgedächtnis organisiert, indem die einzelnen Elemente in Beziehung zueinander gesetzt und zu einem strukturierten Modell zusammengefügt werden. Abschließend wird im Integrationsprozess zwischen dem Material und dem bereits erworbenen Vorwissen eine Beziehung hergestellt. Hierzu wird für den Sachverhalt relevantes Vorwissen aus dem Langzeitgedächtnis aktiviert und in das Arbeitsgedächtnis eingebracht. Mit dem Auswählen relevanter Wörter und Bilder, dem Organisieren ausgewählter Wörter zu einem verbalen Modell, dem Organisieren ausgewählter Bilder zu einem visuellen Modell und der Integration beider Informationen zusammen mit bisherigem Wissen, stellen fünf Schritte im Lernprozess dar, die jedoch nicht zwangsläufig nacheinander ablaufen müssen. Das im Arbeitsgedächtnis aufgebaute Wissen kann schließlich im Langzeitgedächtnis gespeichert werden, um als Vorwissen künftige Lernprozesse zu unterstützen.
Es wurde also deutlich, dass das Arbeitsgedächtnis beim Lernen von Bildern und Wörtern eine sehr zentrale Rolle einnimmt. Dabei nennt Mayer drei Arten von Anforderungen an die kognitive Leistungsfähigkeit. „Extranous Processing“ lässt sich als die kognitive Belastung beschreiben, die auf schlechte Gestaltung des Unterrichtsmaterials zurückzuführen ist, ähnlich dem extrinsischen Cognitive Load bei der Cognitive Load Theory von John Sweller (Mayer, 2014, S. 59). „Essential Processing“ nennt Mayer die Belastung, die durch die Verarbeitung besonders komplexen Unterrichtsmaterials entsteht, vergleichbar mit Swellers intrinsischen Cognitive Load (ebd., S. 60). Mit „Generative Processing“ ist schließlich der Lernprozess selbst gemeint, der darauf abzielt, das Material zu verstehen und ist meist abhängig von der Lernmotivation der Lernenden (ebd.). Sweller verwendet hierfür den Ausdruck „Germane Cognitive Load“. Diese drei Belastungen sind bei der Verarbeitung von Unterrichtsmaterialien zu beachten.
2.2. Grundlegende Prinzipien
Die Grundannahmen der Theorie und die damit einhergehenden kognitiven Prozesse haben deutlich gemacht, dass die zentrale Herausforderung bei der Gestaltung multimedialer Lernumgebungen darin liegt, Unterrichtsmaterial so zu präsentieren, dass das Arbeitsgedächtnis nicht überlastet wird. Zu diesem Zweck wurden zahlreiche Prinzipien des multimedialen Lernens entwickelt, von denen fünf im Folgenden näher vorgestellt werden sollen. Hierzu wurden das Multimedia-Prinzip, das Split-Attention-Prinzip (oder auch Prinzip der räumlichen oder zeitlichen Kontiguität), das Modalitäts-Prinzip, das Redundanz-Prinzip sowie das Signaling-Prinzip ausgewählt, die Richard E. Mayer in seinem 2014 erschienenen Buch „The Cambridge Handbook of Multimedia Learning“ als die Prinzipien genannt hat, die als allgemein akzeptiert gelten (Vgl. Mayer, 2014, S. V).
2.2.1. Multimedia-Prinzip
Zunächst soll das sogenannte Multimedia-Prinzip kurz vorgestellt werden. Dieses dient als Grundlage für die Entwicklung der anschließend aufgeführten grundlegenden Prinzipien und zahlreicher weiterer (Mayer, 2014, S. 175). Das Multimedia-Prinzip besagt, dass Menschen besser und effektiver mit Worten und Bildern lernen, als nur mit Worten allein (ebd.). So führt beispielsweise eine multimediale Präsentation zur Funktionsweise von Blitzen in anschließenden Wissenstests und bei Transferaufgaben zu besseren Ergebnissen, als es durch eine Erklärung mit reinem Text der Fall wäre (ebd., S. 182). Unter dem Multimedia-Begriff können dabei die verschiedensten Formen visueller und verbaler Inhalte gefasst werden, die kombiniert präsentiert werden (ebd., S. 175). Worte können sowohl gesprochen, als auch geschrieben dargestellt werden und unter Bildern sind alle Formen von statischen oder dynamischen Grafiken zu verstehen, einschließlich Diagramme, Animationen, Simulationen oder Videos (ebd., 2009, S. 224f). Verschiedene Studien haben gezeigt, dass durch die Kombination von beidem ein tieferes Verständnis für den erklärten Sachverhalt erlangt werden kann als durch Materialien, die nur durch Text vermittelt wurden (ebd., 2014, S. 177). Dies wird dadurch begründet, dass bei einer Information lediglich der visuelleoderder auditive Kanal angesprochen wird und keine Verbindung zwischen dem verbalen und dem auditiven Modell hergestellt wird (ebd., 2009, S. S. 223). Insofern kann eine multimediale Präsentation zu einer Verbindung zwischen Wörtern und Bildern führen, was für die generative Verarbeitung (generative processing) und damit für das konzeptionelle Verständnis eines Sachverhalts wesentlich ist (ebd., S. 228). Das Multimedia-Prinzip wurde in den unterschiedlichsten Fachgebieten und für verschiedenste statische oder dynamische Präsentationsformate nachgewiesen jedoch ist es nicht verallgemeinerbar (ebd., 2014, S. 192). So gibt es beispielsweise Hinweise darauf, dass lediglich Lernende mit geringem Vorwissen zum entsprechenden Thema von multimedialen Materialien profitieren (ebd., 2009, S. 238). Diese schnitten bei anschließenden Wissenstests oder Transferaufgaben besser ab als welche, die nur mit Text gelernt hatten. Dagegen können Menschen mit viel Vorwissen auf dem Gebiet nicht wesentlich davon profitieren, wenn dem Text eine Abbildung beigefügt wird, sondern dies kann sich sogar negativ auf den Lernprozess auswirken (ebd.). Neben dem Vorwissen spielt auch die Komplexität des multimedialen Materials eine Rolle und kann das Lernen von Unerfahrenen beeinträchtigen (ebd., 2014, S. 182f). Die Steuerung des Lerntempos durch den Lernenden selbst kann dagegen hilfreich sein (ebd., S. 184). Zuletzt ist die das visuelle Medium immer auch an den Sachverhalt anzupassen. Beispielsweise haben sich Animationen lediglich bei prozeduralem Wissen als geeignet herausgestellt (ebd.).
Es zeigt sich also, dass Materialien, die für Lernende mit geringem Vorwissen von Vorteil sein können, bei solchen mit viel Vorwissen eher von Nachteil sind. Das macht deutlich, dass für einen optimalen Lernerfolg einerseits die Art der zu lernenden Materialien, das Ziel der Vermittlung (Wissen oder tiefergehendes Verständnis), aber auch die Eigenschaften des Lernenden selbst berücksichtigt werden müssen. Da sich das Multimedia-Prinzip vor allem auf die allgemeine Kombination von Bild und Text bezieht, zeigen weitere Prinzipien auf, auf welche Weise diese für einen guten Lernerfolg miteinander kombiniert werden sollen. Einige werden nun näher erläutert.
2.2.2. Split-Attention-Prinzip
Das zweite Prinzip, das vorgestellt wird, ist das der geteilten Aufmerksamkeit. Mayer (2014) nannte es auch das Prinzip der räumlichen und zeitlichen Kontiguität (S. 215). Dieses besagt, dass im multimedialen Unterricht Materialien vermieden werden sollten, bei denen der Lernende seine Aufmerksamkeit auf mehrere, physisch oder zeitlich voneinander getrennte Informationen aufteilen muss (ebd., S. 206f und zum Folgenden). Durch die geteilte Aufmerksamkeit ist es notwendig, die erfassten Bilder und Texte mental zu verknüpfen, was zu einer hohen Belastung des Arbeitsgedächtnisses und damit zu reduzierten Lernleistungen führen kann, auch Split-Attention-Effekt genannt. Sind beispielsweise Bild und Text nicht direkt nebeneinander abgebildet, muss der Lernende zwischen den beiden Informationen hin und her springen, sie miteinander abgleichen und dabei beide im Arbeitsgedächtnis speichern. Dabei können sich schon geringe Abstände zwischen beiden Informationen negativ auf das Lernen auswirken. Aber auch bei nacheinander präsentierten Materialien, wie Bilder und anschließend gesprochenem Text, müssen die getrennten Formate mental koordiniert werden. Durch diese unnötigen mentalen Such- und Integrationsprozesse werden wertvolle Arbeitsspeicherressourcen verbraucht, die nicht mehr für den Lernprozess selbst zur Verfügung stehen. Um dies zu verhindern, sollten Bild und Text integriert dargestellt werden, also dass beispielsweise der Text direkt neben dem Bild steht oder sogar darin eingebettet ist. So muss der Lernende die Informationen nicht mehr mental integrieren und es bleiben mehr Arbeitsspeicherressourcen für die generative Verarbeitung, als den Lernprozess selbst. Der positive Effekt integrierter Formate wurde erstmals anhand von Arbeitsbeispielen aus der Geometrie nachgewiesen, jedoch inzwischen auf die verschiedensten Fachgebieten und Lerngebiete übertragen, wie Physik, Elektrotechnik, Rechnungswesen oder physiologische Prozesse menschlicher Organe (ebd., S. 210/212). Allerdings tritt der Split-Attention-Effekt nur unter bestimmten Bedingungen auf. So gilt er nur bei komplexen Materialien, deren Informationsquellen nicht isoliert voneinander verstanden werden können (ebd., S. 220). Textinformationen, die ein Diagramm neu beschreiben, würden stattdessen zum Redundanzeffekt (siehe Kapitel 2.2.4.) führen (ebd.). Auch gilt das Prinzip nur bei Materialien mit hoher Elementinteraktivität, also bei denen mehrere Elemente gleichzeitig im Arbeitsgedächtnis verarbeitet werden müssen, um den Inhalt zu verstehen, da ansonsten ohnehin eher wenig kognitive Ressourcen für die Verarbeitung benötigt werden würden (ebd., S. 213).
Integrierte Darstellungen sind hierbei lediglich für Lernende mit geringem Vorwissen und/oder geringem räumlichen Vorstellungsvermögen hilfreich, da diese für die Verarbeitung getrennter Informationen mehr kognitive Ressourcen aufwenden müssten (ebd., S. 220/217). Bei Personen mit mehr Vorwissen haben integrierte Abbildungen eher negative Auswirkungen auf das Lernen, da sie weniger Informationen benötigen, die übrigen jedoch in einer integrierten Darstellung nicht ignorieren können. Aus diesem Grund ist für Lernende mit viel Vorwissen eine geteilte Darstellung besser, da nicht relevante Aspekte hierbei leichter ignoriert werden können. Das Phänomen, dass Materialien, die für unerfahrene Lernen von Vorteil sind, sich nachteilig auf das von Erfahrenen auswirken können, wird auch als Expertise-Reversal-Effekt bezeichnet (ebd., S. 221).
Inzwischen haben Forscher nachgewiesen, dass die negativen Auswirkungen bei geteilter Aufmerksamkeit auch ohne zeitliche oder physische Integration vermieden werden können, beispielsweise durch Signaling (siehe Kapitel 2.3.5.) oder künstlich erzeugte Verknüpfungen zwischen räumlich getrennten Bildern und Texten (Mazarakis, 2009, S. 403). Sithole, Chandler, Abeysekera & Paas (2017) fanden zudem heraus, dass Lernende bei Wissens- und Transfertests besser abschneiden, wenn sie verschiedene Elemente selbst zu einer integrierten Darstellung zusammenfügen als solche, die bereits eine vorintegrierte bekommen haben.
2.2.3. Modalitäts-Prinzip
Geht man vom Prinzip der zeitlichen Kontiguität aus, soll Bild und Text möglichst gleichzeitig präsentiert werden. Die gleichzeitig stattfindende Verarbeitung kann jedoch nur garantiert werden wenn das Bild mit gesprochenem Text kombiniert wird. Aus dieser Annahme ist schließlich das Modalitäts-Prinzip entstanden (ebd., S. 89). Dieses geht von der Annahme aus, dass Menschen effektiver aus Abbildungen und gesprochenem Text lernen, als aus Abbildungen und geschriebenem Text (Mayer, 2014, S. 227). Beispielsweise wird die Erklärung einer Animation mittels einer Erzählung und nicht mithilfe von Beschriftungen präsentiert. Erklärt wird der Effekt durch die Annahmen der CTML, dass die Informationsaufnahme des Menschen über zwei getrennte Kanäle im Arbeitsgedächtnis mit begrenzter Kapazität vonstattengeht, den visuellen und den auditiven Kanal. Wird Lernmaterial mittels Bilder und geschriebenem Text präsentiert, so kann dies zu einer Überlastung des visuellen Arbeitsspeichers führen, während der auditive nicht beansprucht wird (ebd.). Aus diesem Grund ist es sinnvoll, einen Teil der Information in den auditiven Kanal zu verlagern und damit den visuellen Teil des Arbeitsgedächtnisses zu entlasten.
Wie die übrigen Prinzipien auch, hat das Modalitäts-Prinzip nur Gültigkeit unter gewissen Bedingungen. So tritt der Effekt einer verbesserten Lernleistung bei einer Verteilung auf beide Kanäle lediglich bei Materialien mit hoher Elementinteraktivität auf (ebd., S. 236f). Darüber hinaus müssen die verschiedenen Materialien alleinstehend unverständlich und nicht redundant sein (ebd.). Damit gilt das Modalitäts-Prinzip unter den gleichen Bedingungen, wie auch schon das Split-Attention-Prinzip. Der Modalitätseffekt konnte bei verschiedensten Unterrichtsmaterialien und Altersgruppen nachgewiesen werden (ebd., S. 238), jedoch gab es auch Ausnahmen. Aufgrund der Flüchtigkeit gesprochener Sprache, hat es sich als wenig sinnvoll herausgestellt, lange, komplexe und für den Lernenden vollkommen unbekannte Informationen in zwei Modalitäten darzustellen (ebd., S. 239). Hierbei sind visuelle Informationen den audiovisuellen überlegen, da ein späteres Nachlesen ermöglicht wird. Wenn Fachbegriffe benötigt werden, die präsentierte Sprache nicht die Muttersprache des Lernenden ist oder dieser hörgeschädigt ist, ist eine rein visuelle Darstellung eher von Vorteil (Mayer, 2009, S. 200). Das Modalitäts-Prinzip bietet sich somit vor allem für kurze, schnelle, aber komplexe Materialien an, bei denen der Lernende nicht nur einzelne Elemente auswendig lernen, sondern diese in eine mentales Modell umwandeln muss (ebd., S. 200/212).
2.2.4. Redundanz-Prinzip
Bisher wurde angedeutet, dass sich das Darstellen von Informationen auf verschiedene Weisen positiv auf das Lernen auswirkt. Das Redundanz-Prinzip stellt dagegen die Annahme auf, dass die Abbildung ein und derselben Materials in verschiedenen Formaten das Lernen eher hemmen kann und diese redundanten Informationen somit weggelassen werden sollten (Mayer, 2014, S. 247). Ein Beispiel für redundante Informationen wäre, wenn zeitgleich zu einer Animation mit gesprochener Erklärung, derselbe Text als Untertitel in der Animation erscheinend würde. Wie bereits beim Split-Attention-Prinzip erläutert wurde, kann eine Information nicht ignoriert werden, wenn sie als integrierte Darstellung abgebildet wird. Insofern werden auch redundante Materialien im Arbeitsgedächtnis verarbeitet, selbst wenn sie nicht zum Verständnis notwendig sind (ebd.). Im visuellen Kanal konkurrieren einerseits geschriebene Wörter und Bilder miteinander und zusätzlich müssen noch auditive Reize verarbeitet werden. Durch die unnötige kognitive Belastung werden wiederum Arbeitsspeicherressourcen verbraucht, die nicht für den Lernvorgang genutzt werden können (ebd.).
Doch auch beim Redundanz-Prinzip muss festgestellt werden, dass dieses keine Rechtfertigung dafür sein kann, niemals gedruckten und gesprochenen Text zu kombinieren. Stattdessen kann dies in manchen Situationen durchaus hilfreich sein, beispielsweise wenn kein Bild vorhanden ist, der Lernstoff schwierige Begriffe enthält, besonders lang und komplex ist oder lediglich wichtige Wörter in geschriebener Form gezeigt werden (Mayer, 2009, S. 134). Auch ist das Prinzip womöglich nicht anwendbar, wenn geschriebener und gesprochener Text nicht gleichzeitig, sondern nacheinander präsentiert werden (ebd., S. 118). Bei schwierigeren Lerninhalten können die negativen Auswirkungen der Redundanz dadurch vermieden werden, dass sie langsamer präsentiert werden oder der Lernende sogar selbst die Geschwindigkeit steuern kann (ebd., S. 134).
Wie bei anderen Prinzipien auch, besitzt auch das Redundanz-Prinzip lediglich Gültigkeit bei Lernmaterial mit hoher Elementinteraktivität und bei Schülern mit eher geringem Vorwissen (Mayer, 2014, S. 253). Mit zunehmenden Kenntnissen können zusätzliche Formate überflüssig werden und Informationen, die für eine Person redundant sind, können für eine andere unerlässlich sein (ebd., S. 258).
2.2.5. Signaling-Prinzip
Das letzte Prinzip des multimedialen Lernens, das in dieser Arbeit vorgestellt werden soll, ist das sogenannte Signaling-Prinzip, auch Cueing-Prinzip genannt. Nach diesem wird davon ausgegangen, dass Menschen besser lernen, wenn ihre Aufmerksamkeit durch das Hinzufügen von Hinweisen auf die wesentlichen Aspekte des Lernmaterials gelenkt wird (Mayer, 2014, S. 163). Studien haben gezeigt, dass vor allem Lernende mit geringen Vorkenntnissen dazu neigen, sich zuerst den auffälligsten Merkmalen zuwenden, egal ob diese relevant sind oder nicht (ebd., S. 165ff und zum Folgenden). Die Verarbeitung nicht relevanter Informationen führt dabei zu einer zusätzlichen kognitiven Belastung, die wertvolle Arbeitsspeicherressourcen verbraucht, die nicht für den Lernvorgang selbst genutzt werden können. Aus diesem Grund ist es wichtig, die Aufmerksamkeit sofort auf das Wesentliche zu lenken. Insofern kann Signaling vor allem beim ersten Schritt der kognitiven Prozesse, der Informationsauswahl von entscheidender Bedeutung sein, aber auch bei der anschließenden Organisation und Integration. Umgesetzt werden kann dies durch Hinweise im Text wie beispielsweise durch Markierungen oder Einfärben bestimmter Wörter. In Bildern können unter anderem Pfeile eingefügt oder wichtige Elemente farblich hervorgehoben werden. Ebenso ist eine Verknüpfung von Bild und Text durch Farbkodierung möglich, bei der zwei zusammengehörige Aspekte in der gleichen Farbe dargestellt werden. Verbal ist Signaling beispielsweise durch entsprechende Intonation oder Zeigewörter möglich (Mayer, 2009, S. 109).
[...]
1Bis zur nächsten Quellenangabe.