Lees je slides niet, en wel hierom!
Al jaren vertel ik dat, volgens cognitieve belastingtheorie, leren en begrijpen verhinderd wordt als je jouw slides (PowerPoint, Prezi, PowToon,…) voorleest. De reden hiervoor is wat heet de redundantie principe (overtolligheidsprincipe; Sweller, 2005). Deze principe komt uit cognitieve belastingtheorie en houdt in dat het aanbieden van overtollige informatie (bv. precies dezelfde informatie via twee of meer verschillende vormen zoals tekst en geluid) het leren negatief beïnvloedt omdat het leidt tot veel meer cognitieve belasting. De cognitieve theorie van multimedia leren (Mayer, 2005) gaat een stapje verder en zegt dat het aanbieden van beelden of animaties samen met gesproken tekst de voorkeur heeft boven het aanbieden van een combinatie van animaties, gesproken tekst en dezelfde tekst op het scherm.
Door beelden met gesproken teksten functioneel te combineren, maken wij goed gebruik van wat dual coding (Paivio, 1969, 1986) heet.

oftewel

Ik voeg hier vaak toe dat een belangrijke reden hiervoor (d.w.z. wij slechter leren/onthouden door overbelasting van het werkgeheugen) is zoiets doen vraagt dat wij multitasken en mensen, als informatieverwerkende systemen, niet kunnen multitasken. Wij kunnen niet meer dan één informatieverwerkend proces tegelijk uitvoeren; hier het semantisch decoderen/begrijpen van wat wij horen tegelijk met het semantisch decoderen/begrijpen van wat wij lezen. Wij kunnen schakelen tussen twee of mee informatieverwerkende processen (task switching) maar dit leidt tot zowel snelheidsverlies als meer fouten. Wij kunnen ook serieel monotasken (eerst één proces uitvoeren en dan aan een andere beginnen); eerst luiteren naar iets and daarna dezelfde tekst lezen. Maar multitasken kunnen wij niet.
Recentelijk is er ook enige neurowetenschappelijk bewijs hiervoor. Fatma Deniz, Anwar O. Nunez-Elizalde, Alexander G. Huth en Jack L. Gallant van de Universiteit van California, Berkeley studeerden hoe mensen gesproken en geschreven taal verwerken. Specifiek keken zij naar welke delen van de hersenen bezig waren bij het beluisteren c.q. lezen en dan semantisch verwerken en representeren van die gesproken en geschreven teksten. Zij schrijven:
Mensen kunnen de betekenis van woorden uit zowel gesproken als geschreven taal begrijpen. Het is daarom belangrijk om de relatie tussen de hersenrepresentaties van gesproken of geschreven tekst te begrijpen. Hier laten we zien dat hoewel de representatie van semantische informatie in het menselijk brein vrij complex is, de semantische representaties die worden opgeroepen door luisteren versus lezen bijna identiek zijn. Deze resultaten suggereren dat de taal-semantische representatie van een tekst onafhankelijk is van de sensorische modaliteit waardoor de semantische informatie wordt ontvangen.
In het Engels:
Humans can comprehend the meaning of words from both spoken and written language. It is therefore important to understand the relationship between the brain representations of spoken or written text. Here we show that although the representation of semantic information in the human brain is quite complex, the semantic representations evoked by listening versus reading are almost identical. These results suggest that the representation of language semantics is independent of the sensory modality through which the semantic information is received.
Beste mensen: Het begrijpen van taal is een complex proces waarbij veel hersengebieden betrokken zijn. Vroeger dacht men dat de hersenen anders omgingen met gesproken en geschreven informatie. Dit blijkt niet het geval te zijn. Eerste auteur Fatma Deniz zei in een interview: “We wisten dat een paar hersengebieden op dezelfde manier werden geactiveerd als je een woord hoort en hetzelfde woord leest, maar ik verwachtte niet zulke sterke overeenkomsten in de betekenisrepresentatie over een groot netwerk van hersengebieden in beide sensorische modaliteiten.”
Met andere woorden nog meer bewijs waarom het combineren van functionele beelden met gesproken uitleg veel beter werkt dan een stel bullets op een slide die je voorleest.

Deniz, F., Nunez-Elizalde, A. O., Huth, A. G., & Gallant, J. L. (2019). The representation of semantic information across human cerebral cortex during listening versus reading is invariant to stimulus modality. Journal of Neuroscience, 39, 7722–7736. https://doi.org/10.1523/JNEUROSCI.0675-19.2019
Mayer, R. E. (2005). Principles for reducing extraneous processing in multimedia learning: Coherence, signalling, redundancy, spatial contiguity, and temporal contiguity principles. In R. E. Mayer (Ed.), The Cambridge Handbook of Multimedia Learning (p 183-200). New York, NY: Cambridge University Press.
Paivio, A. (1969). Mental imagery in associative learning and memory. Psychological Review, 76, 241-263. http://dx.doi.org/10.1037/h0027272
Paivio, A. (1986). Mental representations: A dual-coding approach. New York, NY: Oxford University Press.
Sweller, J. (2005). The redundancy principle in multimedia learning. In R. E. Mayer (Ed.). The Cambridge Handbook of Multimedia Learning. (p 159-167). New York, NY: Cambridge University Press.