Hoe lees je een onderzoeksartikel? Enkele tips voor docenten

Oorspronkelijk was deze blog hier in het Engels gepubliceerd door @greg_ashman. Met zijn toestemming heb ik die in het Nederlands vertaald en ook wat aangepast.

Het is niet makkelijk om een onderzoeksartikel te ontcijferen om te zien of je er iets aan hebt en ik kan mij levendig voorstellen dat menig docent(e) na titel en abstract snel afhaakt. Maar als het de bedoeling is om de professie van docenten uit de handen van onderwijsgoeroes, consulenten, leermiddelenverkopers, over het paard getilde betweters en algehele eduquacks te houden, dan is het toch nodig voor docenten om vaardig te worden in het lezen van onderzoeksartikelen.

Hoewel veel artikelen conceptueel zijn (wat iemand denkt of meent, bijvoorbeeld dat directe instructie geestdodend is of dat toetsen niets dan vergif zijn), beschrijvend zijn (wat deed iemand en wat zag zij/hij of meende zij/hij te hebben gezien, bijvoorbeeld ik gebruikte X of Y en de kinderen waren enthousiast oftewel weinig meer dan een opgeblazen anekdote) of correlationeel zijn (wat hangt samen met wat, bijvoorbeeld dat de meeste heroïneverslaafden of genieën als kinderen melk gedronken hebben, wat niet zegt dat melk drinken tot heroïneverslaving of hoogbegaafdheid leidt, want dat is causaliteit), zal ik het hier over artikelen hebben die over experimenteel onderzoek rapporteren.

Mits goed ontworpen en uitgevoerd, maakt experimente el onderzoek – ook soms interventie-onderzoek genoemd – het mogelijk betekenisvolle conclusies te trekken over een bepaalde “ingreep”.

Hier volgen enkele tips gebaseerd op wat je ‘good practice’ bij het lezen van een experimenteel onderzoeksartikel zou kunnen noemen.

  1. Is het artikel gepubliceerd en waar is het gepubliceerd?

Uitgangspunt is enige vorm van kwaliteitsborging van het onderzoek. Op dit moment – hoe feilbaar dan ook – is het gangbare criterium dat het artikel gepubliceerd is in een ‘peer-reviewed’ wetenschappelijk tijdschrift. De ISI-lijst (tijdschriften die door Thompson-Reuters geïndexeerd zijn en die een zogenoemde impactfactor hebben) of deze website van ICO kunnen je hiermee helpen. Rapporten afkomstig van en gepubliceerd door bedrijven, universiteiten of hogescholen, de overheid of waar dan ook kunnen soms van hoge kwaliteit zijn maar kunnen ook erbarmelijk of zelf vooringenomen zijn. Zie hierover mijn blog Wij van WC-eend voor een mooi voorbeeld.

  1. Lees de abstract, de methode en dan de discussie

Een goede leesvolgorde is: abstract, methode, discussie. De resultaten kunnen vaak zeer technisch en moeilijk te volgen zijn, Dit betekent niet dat je de theoretische introductie of de resultaten helemaal links moet laten liggen – soms zijn er pareltjes daarin – maar …

Eerst, wat wordt er beweerd in de abstract? Vind je een duidelijke vraag? Worden belangrijke resultaten zoals effectgrootte en toetsen van significantie daar gerapporteerd? Zo niet, dan moet je je achter de oren krabben; straks meer hierover.

Vervolgens, gaat het echt over leren of vooral over wat leerlingen menen te hebben geleerd of ervaren? Wordt er geclaimd dat de leerlingen een bepaalde doceeraanpak leuker, motiverendere, saaier, of ….vonden? Zo ja, gooi maar weg. Alles kan leuker of saaier gemaakt worden voor de duur van een experiment en wat een leerling meent te hebben gedaan of geleerd komt meestal niet overeen met de werkelijkheid. Denk hier aan: De meeste mensen vinden vet, zoet en/of zout lekkerder dan flauw, maar dat maakt het eten niet gezonder c.q. beter voor hen. Daar komt nog bij dat bijna alle onderzoeken naar eetgewoontes gebaseerd op wat men zegt te eten of dat is vastgelegd in zogenoemde eetdagboeken nauwelijks overeenkomen met wat mensen daadwerkelijk eten. Waar het in het geval van educatie om gaat, of om zou moeten gaanis dat de ene aanpak leidt tot meer of beter leren dan een andere. Mijn heilige drie-eenheid is dat ieder ingreep in het onderwijs moet leiden tot effectief, efficiënt en/of bevredigend leren; minstens één van de drie zonder afbreuk te doen aan één van de andere twee. Meer bevredigend zonder dat er goed geleerd wordt brengt de leerling niet veel verder.

  1. Hoe worden de deelnemers geselecteerd?

Het beste wat je kan doen is de deelnemers willekeurig selecteren; zogenoemd gerandomiseerd onderzoek met een controlegroep. Doe je het zo, dan is de kans groot dat de toewijzing van een leerling aan de interventie- of controlegroep toevallig is en ook dat de verdeling van beïnvloedende kenmerken of variabelen van leerlingen over de condities gelijk is (in alle condities evenveel jongens als meisjes, zowel slimme als minder slimme leerlingen, evenveel alfa’s als beta’s, enzovoorts). Niet gerandomiseerd onderzoek kan wel, maar hier ligt “bias” op de loer (d.w.z. dat iets anders dan de interventie de eigenlijke oorzaak is van de gevonden resultaten) en daar moet je je van bewust zijn.

 

Hier een voorbeeld. Als de klas van docent(e) Smit de experimentele biologielessen krijgt en die van docent(e) Jansen niet, kan welk gevonden effect dan ook aan iets heel anders liggen dan de gebruikte lesaanpak. Het effect zou eventueel veroorzaakt kunnen worden doorverschil in voorkennis over het onderwerp. Hiervoor zou je vooraf kunnen proberen te controleren door bijvoorbeeld de leerlingen een toets te geven om na te gaan of beide klassen evenveel of even weinig over het onderwerp weten. Maar wat als – door de roostering van de klassen – de klas van Jansen veel leerlingen heeft die Latijn volgen (op het moment dat Smit biologie geeft worden ook de lessen Latijn gegeven) en het onderwerp van de biologieles veel Latijnse woorden bevat zodat de leerlingen van de klas van Jansen de termen beter begrijpen. Het is maar een voorbeeld, maar…Het is bijna onmogelijk om alle manieren waarop groepen systematisch van elkaar kunnen verschillen te identificeren en controleren en dus is het risico altijd dat deze verschillende resultaten kunnen beïnvloeden. Vandaar dat randomiseren altijd beter is.

  1. Hoe ziet de vergelijkende (controle) conditie er uit?

Misschien is het grootste probleem met onderzoek dat de vergelijking tussen de condities slecht is. Stel dat de onderzoekers een school binnen gaan en docenten vragen om zich op te geven voor het meedoen aan een onderzoek naar een nieuwe lesaanpak. De docenten die positief hebben gereageerd vallen dan in de experimentele groep. Zij zullen de experimentele lessen (de interventie) gaan geven. Deze worden dan vergeleken met de “gewone” lessen van de docenten die niet mee wilden doen. Deze groep vormt dus de controlegroep. De docenten die wilden meedoen zouden meer enthousiast of geïnteresseerd kunnen zijn, hetgeen zeer waarschijnlijk is, of misschien zijn ze de betere docenten en dus zou een of meer van deze factoren, en niet de ingreep (de experimentele lessen), de reden kunnen zijn voor gevonden positieve verschillen.

Ook is het zo dat veel studies niet de beste / juiste vergelijking vergelijken. Een vergelijking tussen ‘actief leren’ en hoorcolleges, bijvoorbeeld, zou een positief effect kunnen vinden voor actief leren. Dit is geen probleem. Maar het gevolg trekken dat actief leren beter is dan directe instructie is wel een probleem omdat directe instructie iets heel anders is dan simpel het geven van een hoorcollege. Dit heeft dan te maken met het verkeerd interpreteren c.q. verkeerd hanteren van terminologie door de onderzoekers.

  1. Is er maar één verschil tussen de condities?

Een sleutelprincipe in de wetenschap is dat je maar één ding tegelijk mag veranderen tussen condities. De vraag is dan: Wat is dat ‘ding’ in de sociale wetenschappen? Vaak wordt een heel pakket aan maatregelen vergeleken met helemaal niet ingrijpen. Dit kan soms bruikbaar zijn, maar het kan ook leiden tot vergissingen en/of fouten.

Bijvoorbeeld, stel je voor dat je, om de interventie uit te voeren (bv., een lesmethode invoeren met een specifieke tool) docenten ook moet opleiden om op een andere wijze les te geven met de methode en de tool. Met andere woorden, je zorgt ook voor docentprofessionalisering. In de interventie gebruikt de docent(e) de methode en de tool. Als een effect wordt gevonden, is het aanlokkelijk om dat effect toe te schrijven op de ingreep (methode en tool). Maar wij weten dat het volgen van docentprofessionalisering vaak ook zorgt dat docenten beter over hun vak doordenken en dat dit misschien de oorzaak is van het gevonden effect. Een eerlijker vergelijking zou zijn dat je eerst alle docenten, ongeacht de conditie (interventie of controle), dezelfde docentprofessionalisering geven. Verder, omdat de interventie zowel een andere lesaanpak als het gebruik van een tool inhield, weet je ook niet of een van de twee of wellicht beiden misschien het effect hebben veroorzaakt.

Je komt ook een vergelijkbaar probleem tegen als de hoeveelheid les- of oefentijd niet hetzelfde is (lag het aan de ingreep of aan de lestijd?). Je komt zelfs studies tegen waar verschillende onderwerpen aan de orde komen! Denk aan een onderzoek naar de effecten van het ophalen van taakrelevante voorkennis (over de bloedsomloop) versus taak-irrelevante voorkennis (over een bepaald televisieprogramma) op het uitvoeren van een taak. De onderzoekers rapporteren dat de eerste groep het veel beter deed dan de tweede en constateren dat het ophalen van taakrelevante voorkennis het ei van Columbus is. Maar wat was er gebeurd als je de tweede groep een les of een video over bloedomloop had gegeven voordat zij de taak uitvoerden in plaats van het ophalen van taak-irrelevante kennis! In het tweede geval hadden de onderzoekers een conclusie kunnen trekken over het effect van het ophalen van voorkennis op het leren. Op basis van zo’n soort onderzoek mag je eigenlijk NIETS concluderen.

  1. Wat wordt als uitkomst getoetst?

Regel 1 van onderwijspsychologie is dat mensen leren wat je doceert en niet leren wat je niet doceert. Da’s toch logisch zou de meester (Johan Cruijff) zeggen. Helaas kom ik veel onderzoek tegen waar de onderzoekers niet toetsen wat en hoe er gedoceerd wordt.

Stel, je voert een studie uit waarbij één groep leerlingen onderzoek moet uitvoeren met ballen en hellende vlakken om natuurkundige principes te leren (ontdekkend leren dus) en een andere groep die deze concepten moet leren doordat de docent(e) die uitlegt (expositorisch leren dus). Alle leerlingen krijgen daarna een toets waarbij leerlingen een experiment moeten opzetten en uitvoeren met ballen of speelgoedauto’s of blokken hout op verschillende hellende vlakken. De eerste groep scoort beter en dus concluderen de onderzoekers dat de eerste aanpak (ontdekkend leren) beter is voor het leren / opdoen van ontdekkingsvaardigheden. Helaas klopt hier niets van omdat de tweede groep niet eens de kans kreeg om deze vaardigheden te leren / op te doen. Duh!

Let ook op of het artikel een bijlage heeft met voorbeeldvragen of zelfs de hele toets.

  1. Hoe worden de resultaten geïnterpreteerd?

Behalve als je zelf een goede statistische achtergrond hebt, zou je het beste kunnen kijken naar de statistische significantie en de effectgrootte.

Statistische significantie geeft aan hoe onaannemelijk het is dat een gevonden effect of correlatie op toeval berust en wordt vaak weergegeven door een p-waarde (of betrouwbaarheidsintervallen die ongeveer hetzelfde zijn). Als p<0.05 betekent dit dat, als de interventie eigenlijk geen effect had, de kans op het verkrijgen van de gerapporteerde significante resultaten tegen de 5% was. Dus, één op de twintig keer zou het resultaat helemaal per ongeluk gevonden kunnen worden. Op zich is het weten van deze waarschijnlijkheid bruikbaar, maar het is een waarschijnlijkheid. Verder, een p-waarde is vaak afhankelijk van het aantal metingen; hoe meer deelnemers je gebruikt in een onderzoek, des de groter de kans dat je een kleine p-waarde vindt!

Effectgrootte is iets meer ‘fuzzy’ dan significantie. Heel kort, effectgrootte is een maat voor hoe sterk het effect van een handeling is. Hier ook een paar kanttekeningen: Als het onderzoek slecht ontworpen of uitgevoerd is, heb je sowieso niets aan een effectgrootte. Verder moet je ook rekening houden dat effectgroottes van onderzoeken met oudere leerlingen kleiner zullen zijn dan onderzoeken met jongere leerlingen (jongere leerlingen hebben meer te leren en dus zal een ingreep leiden tot een groter effect). Dit is ook het geval met gestandaardiseerde toetsen vergeleken met toetsen die door de onderzoekers zelf worden gemaakt. Niets verdacht hier omdat de focus van gestandaardiseerde toetsen vaak veel breder is – dus die toetst veel meer dan waar de les(sen) over ging(en) – dan de van toetsen van een toets die specifiek voor het onderzoek word ontwikkeld. Bij het lezen van een artikel moet je gewoon hieraan denken; met andere woorden effectgrootte moet je soms relativeren.

Je kan ook effectgrootte gebruiken om iets te leren van slecht ontworpen / gecontroleerd onderzoek. Als leesinterventie A een groter effect oplevert in vergelijking met niets doen dan leesinterventie B ten opzichte van niets doen, dan zou je kunnen concluderen dat A beter is dan B.

Greg schreef hier een blog over statistische toetsen.

  1. Tot slot

Als je niet kan nagaan of een onderzoek peer-reviewed was (tip 1), of tips 3-6 problemen opleveren, zie dit dan als een slecht teken. En wil je meer lezen over waarheid of waarheidsachtigheid van onderzoek, kan je dat hier vinden.

 

Postscript

In een recente blog van Larry Cuban over de vraag of een technologisch tool groei van leerlingen echt veroorzaakt had, geeft hij ook wat tips.

#1: Zoek de “caveat” (voorbehoud) opmerkingen omdat zulke opmerkingen de studie – misschien – in diskrediet brengen. Hij geeft een voorbeeld van een rapport over een rekenprogramma “Although these findings cannot be attributed to the program without the use of an experimental design, the results appear encouraging. Achievement gains of TtO students, on average, were strong.”

#2: Wees op je hoede voor studies die “grote groei” enzovoorts rapporteren zonder dat de daarvoor noodzakelijke experimenten uitgevoerd zijn of zonder dat de complexiteit van de data wordt toegelicht.

 

Herblog naar hartenlust en

Volg mij ook op Twitter @P_A_Kirschner

 

Je kan ook de blogs lezen die ik samen met Mirjam Neelen in het Engels schrijf over onderzoek, leren en professionele ontwikkeling (in bedrijven).

About Paul Kirschner

Paul A. Kirschner is Universiteishoogleraar aan de Open Universiteit. Daarvoor was hij hoogleraar Onderwijspsychologie en directeur van het Fostering Effective, Efficient and Enjoyable Learning environments (FEEEL) programma aan het Welten-instituut (OU).. Hij is ook Visiting Professor Onderwijs met een leerstoel in Leren en Interactie in de Lerarenopleiding aan Oulu University (Finland). Hij is een internationaal erkende expert op zijn gebied en heeft zitting gehad in de Onderwijsraad in de periode 2000-2004 en is tegenwoordig lid van de Wetenschappelijk Technische Raad van SURF. Hij was President van de International Society for the Learning Sciences (ISLS) in de periode 2010-2011 en is tevens Fellow van de American Educational Research Association (en de eerste Europeaan die deze eer ontving). Hij is redacteur bij de hoog aangeschreven wetenschappelijke tijdschriften Journal of Computer Assisted Learning en Computers in Human Behavior, en hij is auteur van Ten steps to complex learning (Routledge/Erlbaum). Hij schrift ook regelmatig voor Didactief (de kolom KirschnerKiest over wat docenten kunnen met wetenschappelijke resultaten) en voor Van 12-18. In maart verscheen zijn nieuwe boek Urban Myths about Learning and Education. Hij wordt gezien als expert op veel gebieden en vooral computerondersteund samenwerkend leren (CSCL), het ontwerpen van innovatieve, elektronische leeromgevingen, mediagebruik in het onderwijs en het verwerven van complex cognitieve vaardigheden.

13 Reacties to “Hoe lees je een onderzoeksartikel? Enkele tips voor docenten”

  1. Dit is op X, Y of Einstein? herblogden reageerde:

    Als het boek dat ik vertaalde van Daniel Willingham stap 1 is, dan is deze blogpost een mooie tweede stap als je met onderzoek en onderwijs wil bezig zijn als docent.

    Like

  2. Hallo Paul,

    Ik las een tijdje geleden, dat je significantie alleen kunt rapporteren, als de toewijzing van de leerlingen aan de controlegroep of de interventiegroep gerandomiseerd plaatsvindt. Dit is volgens mij bijna nooit het geval in onderwijskundig onderzoek, omdat we veelal uitgaan van hele klassen. Als je hele klassen indeelt in de controle- of de interventiegroep (op basis van toeval), kun je dan conclusies trekken over het effect op de individuele leerling? Vaak zitten leerlingen niet toevallig in klas A of B, maar zit er een selectiemechanisme achter.

    Like

    • Jan,
      Inderdaad een probleem. Je kan per klas gaan randomiseren en zelfs dezelfde docent(e) meerdere klassen laten geven waardoor die zowel interventie als controle is. Probleem hier os wat heet een crossover effect: iets van de interventie toch toepassen in de controle. Een tweede is gebruik te maken van een quasi-experimentele design die ook counterbalsnced is. Campbell & Stanley bieden hier de nodige designs (16 in totaal meen ik) met uitleg van waar en wanneer en waarvoor ieder design voldoet.

      Like

  3. Goed leesbaar stuk. Bedankt!

    Like

  4. Fijn stuk om te lezen. Toegespitst op onderwijs, maar ook breder toepasbaar. Dit zouden alle mensen moeten lezen die graag met rapporten zwaaien.
    Hartelijk dank,
    Rob Arts

    Like

      • Hallo Paul,

        Ik ben op dit moment bezig met mijn Master OWK in Utrecht en in het kader van paradigma’s moesten wij het volgende artikel lezen:

        Guba, E. G., & Lincoln, Y. S. (1994). Competing paradigms in qualitative research. Handbook of qualitative research, 2, 163-194.

        Dit staat qua perspectief op onderzoek (deels) haaks op wat u in het bovenstaande blog helder en concreet uitlegt. Ik vroeg me af wat uw standpunt in combinatie met het artikel daarin is.
        Bedankt voor al uw blogs, ik lees ze met interesse en ze helpen me enorm om onderwijs en wetenschap (voor collega’s) met elkaar te verbinden.

        Vriendelijke groeten,

        Lars Veerhoff

        Like

      • Beste Lard,

        Bedankt. Kort gezegd, Guba en Lincoln hebben het over kwalitatief onderzoek; ik niet. Kwalitatief onderzoek is uitstekend als je heel diep op een geobserveerde verschijnsel in wil gaan, maar niet echt de manier om generaliseerbare en voorspelbare interventies te onderzoeken.

        Like

  5. Allemaal waar. Zonder twijfel. Maar toch een bedenking. Op alfabetcode.be heb die al eens uit de doeken gedaan onder de titel ‘Wat kunt u nog geloven?’ Daarom citeer ik gewoon even mezelf.

    Het is eigenlijk om gek van te worden: over vrijwel alles is er wel een studie. Kinderen leren beter met hun schoenen uit. Lezen doen ze beter met een uitgekiend verlichtingssysteem in de klas. Daar is allemaal wetenschappelijk onderzoek over. Maar wat hebt u daaraan?

    Om u het bos door de bomen te helpen zien schreef cognitief psycholoog Daniel Willingham een vlot en heerlijk helder boek: When Can You Trust The Experts? Pedagoog Pedro De Bruyckere zorgde voor een Nederlandse bewerking: Wat we kinderen echt kunnen leren.

    Ik heb De Bruyckeres bewerking nog niet ingekeken, maar hij zou het al erg bont moeten hebben gemaakt om Willinghams boek de status van absolute aanrader te ontnemen. En toch is er iets wat me steekt aan het wetenschappelijke onderzoek, zelfs als het prima is uitgevoerd.

    Dat zit zo. John Hatties onnavolgbare overzichtsstudie Visible Learning culmineert in een soort hitlijst van de meest effectieve onderwijspraktijken. Op plaats 8 – net bóven goede feedback – staat een element waaraan Hattie welgeteld zeven tekstregels commentaar besteedt: teacher clarity. Hatties bondigheid is volkomen begrijpelijk: dat helderheid beter is dan wazigheid en warrigheid is zo vanzelfsprekend dat het niet hoeft te worden toegelicht of onderzocht.

    Het gevolg laat zich raden: onderzoek over wat werkt in het onderwijs gaat bijvoorbeeld wél over schoenen en verlichting, maar niet over helderheid. Zelfs niet over de vraag of het onderwijs dat kinderen krijgen voldoende helder is.

    Door dat manifeste gebrek aan aandacht is teacher clarity de verwaarloosde achilleshiel van het leesonderwijs geworden. Heldere instructie is bij aanvankelijk lezen van levensbelang, maar behalve Dwaalspoor dyslexie toont geen enkele studie aan dat het aan die helderheid schort als het mis gaat. Volgens Philips zijn er echter wel wetenschappelijke aanwijzingen dat het met het licht te maken zou kunnen hebben. Volgens anderen met de schoenen. En als wetenschappers zo over denken, moeten het wel interessante denkpistes zijn.

    thumbnail-wandplaat-mugStelt u zich dat eens concreet voor. In kern 6 van het nieuwe Veilig Leren Lezen leren de kinderen de letter ‘g’. In één klap zowel voor de stemloze klank /ch/ in ‘mug’ als voor de stemhebbende in ‘geit’. Zou u het een goed idee vinden om in kern 3 waar de letter ‘d’ aan bod komt, naast het woord ‘doos’ ook meteen ‘rood’ aan te bieden? Neen, denkt u, van die letter ‘d’ die in ‘rood’ niet voor de klank /d/ maar voor een stemloze /t/ staat, zouden kinderen in de war raken. Als dat zo is, kunnen ze vanwege ‘mug’ net zo goed in war raken over /g/ en /ch/. En wat hebben ze dan nodig: wat meer teacher clarity of een SchoolVision-lichtsysteem?

    Wat mij steekt aan aan de roep om evidence based onderwijs is dus dat hij al te vaak de aandacht afleidt van evidente oplossingen waarvoor onderzoekers de evidence niet aanleveren omdat ze het onderzoeksthema geen onderzoek waard vinden. Teacher clarity illustreert dat punt. Het staat helemaal bovenaan in de lijst met de meest effectieve onderwijspraktijken, toch lijkt niemand er oog voor te hebben. Maar: zolang die clarity beter kan, hoeven we de oplossing voor de problemen van moeilijk lerende kinderen niet veel verder te zoeken: niet bij de lampen in de klas, niet in de schoenen van de kinderen, niet in hun genen, niet in hun brein. Laten we die allereerst zoeken in de helderheid van wat we ze hebben aangeboden. Als vrieswonden perfect te verklaren zijn door extreme koude, dan hoeven we ook niet op zoek te gaan naar sneeuwmicroben of bijtgrage kobolden die bij lage temperaturen onzichtbaar worden.

    Like

  6. Mag er nog een negende puntje bij? Naast “wat wordt er als uitkomst getoetst?” lijkt het me zeer belangrijk om te kijken naar *wanneer* er getoetst wordt. Zeer veel onderzoek kijkt alleen naar effecten op korte termijn, direct na de “ingreep”. Helaas zijn de effecten op korte termijn vaak het omgekeerde van effecten op langere termijn. Soderstrom en Bjork (2015) gaven daarvan een overtuigende resem voorbeelden (bv. het “spacing effect”). Deze auteurs beschouwen – wat mij betreft terecht – leren (Learning) als een effect op lange termijn (enkele maanden), terwijl veel onderzoek alleen aandacht heeft voor prestatie (Performance) op korte termijn (enkele uren of dagen). Longitudinaal onderzoek over vele jaren levert nog meer inzicht. Sommige piepkleine effectgroottes (gemeten op korte termijn) kunnen op lange termijn een reusachtig verschil geven, op voorwaarde dat het effect cumulatief werkt. Stel bv. dat je een enorme effectgrootte hebt bij een nieuwe methode om maaltafels te leren, en een piepkleine bij een nieuwe methode om begrijpend lezen (“lezen om te leren”) te bevorderen. Dan is het best mogelijk dat op een termijn van tien jaar dat piepkleine effect tot een veel groter verschil leidt dan die maaltafelmethode (ik verzin maar wat).
    Schwartz, Lindgren en Lewis (2009) vinden het daarnaast belangrijk om “leren” niet (alleen) te definiëren als het verwerven van “oude” kennis, maar om te kijken naar de mate waarin de lerenden in de toekomst kennis zullen kunnen construeren uit informatiebronnen en de opgedane kennis in nieuwe toepassingen zullen kunnen inzetten. Zij pleiten daarom voor “constructivist assessments” waarin deze vorm van leren getoetst wordt. Hun onderzoek toonde bijvoorbeeld overtuigend aan dat lerenden eerst laten worstelen om zelf problemen op te lossen en hen DAARNA uitgewerkte voorbeelden en/of directe instructie te geven, tot veel betere resultaten leidde dan hen direct de ‘juiste oplossing’ voor te schotelen. Dit verschil was echter alleen zichtbaar wanneer men toetste in welke mate ze in staat waren om informatie uit een nieuwe tekst in te zetten in een nieuw probleem (d.w.z. in welke mate ze kennis konden construeren en deze transfereren). De “klassieke” toetsen van “leren” toonden geen verschil. “Ontdekkend leren” op zichzelf gaf teleurstellende resultaten, maar “ontdekken” gevolgd door “directe instructie” gaf betere resultaten dan alleen maar “directe instructie”, tenminste indien men “leren” mat op een “constructivistische manier”.

    Schwartz, D. L., Lindgren, R. & Lewis, S. (2009). Constructivisiem in an age of non-constructivist assessments. In S. Tobias & T. M. Duffy (red.), Constructivist instruction – Success or Failure? (p. 34-61). New York: Routledge.
    Soderstrom, N. C. & Bjork, R. A. (2015). Learning Versus Performance An Integrative Review. Perspectives on Psychological Science, 10(2), 176-199.

    Like

Trackbacks/Pingbacks

  1. Hoe lees je een onderzoeksartikel? Enkele tips ... - 20 september 2016

    […] Het is niet makkelijk om een onderzoeksartikel te ontcijferen om te zien of je er iets aan hebt en ik kan mij levendig voorstellen dat menig docent(e) na titel en abstract snel afhaakt. Maar als het de bedoeling is om de professie van docenten uit de handen van onderwijsgoeroes, consulenten, leermiddelenverkopers, over het paard getilde betweters en algehele eduquacks te houden, dan is het toch nodig voor docenten om vaardig te worden in het lezen van onderzoeksartikelen.  […]

    Like

  2. Hoe lees je een onderzoeksartikel? Enkele tips ... - 20 september 2016

    […] Oorspronkelijk was deze blog hier in het Engels gepubliceerd door @greg_ashman. Met zijn toestemming heb ik die in het Nederlands vertaald en ook wat aangepast. Het is niet makkelijk om een onderzo…  […]

    Like

  3. Hoe lees je een onderzoeksartikel? Enkele tips voor docenten — Blogcollectief Onderzoek Onderwijs – AcOA Onderzoeksplatform - 3 oktober 2016

    […] via Hoe lees je een onderzoeksartikel? Enkele tips voor docenten — Blogcollectief Onderzoek Onderwijs […]

    Like

Geef een reactie of deel je eigen ervaringen. Graag met je eigen naam ondertekenen, geen pseudoniemen. Anonieme reacties worden verwijderd.

Vul je gegevens in of klik op een icoon om in te loggen.

WordPress.com logo

Je reageert onder je WordPress.com account. Log uit / Bijwerken )

Twitter-afbeelding

Je reageert onder je Twitter account. Log uit / Bijwerken )

Facebook foto

Je reageert onder je Facebook account. Log uit / Bijwerken )

Google+ photo

Je reageert onder je Google+ account. Log uit / Bijwerken )

Verbinden met %s

%d bloggers op de volgende wijze: