Walter Herzog - Condorcet https://condorcet.ch Bildungsperspektiven Tue, 23 Mar 2021 20:09:59 +0000 de-DE hourly 1 https://condorcet.ch/wp-content/uploads/2019/05/favicon-100x100.png Walter Herzog - Condorcet https://condorcet.ch 32 32 Die Zeit macht Erziehung und Unterricht unberechenbar https://condorcet.ch/2021/03/die-zeit-macht-erziehung-und-unterricht-unberechenbar/?utm_source=rss&utm_medium=rss&utm_campaign=die-zeit-macht-erziehung-und-unterricht-unberechenbar https://condorcet.ch/2021/03/die-zeit-macht-erziehung-und-unterricht-unberechenbar/#respond Tue, 23 Mar 2021 20:09:59 +0000 https://condorcet.ch/?p=8083

Unterricht und Lernen detailliert zu planen, birgt die Gefahr, die Offenheit der Zukunft zu verbannen. Condorcet-Autor Walter Herzog mahnt uns in seinem Beitrag, die Wirkungserwartungen an unser pädagogisches Handeln zu mässigen.

The post Die Zeit macht Erziehung und Unterricht unberechenbar first appeared on Condorcet.

]]>
Walter Herzog: Wirkungserwartungen von phantastischen Ausmassen.

Die Sprache, in der wir über Erziehung und Unterricht reden, ist reich an Bildern, die Erwartungen wecken, die uns leicht in die Irre führen. Handwerkliche, technische und gestalterische Metaphern wie Formung, Einwirkung, Übertragung oder Aufbau suggerieren, pädagogische Prozesse liessen sich planen und mit kalkulierbarer Sicherheit zum Ziel führen. Eine Bau- und Wegmetaphorik lässt das pädagogische Handeln als kontrollierbare Bewegung im Raum erscheinen. Daraus ergeben sich Wirkungserwartungen von phantastischem Ausmass. Familie und Schule scheinen zu Leistungen fähig zu sein, die sich am Massstab von industriellen Fertigungsprozessen messen lassen.

Irreführende Raummetaphorik

Besonders irreführend ist die Raummetaphorik, weil sie den Eindruck erweckt, Erziehung und Unterricht liessen sich in ihrem Verlauf von Anfang bis Ende überblicken. Ausgeblendet wird der zeitliche Charakter von Lehren und Lernen. Das Aufwachsen eines Kindes ist ein langwieriger Prozess, den im Voraus niemand zu kalkulieren vermag. Das Handeln von Eltern und Lehrpersonen folgt nicht einer räumlichen, sondern einer zeitlichen Logik, die den Handlungserfolg nur bedingt vorhersagen lässt. Erziehung und Unterricht sind wechselhafte und unstetige Phänomene, die missverstanden werden, wenn wir sie einer Raum­ und Blickmetaphorik unterwerfen.

Da wir die gelebte Zeit nicht zu überblicken vermögen, können wir immer nur vermuten, aber nie wissen, was uns die Zukunft bringen wird.

Erziehung und Unterricht zeitgemäss zu denken, ist allerdings nicht einfach. Denn auch von der Zeit haben wir eine räumliche Auffassung. Die Zeit unserer Uhren ist eine verräumlichte Zeit, die wir der Linearisierung unserer Erfahrung verdanken. Als metrische Zeit ist sie nicht gelebte, sondern berechnete Zeit. Soll die Zeit für das Verständnis pädagogischer Prozesse fruchtbar gemacht werden, muss sie daher als modale Zeit begriffen werden. Die modale Zeit beruht nicht auf einem kontinuierlichen und homogenen Fliessen, sondern gliedert sich in qualitativ differente Zonen, die wir nach Vergangenheit, Gegenwart und Zukunft unterscheiden. In ihrer dreifachen Differenzierung entzieht sich die modale Zeit der synoptischen Gesamtschau. Da wir die gelebte Zeit nicht zu überblicken vermögen, können wir immer nur vermuten, aber nie wissen, was uns die Zukunft bringen wird.

Ohne Zukunft keine Sozialität

 

Die soziale Dynamik wird ausgeblendet.

Es ist die Offenheit der Zukunft, die wir von uns fernhalten, wenn wir unterstellen, Erziehung und Unterricht liessen sich überschauen und planen. Zu ungewiss, zu instabil und zu riskant scheint uns eine Wirklichkeit zu sein, die wir nicht zu beherrschen vermögen. Doch mit dem Ausschluss der modalen Zeit geht auch die Sozialität pädagogischer Prozesse verloren. Die Interaktionen, die sich zwischen Erziehenden und Zu-Erziehenden, Lehrenden und Lernenden abspielen, können durch Raum- und Blickmetaphern nicht erfasst werden, da diese immer nur den Standpunkt einer Seite zur Darstellung bringen. Die soziale Dynamik, die Erziehung und Unterricht zugrunde liegt, wird ausgeblendet, wenn wir die pädagogische Wirklichkeit auf ihre räumlichen Aspekte reduzieren.

Diese Ungewissheit ist grundsätzlich nicht beherrschbar, auch nicht mittels koerziver Techniken der Sozialintegration wie Macht, Gewalt, Unterdrückung oder Strafe.

Die Interaktionen in Familie und Schule führen zu unüberschaubaren Abläufen, die mit hoher Ungewissheit verbunden sind. Diese Ungewissheit ist grundsätzlich nicht beherrschbar, auch nicht mittels koerziver Techniken der Sozialintegration wie Macht, Gewalt, Unterdrückung oder Strafe. Gefragt sind vielmehr Medien der Gestaltung von sozialer Ordnung, die dem zeitlichen Charakter pädagogischer Wirklichkeit gerecht werden.

Unüberschaubare Abläufe, hohe Unsicherheit.

Sozialität und Gegenseitigkeit

Solche Medien liegen in Interaktionsformen vor, die eine reziproke Struktur aufweisen. Im Unterschied zu komplementären Beziehungen, die auf statischen Entsprechungen beruhen – wie Käufer und Verkäufer oder Täter und Opfer –, bilden reziproke Beziehungen dynamische Muster, deren Seiten ständig wechseln. Das gilt beispielsweise für Gespräche, Begegnungen oder Spiele. Es gilt auch für abstraktere Medien der Sozialintegration wie Vertrauen und Anerkennung. In allen diesen Fällen ist nicht vorhersehbar, was die Zukunft bringen wird – wie das Gespräch ausgehen wird, welchen Verlauf die Begegnung nehmen wird, wann das Spiel enden wird, ob das Vertrauen oder der Respekt von der Gegenseite erwidert werden.

Wir müssen bereit sein, auch die Unberechenbarkeit von Erziehung und Unterricht anzuerkennen und die Wirkungserwartungen an unser pädagogisches Handeln zu mässigen.

Aber genau solche reziproken Formen der Interaktion sind es, die pädagogisches Handeln überhaupt möglich machen. Das kann uns nur bewusst werden, wenn wir die räumliche Metaphorik, in der wir über Bildung und Erziehung reden, relativieren. In einer zum überschaubaren Raum erstarrten Welt gibt es keine Gegenseitigkeit. Nur in der Perspektive der modalen Zeit kann die Sozialität pädagogischer Prozesse begriffen werden. Dann aber müssen wir bereit sein, auch die Unberechenbarkeit von Erziehung und Unterricht anzuerkennen und die Wirkungserwartungen an unser pädagogisches Handeln zu mässigen.

 

The post Die Zeit macht Erziehung und Unterricht unberechenbar first appeared on Condorcet.

]]>
https://condorcet.ch/2021/03/die-zeit-macht-erziehung-und-unterricht-unberechenbar/feed/ 0
Covid-19 und die Unterrichtsforschung, 4. Teil https://condorcet.ch/2020/07/covid-19-und-die-unterrichtsforschung-4-teil/?utm_source=rss&utm_medium=rss&utm_campaign=covid-19-und-die-unterrichtsforschung-4-teil https://condorcet.ch/2020/07/covid-19-und-die-unterrichtsforschung-4-teil/#comments Thu, 23 Jul 2020 10:46:13 +0000 https://condorcet.ch/?p=5834

4. und letzter Teil von Walter Herzogs Serie über Möglichkeiten und Grenzen der Unterrichtsforschung. Hier geht es im Schwerpunkt um die Fallstudie versus empirische Gruppenforschung. Das Fazit seiner Ausführungen liefert Walter Herzog am Schluss seines Beitrags.

The post Covid-19 und die Unterrichtsforschung, 4. Teil first appeared on Condorcet.

]]>
Professor Walter Herzog: Praktischer Nutzen von Unterrichtsforschung ist beschränkt.

Dank der Corona-Krise gewinnt der Wissenschaftsjournalismus, der in den letzten Jahren an Einfluss verloren hat, wieder an Bedeutung. Die Erwartung, Wissenschaft und Forschung könnten unsere Wissensdefizite hinsichtlich des neuen Virus beheben sowie wirksame Massnahmen zu dessen Bekämpfung bereitstellen, ist gross. Dabei decken uns die Medien nicht nur mit Fakten ein, sondern geben uns auch die seltene Gelegenheit, gleichsam in Echtzeit zu beobachten, wie eine moderne Forschungswissenschaft funktioniert.

Was wir dabei erfahren, ist aber nicht auf die Disziplinen beschränkt, die sich – wie Virologie und Epidemiologie – direkt mit dem Virus befassen, sondern lässt sich auf weitere Fachgebiete übertragen. So auch auf die Unterrichtsforschung, die im Fokus einer Serie von vier Beiträgen steht, in denen ich der Frage nachgehe, wie diese pädagogische Kerndisziplin arbeitet und wie deren Leistungen zu beurteilen sind. Nachdem wir uns im zweiten und dritten Teil mit dem Experiment und der Statistik auseinandergesetzt haben, steht im abschliessenden vierten Teil die Fallstudie als methodisches Paradigma der Unterrichtsforschung zur Diskussion. Zudem werde ich versuchen, die drei Paradigmen einer Gesamtbeurteilung zu unterziehen.

Idealtypische Darstellung

Nicht mehr das Individuum, sondern Gruppen.

Wie im ersten Teil angemerkt, hat meine Darstellung idealtypischen Charakter. Das heisst unter anderem, dass die einander kontrastierend gegenübergestellten Paradigmen des Experiments und der Statistik in der Forschungsrealität selten in Reinform vorkommen. Einerseits war die experimentelle Psychologie, wie sie Ende des 19. Jahrhunderts begründet wurde, anfänglich zwar eine Individualwissenschaft, die ihre Versuchspersonen einzeln untersuchte. Aber bereits Ende der 20er Jahre des 20. Jahrhunderts hatte die Statistik so weit in die Planung und Auswertung experimenteller Studien Eingang gefunden, dass seitdem nicht mehr das Individuum psychologische Aussageeinheit ist, sondern Gruppen, namentlich Experimental- und Kontrollgruppen. Die im 2. Teil referierte Kritik am psychologischen Experiment nimmt auf diese Entwicklung Bezug.

Andererseits hat sich die an der Statistik orientierte empirische Sozialforschung, wie sie nach ersten Ansätzen im 19. Jahrhundert zu Beginn des 20. Jahrhunderts entwickelt wurde, von Anfang an Qualitätskriterien unterworfen, die von der Logik des Experiments abgeleitet sind. Erlaubt das Experiment, ein Phänomen unter hinreichend kontrollierten und möglichst replizierbaren Bedingungen systematisch zu untersuchen, nimmt die empirische Sozialforschung für sich in Anspruch, ihren Gegenstand zielorientiert zu analysieren, indem Störfaktoren neutralisiert und nicht-interessierende Variablen konstant gehalten werden. In beiden Fällen geht es darum, die Reliabilität (Zuverlässigkeit) und Validität (Gültigkeit) der Ergebnisse durch Standardisierung des Forschungsdesigns und der Forschungsmethoden optimal abzusichern, sei es vorweg im Rahmen der Untersuchungsplanung, sei es im nachhinein bei der Datenanalyse.

Qualitative Forschung als Alternative?

Reliabilität und Validität sind auch für die Beurteilung des dritten Paradigmas der Unterrichtsforschung relevant, obwohl Fallstudien gerne zugeschrieben wird, eine Alternative zur experimentell und statistisch orientierten Forschung zu sein. Dies mit der Begründung, qualitative Methoden, die in Fallstudien überwiegen, würden dem Forschungsgegenstand Unterricht eher gerecht werden als quantitative, die in der Unterrichtsforschung ansonsten vorherrschen. So meint Uwe Flick (1995), der qualitativen Forschung lasse sich als wesentliches Merkmal der «Primat des Gegenstandes über die Methode» (S. 289) zuweisen.

Nicht selten durchherrscht die qualitative Unterrichtsforschung ein eigentliches Pathos der Gegenstandsnähe, das mit dem Bekenntnis zu einer realistischen Erkenntnistheorie untermauert wird. In jüngster Zeit macht sich aber auch unter qualitativ Forschenden Zweifel breit, ob es tatsächlich so etwas wie eine unbefleckte Erkenntnis sozialer Wirklichkeit gibt. Genauso wenig wie quantitative Forscherinnen und Forscher in der Lage sind, ihre Erkenntnisse im wörtlichen Sinn mit der Wirklichkeit zu vergleichen, vermögen sich ihre qualitativ arbeitenden Peers ausserhalb der Welt zu platzieren, um die Dokumente, die sie über ihren Gegenstand anfertigen, mit diesem zu vergleichen. Dass es eine aussersubjektive Welt gibt, lässt sich kaum bestreiten, aber festzustellen, wie sie beschaffen ist, ist alles andere als trivial.

Fallstudien

Insofern legen die Begriffe ‹quantitativ› und ‹qualitativ› eine falsche Fährte, denn die Alternative, welche die qualitative Forschung bietet, liegt nicht in der Gegenstandsnähe, sondern im Bezug auf den Einzelfall. Wie Flick (1995) aufzeigt, ist eines der kennzeichnenden Merkmale der verschiedenen Ansätze, die in der qualitativen Forschung vorherrschen, «dass mehr oder minder konsequent am Einzelfall angesetzt wird, bevor zu … allgemeinen Aussagen übergegangen wird» (S. 40). Indem sie das Forschungsobjekt ganzheitlich erfassen, vermögen Fallstudien Zusammenhänge aufzudecken, die experimentellen und statistischen Untersuchungen leicht entgehen.

Weil die hohe Intensität der Analyse mit einer geringen Reichweite der Ergebnisse erkauft wird, kommen Fallstudien dem Anekdotischen oft nahe.

Fallstudien stellen nicht wirklich eine Alternative dar.

Damit stellen Fallstudien aber nicht wirklich eine Alternative dar, sondern bilden eine notwendige Ergänzung zur experimentell und statistisch verfahrenden Unterrichtsforschung. Eine Alternative können sie auch deshalb nicht sein, weil eine Schwäche von Fallstudien ihre unklare Repräsentativität ist. Je mehr wir bei einem Untersuchungsergebnis sagen müssen «es kommt darauf an», desto geringer ist dessen Allgemeingültigkeit. Bei Fallstudien kommt es jedoch sehr darauf an, was bzw. wen wir untersucht haben, weil sich dem Einzelfall nicht entnehmen lässt, wie repräsentativ er für die Grundgesamtheit ist, für die er steht.

Weil die hohe Intensität der Analyse mit einer geringen Reichweite der Ergebnisse erkauft wird, kommen Fallstudien dem Anekdotischen oft nahe. Auch die Untersuchung mehrerer Einzelfälle ergibt noch keine Wissenschaft, denn wissenschaftlich interessant sind nicht partikulare, sondern allgemeine Aussagen. Zwar gibt es Versuche, das Problem der Repräsentativität von Fallstudien zu lösen, zu überzeugen vermögen sie aber nur bedingt.

Theorien, die allgemein und einfach sind, sind in der Regel ungenau, Theorien, die einfach und genau sind, sind zumeist partikulär, und Theorien, die genau und allgemein sind, sind nicht einfach.

Ein methodisches Trilemma

Wenn wir an dieser Stelle innehalten und auf unsere Diskussion von Experiment, Statistik und Fallstudie zurückblicken, dann müssen wir feststellen, dass keines der drei Forschungsparadigmen in der Lage ist, für sich allein ein umfassendes Bild des Unterrichts zu zeichnen. Das hat Konsequenzen für die Theorien des Unterrichts, die aus der Unterrichtsforschung hervorgehen. Deren praktischer Nutzen ist offensichtlich beschränkt.

Thorngate: Nicht in der Lage, gesicherte Kenntnisse zu entwickeln.

Das liegt nicht nur an den Schwächen der methodischen Paradigmen, sondern hat auch systematische Gründe. In einer schlüssigen Analyse hat der Sozialpsychologe Warren Thorngate (1976) aufgezeigt, dass eine Theorie sozialen Verhaltens nicht zugleich allgemein (general), einfach (simple) und genau (accurate) sein kann. Möglich ist immer nur die Realisierung von zwei der drei Kriterien. Theorien, die allgemein und einfach sind, sind in der Regel ungenau, Theorien, die einfach und genau sind, sind zumeist partikulär, und Theorien, die genau und allgemein sind, sind nicht einfach. Aus diesem Trilemma scheint es keinen Ausweg zu geben.

Der Organisationspsychologe Karl Weick (2007), der sich Thorngates Argumentation anschliesst, spricht vom Postulat der angemessenen Komplexität und bringt damit zum Ausdruck, dass die drei Unvereinbarkeiten insbesondere bei der Untersuchung von komplexen Phänomenen auftreten. Da es die Unterrichtsforschung anerkanntermassen mit einem komplexen Gegenstand zu tun hat, ist sie gezwungen, diesen zu vereinfachen, um die Methoden des Experiments und der Statistik anzuwenden. Dies tut sie, indem sie Komplexität als Kompliziertheit und organisierte Komplexität als unorganisierte Komplexität deutet. Sie mag damit zu einfachen und allgemeinen Theorien finden, jedoch sind diese nicht genau, weil sie der (organisierten) Komplexität pädagogischer Wirklichkeit nicht gerecht werden. Mittels Fallstudien lässt sich ein Stück Genauigkeit zurückgewinnen, jedoch geht dies auf Kosten der Einfachheit oder Allgemeingültigkeit der Erkenntnisse.

Grenzen der Unterrichtsforschung

Thorngates Postulat zeigt auch, weshalb eine einzelne Studie nicht in der Lage ist, abschliessende Erkenntnisse zu liefern. Wenn Untersuchungen sozialen Verhaltens Ergebnisse liefern, die nicht zugleich allgemein, einfach und genau sein können, dann bedarf es unweigerlich einer Mehrzahl von Studien, um ein verlässliches Bild von einem Forschungsgegenstand zu gewinnen. Erst wenn mehrere Studien mit unterschiedlichem Design und unterschiedlichen Methoden zu vergleichbaren Resultaten führen, können wir annehmen, ein Stück belastbares Wissen über Schule und Unterricht gewonnen zu haben. Aber selbst dann sind wir weit davon entfernt, über «wissenschaftlich gesicherte Erkenntnisse» zu verfügen. Wie jede Forschung ist auch die Unterrichtsforschung ein Suchen nach Mustern in einer Welt, die so reich an Details ist, dass wir nie in der Lage sein werden, sie endgültig zu erfassen.

Wie jede Forschung ist auch die Unterrichtsforschung ein Suchen nach Mustern in einer Welt, die so reich an Details ist, dass wir nie in der Lage sein werden, sie endgültig zu erfassen.

Dabei lässt sich ziemlich genau angeben, wo die Ursachen für die methodischen Probleme der Unterrichtsforschung liegen. Sie liegen in der Zeitgestalt des Unterrichts. In sozialen Systemen, wie der Unterricht eines darstellt, sind Strukturen nicht unabhängig von den Prozessen, die zu den Strukturen führen und diese aufrechterhalten. Da man in einem sozialen System zudem nicht zu jeder Zeit mit allen Mitgliedern des Systems Kontakt haben kann, verändert sich dessen relationale Struktur über die Zeit. Bei Luhmann (1993) steht dafür der Begriff der Temporalisierung von Komplexität, womit gemeint ist, dass Komplexität in sozialen Systemen im Nacheinander realisiert wird. Die Ordnung im Sozialsystem Unterricht kann daher nicht statisch, sondern muss dynamisch gedacht werden.

Die Ordnung im Sozialsystem Unterricht kann daher nicht statisch, sondern muss dynamisch gedacht werden.

Erweist sich die Komplexität des Sozialsystems Unterrichts als zeitliches Phänomen, so reicht ein analytischer Zugang, der die Elemente der Strukturen und deren Relationen aufdeckt, ohne die Wechselwirkungen und interaktionale Dynamik des Systems zu beachten, nicht aus, um zu erkennen, wie das System funktioniert. Vielmehr müsste die Forschung in der Lage sein, den Unterricht in seinem Verlauf aufzudecken, was die Unterrichtsforschung aufgrund der Beschränktheit ihrer methodischen Paradigmen derzeit aber nicht leisten kann. Deshalb müssen wir uns mit dem bescheiden, was die Forschungsparadigmen aktuell hergeben. Dies ist keineswegs wenig, auch wenn wir verständlicherweise gerne mehr hätten.

Von Corona lernen

Wissenschaft und Forschung ist nicht in der Lage, die Leistungen zu erbringen, die von ihnen gemeinhin erwartet werden.

Was also können wir aus der Corona-Krise lernen? Wir können lernen, dass Wissenschaft und Forschung nicht nur anspruchsvoller sind als zumeist angenommen wird. Sie sind auch nicht in der Lage, die Leistungen zu erbringen, die von ihnen gemeinhin erwartet werden. Letzteres gilt zumindest für die Unterrichtsforschung, die nicht nur einen Gegenstand hat, der vermutlich komplexer ist als das Corona-Virus, sondern auch auf Methoden angewiesen ist, deren Anwendung voraussetzt, dass die Komplexität des Gegenstandes reduziert wird. Für die Bildungspolitik und die Bildungspraxis ergeben sich daraus unterschiedliche Konsequenzen.

Im Lichte der von Thorngate postulierten Unvereinbarkeiten wünscht sich die Bildungspolitik einfache und allgemeine Erkenntnisse, die sich in Massnahmen umsetzen lassen, die aufgrund ihrer Verlässlichkeit als alternativlos erscheinen. Solche Erkenntnisse gibt es aber nur, wenn auf Genauigkeit verzichtet wird, was nichts anderes heisst, als dass die Massnahmen so eindeutig und verlässlich nicht sein können wie von der Politik gewünscht.

Zum Opfer gebracht muss damit der Anspruch auf Allgemeinheit, was es verunmöglicht, Empfehlungen auszusprechen, die uneingeschränkt gültig sind.

Anders als in der Bildungspolitik sind in der Bildungspraxis Erkenntnisse gefragt, die nicht einfach und allgemein, sondern einfach und genau sind, denn ohne Wissen um die Besonderheiten der Situation, in der die Erkenntnisse angewendet werden sollen, lässt sich das Handeln in dieser Situation nicht anleiten. Zum Opfer gebracht muss damit der Anspruch auf Allgemeinheit, was es verunmöglicht, Empfehlungen auszusprechen, die uneingeschränkt gültig sind. Liegt der Preis, den die Bildungspolitik für die Erkenntnisse der Unterrichtsforschung zahlen muss, in deren Ungenauigkeit, muss die Bildungspraxis deren Partikularität in Kauf nehmen.

Kein Wunder, dass sich Bildungspolitik und Bildungspraxis in jüngster Zeit wie fremde Schwestern gegenüberstehen. Denn was die einen wollen (einfache und allgemeine Erkenntnisse), trifft sich nicht mit dem, was die anderen wollen (einfache und genaue Erkenntnisse). Bildungspolitik und Bildungspraxis werden wohl erst dann wieder zueinanderfinden, wenn die falschen Erwartungen an die Leistungsfähigkeit der Unterrichtsforschung einer realistischen Einschätzung ihrer Leistungsmöglichkeiten weichen. Dank des Einblicks, den das Corona-Virus in das Funktionieren einer modernen Forschungswissenschaft bietet, liegt der Zeitpunkt, zu dem dies geschehen wird, vielleicht gar nicht mehr in allzu weiter Ferne.

Literaturverzeichnis

Flick, Uwe (1995). Qualitative Forschung. Theorie, Methoden, Anwendung in Psychologie und Sozialwissenschaften. Reinbek: Rowohlt.

Luhmann, Niklas (1993). Temporalisierung von Komplexität. Zur Semantik neuzeitlicher Zeitbegriffe. In: Ders.: Gesellschaftsstruktur und Semantik, Bd. 1 (S. 235-300). Frankfurt a.M.: Suhrkamp.

Thorngate, Warren (1976). Possible Limits on a Science of Social Behavior. In: Lloyd H. Strickland, Frances E. Aboud & Kenneth J. Gergen (Eds.): Social Psychology in Transition (pp. 121-139). New York: Plenum Press.

Weick, Karl E. (1995). Der Prozess des Organisierens. Frankfurt a.M.: Suhrkamp.

 

The post Covid-19 und die Unterrichtsforschung, 4. Teil first appeared on Condorcet.

]]>
https://condorcet.ch/2020/07/covid-19-und-die-unterrichtsforschung-4-teil/feed/ 2
Covid-19 und die Unterrichtsforschung, 3. Teil https://condorcet.ch/2020/07/covid-19-und-die-unterrichtsforschung-3-teil/?utm_source=rss&utm_medium=rss&utm_campaign=covid-19-und-die-unterrichtsforschung-3-teil https://condorcet.ch/2020/07/covid-19-und-die-unterrichtsforschung-3-teil/#respond Tue, 14 Jul 2020 08:13:51 +0000 https://condorcet.ch/?p=5735

Im 3. Teil seiner Reihe "Covid 19 und die Unterrichtsforschung" setzt sich der Berner Professor Walter Herzog mit dem Wesen der Statistik auseinander. Dabei begegnet man auch wieder dem bei uns wohlbekannten neuseeländischen Unterrichtsforscher John Hattie und erfährt etwas über Signifikanz und Effektstärke. Herzogs anspruchsvolle Texte sind auch eine Mahnung, beim Zitieren von Studien vorsichtig zu sein.

The post Covid-19 und die Unterrichtsforschung, 3. Teil first appeared on Condorcet.

]]>
Der emeritierte Berner Prof. Dr. Walter Herzog erklärt den Leserinnen und Lesern im 3. Teil seiner Arikel-Serie das Forschungsparadigma “Statistik”.

Die Corona-Krise bietet die seltene Gelegenheit, gleichsam in Echtzeit zu verfolgen, wie eine Forschungswissenschaft funktioniert. Was wir dank der Berichterstattung in den Medien über Virologie und Epidemiologie erfahren, ist aber nicht auf diese Disziplinen beschränkt, sondern lässt sich auf andere Disziplinen wie die Unterrichtsforschung übertragen.

Ausgehend von der Unterscheidung der Forschungsparadigmen Experiment, Statistik und Fallstudie bin ich im zweiten Teil meines Beitrags auf die experimentelle Unterrichtsforschung eingegangen. Der Vorzug des Experiments liegt in seinem eingreifenden Charakter, d.h. in der Möglichkeit, den Forschungsgegenstand durch Variation seiner Bedingungen und Kontrolle von Störfaktoren systematisch zu untersuchen.

Enge ethische Grenzen für das Experiment

Aus praktischen und ethischen Gründen sind dem Experiment in der pädagogischen Forschung aber Grenzen gesetzt. So ist es kaum möglich, Schulklassen allein zu Untersuchungszwecken und für die Dauer einer experimentellen Intervention willkürlich zusammenzusetzen oder das Verhalten von Lehrpersonen so weit zu standardisieren, dass es von persönlichen Einflüssen frei ist. Ebenso wenig lassen sich Studien unter Bedingungen durchführen, die sich negativ auf die Schülerinnen und Schüler auswirken könnten. Wo sich experimentelle Eingriffe verbieten, ist man daher auf die Untersuchung natürlicherweise variierender Bedingungen angewiesen. Dabei dient die Statistik als wichtiges Hilfsmittel der Datenanalyse. Davon soll im dritten Teil meines Beitrags die Rede sein.

Organisierte und unorganisierte Komplexität

Warren Weaver, Mathematiker, 1894 -1978: Ins Einfache zerlegen

In einem Aufsatz mit dem Titel Science and Complexity unterschied der Mathematiker Warren Weaver (1948) drei Arten von Problemen, nämlich einfache Probleme, Probleme unorganisierter Komplexität und Probleme organisierter Komplexität. Unerwähnt blieben die komplizierten Probleme, weshalb Weaver die experimentelle Methode lediglich für die Analyse von einfachen Problemen für zuständig hielt. Das ändert aber nichts an der Aussage im zweiten Teil meines Beitrags, wonach auch komplizierte Probleme experimentell untersucht werden können, sofern sie sich in einfache zerlegen lassen.

In der Tat befasst sich die Statistik mit Phänomenen, die zwar von gleicher Art sind, aber in keiner Beziehung zueinander stehen. Das trifft beispielsweise auf die Gesamtheit aller Schülerinnen und Schüler im Alter von 14 Jahren in der Stadt Bern zu, auf alle Einwohnerinnen und Einwohner der Schweiz, die täglich den öffentlichen Verkehr benutzen, oder auf sämtliche Roulettespiele, die an einem Stichtag im Casino Baden stattgefunden haben.

Weavers zweite und dritte Art von Problemen unterscheiden sich dadurch, dass wir es im Fall von unorganisierter Komplexität mit Massenphänomenen zu tun haben, die keine innere Ordnung aufweisen, während im Fall von organisierter Komplexität Phänomene vorliegen, wie wir sie im zweiten Teil des Beitrags erwähnt haben: Wetterlagen, Kerzenflammen und Unterricht. Weaver hielt Probleme organisierter Komplexität aufgrund ihrer Vielschichtigkeit für wissenschaftlich unzugänglich. Ob er damit auch heute noch Recht hat, mag man bezweifeln, jedoch trifft zweifellos zu, dass für die Analyse der verbleibenden Probleme unorganisierter Komplexität die Statistik zuständig ist.

In der Tat befasst sich die Statistik mit Phänomenen, die zwar von gleicher Art sind, aber in keiner Beziehung zueinander stehen. Das trifft beispielsweise auf die Gesamtheit aller Schülerinnen und Schüler im Alter von 14 Jahren in der Stadt Bern zu, auf alle Einwohnerinnen und Einwohner der Schweiz, die täglich den öffentlichen Verkehr benutzen, oder auf sämtliche Roulettespiele, die an einem Stichtag im Casino Baden stattgefunden haben.

Vom Nutzen der Statistik

Wie beim Experiment macht es zunächst den Eindruck, als sei die Statistik für die Untersuchung von pädagogischen Phänomenen wie dem Unterricht nicht geeignet. Denn im Falle einer Schulklasse haben wir es zweifellos nicht mit unorganisierter, sondern mit organisierter Komplexität zu tun. Aber wie das Experiment genutzt werden kann, indem wir Komplexität behandeln, als ob es sich um Kompliziertheit handelt, können wir die Statistik nutzen, indem wir organisierte Komplexität behandeln, als hätten wir es mit unorganisierter Komplexität zu tun. Genau diese Unterstellung liegt den meisten Studien der empirischen Unterrichtsforschung zugrunde.

Statistische Verfahren sind nicht gegenstandsneutrale Methoden, die nach Belieben eingesetzt werden können, sondern beruhen auf mathematischen Modellen, denen Annahmen über die Beschaffenheit des Forschungsgegenstandes zugrunde liegen. Kommt ein statistisches Verfahren zum Einsatz, muss daher gewährleistet sein, dass der Gegenstand den Annahmen des mathematischen Modells entspricht. Zu diesen Annahmen gehört, wie bereits angedeutet, dass die Ereignisse, die in eine statistische Analyse eingehen, unabhängig voneinander sind, also keine innere Ordnung aufweisen. Während das einzelne Ereignis – zum Beispiel der Wurf einer Münze – vielfach determiniert sein kann, ist die Summe der Ereignisse – zum Beispiel eine Serie von hundert Würfen mit derselben Münze – ohne inneren Zusammenhang. Es handelt sich m.a.W. um Zufallsereignisse.

Das heisst auch, dass der Einzelfall statistisch nicht von Belang ist. Was interessiert, sind Zusammenhänge zwischen Variablen

Das heisst auch, dass der Einzelfall statistisch nicht von Belang ist. Was interessiert, sind Zusammenhänge zwischen Variablen und Unterschiede in der Verteilung von Merkmalen, die idealerweise repräsentativ für die Verhältnisse in der Grundgesamtheit sind, über die man sich informieren will. Während die deskriptive Statistik die Daten lediglich beschreibt, hat die schliessende Statistik (Inferenzstatistik) zum Ziel, die Wahrscheinlichkeit abzuschätzen, dass ein Ergebnis zufällig zustande gekommen ist, d.h. nur für die untersuchte Stichprobe gilt, in einer anderen aber möglicherweise anders ausfallen würde. Abgesichert werden solche Schlüsse von der Stichprobe auf die Grundgesamtheit u.a. mit Hilfe von Signifikanztests.

Vom Signifikanztest zur Effektstärke

Signifikanztests verfahren nach einer Logik, die intuitiv nicht leicht nachvollziehbar ist. Denn im Falle eines empirisch aufgedeckten Unterschieds in der Verteilung eines Merkmals wird davon ausgegangen, dass der Unterschied faktisch nicht existiert (sog. Nullhypothese). Danach wird überprüft, wie wahrscheinlich es ist, dass die Nullhypothese zutrifft. Stellt sich nun heraus, dass diese Wahrscheinlichkeit gering ist, wird die eigentlich interessierende Hypothese, dass der Unterschied besteht, als zutreffend akzeptiert. Die Irrtumswahrscheinlichkeit entspricht dem Signifikanzniveau, für das man sich vor Durchführung des Signifikanztests entschieden hat. Dieses liegt nach einer weit verbreiteten Konvention bei α = .05 (eher geringe Wahrscheinlichkeit eines Irrtums), α = .01 (geringe Wahrscheinlichkeit eines Irrtums) oder α = 001 (sehr geringe Wahrscheinlichkeit eines Irrtums).

Ein statistisch signifikantes Ergebnis bedeutet demnach, dass für einen in einer Untersuchungsgruppe (Stichprobe) aufgedeckten Unterschied (zum Beispiel zwischen Jungen und Mädchen) unter der Annahme, dass der Unterschied real nicht existiert, wenig Plausibilität besteht, weshalb gefolgert wird, dass das Ergebnis mit einer gewissen Irrtumswahrscheinlichkeit zutrifft. Wie man sieht, beruht die Argumentation auf einer indirekten Beweisführung, insofern nicht getestet wird, was interessiert (es gibt einen Unterschied), sondern was nicht interessiert (es gibt keinen Unterschied), wobei genau genommen nicht Ergebnisse getestet werden, sondern die Wahrscheinlichkeit, bei der Annahme eines Ergebnisses einem Irrtum zu erliegen. Da das Verfahren rein formal ist, lässt sich aus der Tatsache, dass ein empirisches Ergebnis einen Signifikanztest erfolgreich bestanden hat, nicht schliessen, dass es auch – in theoretischer oder praktischer Hinsicht – relevant ist, und zwar egal welches Signifikanzniveau gewählt wurde.

Der neuseeländische Bildungsforscher Hattie untersuchte die Effektstärke.

Aussagekräftiger hinsichtlich der Bedeutsamkeit von Ergebnissen der Unterrichtsforschung sind im Vergleich mit einem Signifikanztest Masszahlen für deren Effektstärke. Die Effektstärke gibt an, wie gross ein statistisch signifikanter Unterschied zwischen zwei Untersuchungsgruppen ist. Das vieldiskutierte Buch von John Hattie (2009) über die Wirksamkeit verschiedener Einflussfaktoren auf die Lernleistung von Schülerinnen und Schülern beruht ganz auf der Aufbereitung und dem Vergleich solcher Effektstärken. Dabei postuliert Hattie eine Effektstärke von d = .40 als Grenze, ab der ein Ergebnis als pädagogisch relevant beurteilt werden kann. Nach einem Vorschlag von Jacob Cohen gelten Effektstärken von d = .20 als klein, von d = .50 als mittel und von d = .80 als gross. Dementsprechend ist die Glaubwürdigkeit der Lehrperson, die bei Hatte mit einer Effektstärke von d = .90 ausgewiesen wird, von grossem Einfluss auf das Schülerlernen. Von etwas geringerer Relevanz ist die Klarheit der Lehrperson (d = .75), während die Lehrer-Schüler-Beziehung (d = .52) und die Lernunterstützung durch die Eltern (d = .50) von mittlerer und ein schülerzentrierter Unterricht (d = .36), Hausaufgaben (d = .29) sowie die Lehrerpersönlichkeit (d = .23) von geringer Bedeutung für den Lernerfolg der Schülerinnen und Schüler sind.

Hatties Analyse, die inzwischen eine Liste von 277 Wirkfaktoren umfasst, ist typisch für das Vorgehen der Unterrichtsforschung, die ihre Methoden nur einsetzen kann, wenn sie die Komplexität des Unterrichts drastisch reduziert.

Hatties Analyse, die inzwischen eine Liste von 277 Wirkfaktoren umfasst, ist typisch für das Vorgehen der Unterrichtsforschung, die ihre Methoden nur einsetzen kann, wenn sie die Komplexität des Unterrichts drastisch reduziert. Sie tut es, indem sie einzelne Bedingungsfaktoren herauslöst und auf ihren Einfluss auf das Schülerlernen untersucht. Unbeantwortet bleiben dabei die Fragen nach allfälligen Beziehungen oder Interaktionen zwischen den Einflussfaktoren sowie der Veränderung ihrer Wirksamkeit und ihres Zusammenspiels über die Zeit hinweg. Die Komplexität, die bei der Datenerhebung aus methodischen Gründen reduziert wird, lässt sich bei der Datenanalyse nicht zurückgewinnen.

Der ökologische Fehlschluss

Schülerinnen und Schüler existieren zwar im Plural, aber nicht als statistischer Mittelwert.

Da statistische Werte nicht für Einzelfälle, sondern für Verteilungen stehen und diese mittels Kennzahlen wie Mittelwerten oder Streuungsmassen charakterisieren, liegen statistische Aussagen auf einer Ebene, deren Bezug zur Wirklichkeit oft als zweifelhaft erscheint. Was «im Durchschnitt» gilt, kann sich im Einzelfall als falsch erweisen, oder es fehlt ihm eine reale Entsprechung. Schülerinnen und Schüler existieren zwar im Plural, aber nicht als statistischer Mittelwert. Der Schluss von der aggregierten Ebene der Massendaten auf den Einzelfall gilt daher als fehlerhaft und wird ökologischer Fehlschluss genannt.

Wenn sich zum Beispiel in einer Studie, die an 60 Schulklassen durchgeführt wurde, herausstellt, dass Unterrichtsstörungen vorwiegend von Schülern, aber kaum von Schülerinnen ausgehen, dann handelt es sich dabei um ein Ergebnis, das – unter Auswertung sämtlicher Daten auf der globalen Ebene sämtlicher Schülerinnen und Schüler – einen wesentlichen Unterschied zwischen den Geschlechtern markiert. Daraus lässt sich aber nicht schliessen, dass in jeder einzelnen der untersuchten 60 Klassen vorwiegend die Schüler den Unterricht stören. Genauso wenig lässt sich aufgrund des Ergebnisses schliessen, dass es immer nur die Schüler sind, von denen Unterrichtsstörungen ausgehen. Obwohl es statistisch gesehen korrekt ist zu sagen, Schüler würden den Unterricht im Allgemeinen eher stören als Schülerinnen, kann es sich im Einzelnen genau umgekehrt verhalten.

Fiktionale Wirklichkeit?

Mittels statistischer Analysen wird eine «artifizielle Unperson» kreiert.

Man kann dies kritisch beurteilen und die pädagogisch-psychologische Forschung, die sich statistischer Methoden bedient, der Verfehlung des Individuums bezichtigen. So hat Klaus Holzkamp (1985) der modernen Psychologie vorgeworfen, Wissenschaftlichkeit auf Kosten der Subjektivität zu betreiben. Mittels statistischer Analysen werde eine «artifizielle Unperson» (S. 30) kreiert, ein «statistisches Gespenst» (ebd.), das von den realen historischen und gesellschaftlichen Bedingungen, unter denen Menschen in ihrem Alltag leben, losgetrennt sei. Trotz dieser scharfen Kritik glaubte Holzkamp jedoch nicht, dass mit der Verbannung der Statistik aus der Psychologie viel gewonnen wäre. In der Tat ist schwer zu sehen, wie in einer modernen Forschungswissenschaft auf das Instrumentarium der Statistik verzichtet werden könnte.

Die Frage ist daher nicht, ob wir mit Hilfe der Statistik ein falsches Bild von der Unterrichtswirklichkeit gewinnen. Auch im Falle der experimentellen Erforschung des Unterrichts wäre dies eine falsch gestellte Frage. Weder im einen noch im anderen Fall vermögen wir durch die blosse Anwendung einer Methode Klarheit über die Qualität unserer Erkenntnisse zu erlangen. Erst wenn die Ergebnisse einer Studie einem kritischen Diskurs in der Gemeinschaft der Forscherinnen und Forscher unterzogen werden und dem Diskurs standhalten, besteht Anlass zur Vermutung, dass wir einen Zipfel der Wahrheit erwischt haben.

Qualitative Forschung als Alternative?

Die bisherige Diskussion zeigt, dass weder das Experiment noch die Statistik in der Lage sind, die Komplexität der Unterrichtswirklichkeit ohne Abstriche einzufangen. In beiden Fällen muss das Untersuchungsobjekt vereinfacht werden, um einer wissenschaftlichen Analyse zugänglich zu sein. Dies führt nicht selten zum Vorwurf, die empirische Unterrichtsforschung würde ihren Gegenstand verfehlen. Als Alternative werden qualitative Studien empfohlen, die besser in der Lage seien, die komplexe Wirklichkeit von Schule und Unterricht einzufangen. Im vierten Teil meines Beitrags werde ich mich mit dieser Auffassung auseinandersetzen und die Fallstudie als Forschungsparadigma der Unterrichtsforschung unter die Lupe nehmen.

Literaturverzeichnis

Holzkamp, Klaus (1985). Selbsterfahrung und wissenschaftliche Objektivität: Unaufhebba­rer Widerspruch? In: Karl-Heinz Braun & Klaus Holzkamp (Hrsg.): Subjektivität als Problem psychologischer Methodik (S. 17-37). Frankfurt a.M.: Campus.

Hattie, John A. C. (2009).Visible Learning. A Synthesis of Over 800 Meta-Analyses Relating to Achievement. London: Routledge.

Weaver, Warren (1948). Science and Complexity. American Scientist (36), 536-544.

The post Covid-19 und die Unterrichtsforschung, 3. Teil first appeared on Condorcet.

]]>
https://condorcet.ch/2020/07/covid-19-und-die-unterrichtsforschung-3-teil/feed/ 0
Covid-19 und die Unterrichtsforschung, 2. Teil https://condorcet.ch/2020/07/covid-19-und-die-unterrichtsforschung-2-teil/?utm_source=rss&utm_medium=rss&utm_campaign=covid-19-und-die-unterrichtsforschung-2-teil https://condorcet.ch/2020/07/covid-19-und-die-unterrichtsforschung-2-teil/#comments Fri, 10 Jul 2020 04:58:24 +0000 https://condorcet.ch/?p=5668

Im 2. Teil seiner Artikelreihe über die Forschungswissenschaft setzt sich Condorcet-Autor Professor Walter Herzog vertieft mit dem ersten von drei Forschungsparadigmen auseinander: dem Experiment.

The post Covid-19 und die Unterrichtsforschung, 2. Teil first appeared on Condorcet.

]]>
Emer. Prof. Dr. Walter Herzog: Kein Garant für Wahrheit

Die Corona-Pandemie zeigt uns nicht nur, wie sehr wir in unserem Alltag auf wissenschaftliche Erkenntnisse angewiesen sind. Dank der Berichterstattung in den Medien bietet sie uns auch die seltene Gelegenheit, gleichsam in Echtzeit zu beobachten, wie eine Forschungswissenschaft funktioniert. Was wir am Beispiel von Virologie und Epidemiologie sehen, ist aber nicht auf diese Disziplinen beschränkt, sondern lässt sich mit wenigen Modifikationen auf andere Disziplinen wie die Unterrichtsforschung übertragen. Ergebnisse von wissenschaftlichen Studien spielen auch in Schule und Unterricht eine immer grössere Rolle. Umso wichtiger ist es, dass sich die Nutzer der Unterrichtsforschung ein klares Bild von deren Funktionsweise und Leistungsfähigkeit machen.

Im ersten Teil dieser kleinen Serie von vier Beiträgen haben wir gesehen, wie falsch die in Bildungspolitik und Bildungspraxis weit verbreitete Auffassung ist, durch wissenschaftliche Studien liessen sich gesicherte Erkenntnisse gewinnen, um in kontroversen Fragen Entscheidungen herbeizuführen.

Wissenschaftliche Studien spielen eine immer grössere Rolle.

Im ersten Teil dieser kleinen Serie von vier Beiträgen haben wir gesehen, wie falsch die in Bildungspolitik und Bildungspraxis weit verbreitete Auffassung ist, durch wissenschaftliche Studien liessen sich gesicherte Erkenntnisse gewinnen, um in kontroversen Fragen Entscheidungen herbeizuführen. Wissenschaft ist kein Ersatz für Politik, und in einer demokratischen Gesellschaft kann sie es auch gar nicht sein. Wissenschaftliche Forschung bietet auch keine Garantie für Wahrheit, wenn auch in der Wahrheit die regulative Idee der Wissenschaft und deren Kommunikationsmedium liegen.

Diese Aussage soll nun anhand von drei Forschungsparadigmen, die in der Unterrichtsforschung weit verbreitet sind, vertieft werden. Heute geht es um das Experiment, im dritten und vierten Teil werden Statistik und Fallstudie im Mittelpunkt stehen.

Das Experiment als Leitstern moderner Wissenschaft

Zu den Einsichten in das Funktionieren einer modernen Wissenschaft, die wir dank der Corona-Krise gewinnen, gehört, dass nicht jede Disziplin auf gleiche Weise an ihren Gegenstand herangeht. Virologen und Epidemiologen unterscheiden sich in den Methoden, die sie in ihrer Forschungspraxis verwenden, auch wenn es in beiden Disziplinen um Gesundheit und Krankheit geht.

Epidemiologie ist eine Sozialwissenschaft

Es mag ungewohnt sein, die Epidemiologie eine Sozialwissenschaft zu nennen, jedoch ist offensichtlich, dass sie nicht mit Einzelfällen, sondern mit Massenphänomenen beschäftigt ist, die nicht mit naturwissenschaftlichen, sondern mit sozialwissenschaftlichen Methoden untersucht werden. Während in der Epidemiologie statistisch gearbeitet wird, liegt der methodische Fokus der Virologie auf dem Experiment.

René Descartes: Mit dem Einfachsten beginnen …

Das Experiment gilt nicht nur in den Naturwissenschaften als Königsweg der Erkenntnisgewinnung. Seine hohe Wertschätzung verdankt es wesentlich der Tatsache, dass es das analytische Denken, wie es im Schosse der neuzeitlichen Philosophie entwickelt wurde, geradezu idealtypisch in Forschungshandeln umsetzen lässt. Um zu klaren Urteilen zu finden, forderte René Descartes (1964), ein Problem in Anlehnung an das Vorgehen der Mathematik einerseits «in so viele Teile zu teilen, wie es angeht und wie es nötig ist, um es leichter zu lösen» (S. 31), und andererseits «mit den einfachsten und am leichtesten zu durchschauenden Dingen zu beginnen, um so nach und nach … bis zur Erkenntnis der zusammengesetztesten aufzusteigen» (ebd.).

Galileo Galilei 1564 -1642: Mathematik ist die Grundlage.

Auch Galileo Galilei orientierte sich an der Mathematik, als er im Saggiatore die Natur mit einem Buch verglich, das in mathematischen Zeichen geschrieben ist. Mit Hilfe der Mathematik fand er zu völlig neuen Erkenntnissen über die Beschaffenheit der physischen Welt. Wie Carl Friedrich von Weizsäcker (1990) ausführt, stellte Galilei Gesetze auf, «die in der Form, in der er sie aussprach, niemals in der wirklichen Erfahrung gelten und die darum niemals durch irgendeine einzelne Beobachtung bestätigt werden können, die aber dafür mathematisch einfach sind» (S. 107). Während sich Aristoteles und die an ihm orientierte vormoderne Wissenschaft an den natürlichen Erscheinungen orientierte, zeigte Galilei, wie sich neue Phänomene hervorbringen lassen, indem die Natur mit Hilfe des Experiments in ihre elementaren Bestandteile zerlegt wird.

Entgrenzung der alltäglichen Erfahrung

Insofern erschliesst das Experiment einen Zugang zur Wirklichkeit, der hinter die Kulissen der alltäglichen Wirklichkeit führt. In den Worten von Adolf Portmann (1982) verlassen wir mit der experimentellen Forschung den Mediokosmos unserer Lebenswelt und greifen in den Mikrokosmus des unendlich Kleinen und in den Makrokosmus des unendlich Grossen aus. Indem wir zutage fördern, was sich hinter der Bühne des alltäglichen Lebens abspielt, gewinnen wir Einblick in die Kausalstruktur der Wirklichkeit, was es erlaubt, verändernd in den Lauf der Dinge einzugreifen.

Die Entgrenzung der alltäglichen Erfahrung beruht wesentlich darauf, dass der Forschungsgegenstand durch Variation seiner Bedingungen systematisch untersucht wird. Das hat für die Nutzung des Experiments als Instrument der wissenschaftlichen Forschung eine bedeutsame Konsequenz: Nur wenn der Gegenstand ein solches Vorgehen zulässt, kann es sinnvollerweise eingesetzt werden.

Weil die Komponenten komplexer Phänomene – wie zum Beispiel einer Wetterlage oder einer Kerzenflamme – vielfach miteinander verknüpft sind, ihre Dynamik schwer berechenbar ist und Einflüsse von aussen nicht-lineare Effekte zur Folge haben, ist über deren Zustände zu keinem Zeitpunkt ein sicheres Wissen möglich.

Einfach, kompliziert und komplex

Die Kerzenflamme ist ein komplexes Phänomen.

Wenn wir zwischen drei Arten von Phänomenen unterscheiden, nämlich einfachen, komplizierten und komplexen, dann ist das Experiment auf die Erforschung von einfachen und komplizierten Phänomenen zugeschnitten. In beiden Fällen lässt sich der untersuchte Gegenstand in seine Teile zerlegen, ohne dass er zerstört wird. Man denke an eine Maschine, die wir auseinandernehmen, um ihre Funktionsweise zu untersuchen. Setzen wir sie anschliessend wieder zusammen, wird sich nichts Wesentliches verändert haben. Dagegen zerstören wir komplexe Phänomene, wenn wir bei deren Untersuchung in gleicher Weise vorgehen. Weil die Komponenten komplexer Phänomene – wie zum Beispiel einer Wetterlage oder einer Kerzenflamme – vielfach miteinander verknüpft sind, ihre Dynamik schwer berechenbar ist und Einflüsse von aussen nicht-lineare Effekte zur Folge haben, ist über deren Zustände zu keinem Zeitpunkt ein sicheres Wissen möglich. Dementsprechend sind sie analytisch nicht beherrschbar, was das Experiment als Forschungsmethode praktisch ausschliesst.

Der pädagogische Forschungsgegenstand

Auch der Unterricht ist ein komplexes Phänomen.

Was folgt daraus für die Unterrichtsforschung? Ist deren Gegenstand einfach, kompliziert oder komplex? Es besteht wenig Zweifel, dass es sich beim Unterricht um ein komplexes Phänomen handelt. Lehrkräfte sind einer Fülle von Ereignissen ausgesetzt, die nur schwer vorhersehbar sind, oft gehäuft auftreten, kaum Zeit für gründliches Nachdenken zulassen und schnelles Reagieren verlangen. Unterricht heisst auch, dass keine Situation mit einer anderen genau übereinstimmt. Lehrerinnen und Lehrer können nicht erwarten, dass unter gleichen Umständen Gleiches geschieht. Bereits im nächsten Moment kann sich die Situation ändern – eine notorische Erfahrung von Lehrkräften, die sehr gut wissen, dass man nicht jede Klasse gleich behandeln kann und nicht jeder Tag gleich ist wie ein anderer.

Robert Slavin: Ohne Experiment kein Fortschritt im Bildungswesen

Ist das Experiment damit ungeeignet für die Unterrichtsforschung? Nicht unbedingt. Experimentelle Studien haben auch in den pädagogischen Wissenschaften ihre beredsamen Vertreter. So etwa bei den Wortführern einer evidenzbasierten Bildungspolitik, von der im ersten Teil die Rede war. Sie sind der Ansicht, dass nur experimentelle Studien der pädagogischen Praxis jenes Wissen zur Verfügung stellen können, das ein zielsicheres Handeln ermöglicht. Gemäss Robert Slavin (2002) werden wir im Bildungswesen erst dann Fortschritte machen, wenn wir beginnen, Schule und Unterricht mit streng kontrollierten Experimenten zu erforschen.

Idealisierung der Wirklichkeit

Ohne Simplifizierung des Forschungsgegenstandes geht dies aber nicht. Da Experimente auf die Untersuchung von einfachen oder komplizierten Phänomenen zugeschnitten sind, muss die Komplexität der Unterrichtssituation reduziert werden, wenn sie experimentell erforscht werden soll.

Aussergewöhnlich ist dies aber nicht, wie der Physiker Hans-Peter Dürr (1995) zeigt. Denn die Naturwissenschaften machen es nicht anders. Deren Erfolg beruht wesentlich darauf, dass sie Komplexität annäherungsweise als Kompliziertheit behandeln. Das ist so zu verstehen, dass der Gegenstand der experimentellen Forschung in den Naturwissenschaften nicht nur einfach oder kompliziert ist, sondern auch als einfach oder kompliziert interpretiert wird. Indem wir mit einem komplexen Phänomen umgehen, als ob es kompliziert wäre, vermögen wir die strengen Kriterien der experimentellen Forschung einzulösen.

Wie ein physikalisches Experiment die natürliche Wirklichkeit nicht abbildet, sondern unter idealen Bedingungen rekonstruiert, führt auch die experimentelle Unterrichtsforschung nicht zu einem Abbild der Unterrichtswirklichkeit, sondern zu einer Konstruktion, die bestenfalls in der Theorie richtig ist.

In diesem Sinn kann auch in der Unterrichtsforschung experimentell geforscht werden. Insofern das Experiment die Methode der Wahl ist, um Kausalstrukturen aufzudecken, wäre es sogar erwünscht, wenn in Schule und Unterricht mehr experimentelle Studien durchgeführt würden. Allerdings muss man sich der Vereinfachungen, die dabei in Kauf genommen werden, bewusst sein. Wie ein physikalisches Experiment die natürliche Wirklichkeit nicht abbildet, sondern unter idealen Bedingungen rekonstruiert, führt auch die experimentelle Unterrichtsforschung nicht zu einem Abbild der Unterrichtswirklichkeit, sondern zu einer Konstruktion, die bestenfalls in der Theorie richtig ist. Eine Eins-zu-eins-Umsetzung experimentell gewonnener Erkenntnisse in bildungspolitische oder pädagogische Handlungen ist daher nicht möglich.

Der Grossteil der pädagogischen und psychologischen Unterrichtsforschung verfährt jedoch nicht experimentell, sondern nutzt Methoden, wie sie auch in der Epidemiologie zum Einsatz kommen. Nicht das Experiment, sondern die Statistik gibt vor, wie Unterrichtsforschung zu betreiben ist. Davon soll im nächsten Teil des Beitrags die Rede sein.

Literaturverzeichnis

Descartes, René (1964). Discours de la Méthode. Von der Methode des richtigen Vernunftgebrauchs und der wissenschaftlichen Forschung. Übersetzt von Lüder Gäbe. Hamburg: Meiner.

Dürr, Hans-Peter (1995). Naturwissenschaft und Poesie. Begreifen und Spiegeln der Wirklichkeit. In: Ders.: Die Zukunft ist ein unbetretener Pfad. Bedeutung und Gestaltung eines ökologischen Lebensstils (S. 96-119). Freiburg i.Br.: Herder.

Portmann, Adolf (1982). Goethes Naturforschung. In: Ders.: Biologie und Geist (S. 259-276). Frankfurt a.M.: Suhrkamp.

Slavin, Robert E. (2002). Evidence-Based Education Policies. Transforming Educational Practice and Research. Educational Researcher (31), no. 7, 15-21.

Weizsäcker, Carl Friedrich von (19906). Die Tragweite der Wissenschaft. Stuttgart: Hirzel.

The post Covid-19 und die Unterrichtsforschung, 2. Teil first appeared on Condorcet.

]]>
https://condorcet.ch/2020/07/covid-19-und-die-unterrichtsforschung-2-teil/feed/ 1
Covid-19 und die Unterrichtsforschung, 1. Teil https://condorcet.ch/2020/07/covid-19-und-die-unterrichtsforschung-1-teil/?utm_source=rss&utm_medium=rss&utm_campaign=covid-19-und-die-unterrichtsforschung-1-teil https://condorcet.ch/2020/07/covid-19-und-die-unterrichtsforschung-1-teil/#respond Tue, 07 Jul 2020 12:16:11 +0000 https://condorcet.ch/?p=5631

Wie bereits Ende Juni angekündigt, startet der Condorcet-Blog eine vierteilige Artikelserie des Berner Professors Walter Herzog zum Thema Wissenschaft, Forschung und im Speziellen Unterrichtsforschung. Nach Ansicht von Walter Herzog bietet die Corona-Epidemie die seltene Gelegenheit zu beobachten, wie eine Forschungswissenschaft funktioniert. Und er erkennt hochinteressante Parallelen zur Unterrichtsforschung.

The post Covid-19 und die Unterrichtsforschung, 1. Teil first appeared on Condorcet.

]]>

Bei allen Einschränkungen und Unannehmlichkeiten, die uns das Covid-19-Virus zumutet, hat die Corona-Pandemie auch ihre guten Seiten. So bietet sie die seltene Gelegenheit zu beobachten, wie eine Forschungswissenschaft funktioniert. Epidemiologen und Virologen zeigen uns gleichsam in Echtzeit, wie sie arbeiten. Sie versuchen, ein Forschungsobjekt in den Griff zu bekommen, das zwar nicht völlig unbekannt ist, über das aber gemessen an den Erwartungen der Öffentlichkeit noch wenig verlässliches Wissen vorliegt. Genaueres zu den praktisch relevanten Fragen nach Herkunft, Verbreitung, Symptomatik, Gefährlichkeit, Immunität, Übertragbarkeit und Eindämmung des Virus erfahren wir in Abhängigkeit vom Voranschreiten der wissenschaftlichen Forschung.

Was wir sehen

Erfahren, dass sich die Forschung mitunter auch widerspricht.

Was wir dabei sehen, sind Disziplinen, die mit unterschiedlichen Methoden arbeiten, eine Forschungsfront, die in ständiger Bewegung ist, und Forscherinnen und Forscher, die sich nicht selten uneinig sind. Wir sehen, dass Studienergebnisse oft nur für kurze Zeit Bestand haben, weil sie durch neue und bessere Ergebnisse widerlegt werden. Wir sehen, wie wissenschaftliche Forschung von Fördergeldern abhängig ist, wie Erkenntnisse publiziert werden müssen, um wahrgenommen zu werden, und wie das Renommee eines Publikationsorgans wesentlich darüber befindet, ob eine Studie überhaupt zur Kenntnis genommen wird. Aber selbst hochrangige Zeitschriften verbürgen keine Verlässlichkeit, wie zwei Artikel in den angesehenen medizinischen Zeitschriften The Lancet und New England Journal of Medicine zeigen, die wenige Wochen nach Erscheinen wegen gravierender methodischer Mängel zurückgezogen werden mussten.

Wir sehen auch, dass eine einzelne Studie, wie gut auch immer sie gemacht sein mag, von beschränkter Aussagekraft ist, weil es fast nie gelingt, den Forschungsgegenstand erschöpfend zu erfassen.

Wir sehen auch, dass eine einzelne Studie, wie gut auch immer sie gemacht sein mag, von beschränkter Aussagekraft ist, weil es fast nie gelingt, den Forschungsgegenstand erschöpfend zu erfassen. Wir sehen, wie wichtig Fakten sind, um wissenschaftliche Erkenntnisse zu belegen, wie sehr Fakten aber methodenabhängig sind und selbst methodisch gut begründete Tatsachen noch wenig über den Wert einer wissenschaftlichen Erkenntnis aussagen. Letztlich ist es der kritische Diskurs in der Gemeinschaft der Forscherinnen und Forscher, der darüber befindet, wie verlässlich ein Untersuchungsergebnis ist. Schliesslich sehen wir, dass die Resultate einer wissenschaftlichen Studie wenig darüber sagen, welche Folgerungen praktischer Natur aus ihr zu ziehen sind. Was die Expertinnen und Experten zum Corona-Virus sagen, kann für sich allein noch nicht begründen, welche gesundheitspolitischen Massnahmen zu treffen sind.

«Wissenschaftlich gesicherte Erkenntnisse»

Mitverfolgen zu können, wie wissenschaftliche Forschung funktioniert, ist nicht nur allgemein von Interesse, sondern stellt insbesondere eine Chance für jene dar, die sich von den Leistungen einer modernen Forschungswissenschaft falsche Vorstellungen machen. Dazu gehört insbesondere die Bildungspolitik, teilweise auch die Bildungspraxis. In beiden Fällen ist die Erwartung, durch wissenschaftliche Erkenntnisse könnten Gewissheiten geschaffen werden, die es erlauben, in kontroversen Fragen eindeutige Entscheidungen herbeizuführen, weit verbreitet. Man denke an das schweizerische Bildungsmonitoring, das 2006 eingerichtet wurde und seitdem alle vier Jahre in einen nationalen Bildungsbericht mündet.

Wer sich die Lektüre des nationalen Bildungsberichts zur Pflicht gemacht hat, weiss, wie beschränkt die Aussagekraft der meisten Daten, Tabellen und Grafiken ist.

Beschränkter Aussagewert

Wer sich dessen Lektüre zur Pflicht gemacht hat, weiss, wie beschränkt die Aussagekraft der meisten Daten, Tabellen und Grafiken ist, die in den Berichten präsentiert werden. Ein verlässliches Bild über das schweizerische Bildungswesen gewinnt man kaum; der Wissensstand liegt weit unterhalb des Niveaus, das wir aktuell in Bezug auf das Corona-Virus haben. Womit nicht bestritten sei, dass sich die Lektüre der Berichte faute de mieux trotzdem lohnt.

Die geringe Ausbeute steht in krassem Widerspruch zu den hohen Erwartungen, die seitens der Politik an die Bildungsberichte gerichtet werden. So schreiben die behördlichen Auftraggeber im Vorwort zum Bildungsbericht 2014, es würden «wissenschaftlich gesicherte Erkenntnisse benötigt» (S. 8), um das Bildungssystem besser steuern zu können. Bereits in der Pilotversion von 2006 war vom «Fernziel einer evidenzbasierten Bildungspolitik» (S. 195) die Rede. Der Begriff suggeriert, es sei möglich, politische Entscheidungen ausschliesslich auf wissenschaftliche Erkenntnisse zu stützen und die Bildungspolitik gleichsam in die Hände der Bildungsforschung zu legen. Diese völlig verquere Erwartung zeigt, wie notwendig es ist, dass sich in der Bildungspolitik ein Verständnis von wissenschaftlicher Forschung entwickelt, das deren Funktion und Leistung besser gerecht wird.

Der Begriff (evidenzbasierte Bildungspolitik) suggeriert, es sei möglich, politische Entscheidungen ausschliesslich auf wissenschaftliche Erkenntnisse zu stützen und die Bildungspolitik gleichsam in die Hände der Bildungsforschung zu legen.

Das heisst nicht, dass die Bildungspolitik wissenschaftliche Erkenntnisse nicht berücksichtigen soll. Verfehlt ist nicht der Einbezug von Ergebnissen der wissenschaftlichen Forschung, sondern die Erwartung, die Wissenschaft könne der Politik abnehmen, was ihre eigentliche Aufgabe darstellt, nämlich Entscheidungen zu treffen.

Mehrheit vor Wahrheit

Hermann Lübbe: «Evidenzbasierte Politik» in einer demokratischen Gesellschaft sei grundsätzlich verfehlt.

Das gilt insbesondere für eine Politik, die auf demokratische Legitimation angewiesen ist. Wenn Demokratie nach einer treffenden Formulierung von Hermann Lübbe (2004) Mehrheit statt Wahrheit bedeutet, dann zeigt sich, dass eine «evidenzbasierte Politik» in einer demokratischen Gesellschaft grundsätzlich verfehlt ist. Denn gäbe es tatsächlich so etwas wie unbezweifelbare wissenschaftliche Erkenntnisse, dann wäre für demokratische Entscheidungen schlicht kein Platz mehr. Aus der Herrschaft des Volkes (Demokratie) würde eine Herrschaft der Wissenschaft (Scientokratie).

Zwar könnte gerade die Corona-Krise den Eindruck erwecken, als hätten in einigen Ländern Virologen und Epidemiologen die Herrschaft übernommen. Es ist aber auch klar, dass in einem demokratischen Land wie der Schweiz die politischen Mechanismen nach kurzer Schockstarre rasch wieder zu spielen begannen und selbst aus der Wissenschaft Stimmen zu hören waren, die verhinderten, dass die politischen Behörden ihre Entscheidungskompetenz aus der Hand gaben. Wissenschaftliche Wahrheit und politische Verantwortung sind zwei verschiedene Dinge, die wir nicht nur ideell, sondern auch institutionell getrennt halten sollten.

Lübbe (2004) gibt zudem zu bedenken, dass mit der Verwissenschaftlichung unseres Alltagslebens demokratische Entscheidungsprozesse nicht weniger, sondern mehr an Bedeutung gewinnen. Denn die Vielfalt an Wissen, die durch die wissenschaftliche Forschung erzeugt wird, eröffnet Handlungsoptionen, zwischen denen nicht ihrerseits durch Wissen entschieden werden kann. «Je wissenschaftsabhängiger wir leben, um so mehr gewinnt die Mehrheit Geltungsvorrang gegenüber der Wahrheit» (S. 160). Substanzielle Weichenstellungen im Bildungswesen der öffentlichen Entscheidungsfindung zu entziehen, indem man sie als wissenschaftlich unumgänglich darstellt, kommt somit einem Angriff auf unsere demokratischen Institutionen gleich.

Wahrheit als regulative Idee

Prof. Dr. Niklas Luhmann: In der Wissenschaft spiele die Wahrheit lediglich die Funktion einer regulativen Idee.

Selbst in der Wissenschaft spielt die Wahrheit lediglich die Funktion einer regulativen Idee. Wie Niklas Luhmann (1992) deutlich macht, liegt in der Wahrheit zwar das Kommunikationsmedium der Wissenschaft, mit dem sie innerhalb der Gesellschaft auf sich aufmerksam machen kann. Sie stellt aber kein Ziel dar, das im Rahmen der wissenschaftlichen Forschungstätigkeit angestrebt wird. Vielmehr fungiert die Wahrheit als Unruhestifterin, die einer Disziplin ermöglicht, vermeintlich unbestreitbare Tatsachen im Prinzip jederzeit in Zweifel zu ziehen. Dies nicht aus schierer Oppositionslust, sondern weil Argumente vorliegen, die ein Forschungsergebnis in seiner Gültigkeit begrenzen oder in seiner Reichweite schmälern.

Allenfalls mögen wir uns der Wahrheit annähern, aber auch dabei müssten wir eingestehen, dass wir faktisch über keine Mittel verfügen, um zu entscheiden, wie nahe wir der Wahrheit schon gekommen sind.

Auch wenn wir dem Wissenschaftstheoretiker Karl Popper (1963) folgen, stellt die Wahrheit kein Ziel wissenschaftlicher Tätigkeit dar, da wir gar nicht in der Lage wären festzustellen, ob zwischen unserer Erkenntnis und der Wirklichkeit eine Übereinstimmung besteht. Allenfalls mögen wir uns der Wahrheit annähern, aber auch dabei müssten wir eingestehen, dass wir faktisch über keine Mittel verfügen, um zu entscheiden, wie nahe wir der Wahrheit schon gekommen sind. Es gibt keine «wissenschaftlich gesicherten Erkenntnisse», wie uns die Bildungspolitik weismachen will, in welcher Disziplin auch immer.

Weshalb es in der pädagogischen und pädagogisch-psychologischen Forschung keine abschliessenden Erkenntnisse gibt, möchte ich im Folgenden am Beispiel der Unterrichtsforschung ausführen. Dazu unterscheide ich drei Forschungsparadigmen, die ich mit ‹Experiment›, ‹Statistik› und ‹Fallstudie› bezeichne. Die Unterscheidung hat idealtypischen Charakter, ermöglicht es aber, die Methoden und die Leistungsfähigkeit der Unterrichtsforschung anschaulich darzustellen.

Im zweiten Teil meines Beitrags werde ich mich der experimentellen Forschung und im dritten Teil der Statistik als Forschungsmodell zuwenden. Im vierten und abschliessenden Teil wird es um die Fallstudie gehen. Abrunden werde ich meine Ausführungen mit einem kurzen Resümee.

Literaturverzeichnis

Bildungsbericht Schweiz 2006. Hrsg. von der Schweizerischen Koordinationsstelle für Bildungsforschung (SKBF). Aarau: SKBF.

Bildungsbericht Schweiz 2014. Hrsg. von der Schweizerischen Koordinationsstelle für Bildungsforschung (SKBF). Aarau: SKBF.

Lübbe, Hermann (2004). Mehrheit statt Wahrheit. Über Demokratisierungszwänge. In: Ders.: Modernisierungsgewinner. Religion, Geschichtssinn, Direkte Demokratie und Moral (S. 154-166). München: Fink.

Luhmann, Niklas (1992). Die Wissenschaft der Gesellschaft. Frankfurt a.M.: Suhrkamp.

Popper, Karl R. (1963). Conjectures and Refutations. The Growth of Scientific Knowledge. London: Routledge & Kegan Paul.

 

The post Covid-19 und die Unterrichtsforschung, 1. Teil first appeared on Condorcet.

]]>
https://condorcet.ch/2020/07/covid-19-und-die-unterrichtsforschung-1-teil/feed/ 0
Corona und die Rückgewinnung des Denkens https://condorcet.ch/2020/06/corona-und-die-rueckgewinnung-des-denkens/?utm_source=rss&utm_medium=rss&utm_campaign=corona-und-die-rueckgewinnung-des-denkens https://condorcet.ch/2020/06/corona-und-die-rueckgewinnung-des-denkens/#respond Thu, 11 Jun 2020 20:53:13 +0000 https://condorcet.ch/?p=5341

Mit diesem Beitrag beginnt Prof. Dr. Walter Herzog eine mehrteilige Betrachtung im Wochenzyklus über Bildung und Wissenschaft im Zeichen der Corona-Krise. Zunächst geht es um die pädagogische Kern- und Sinnfrage jeder Bildung: Denken als Lernziel.

The post Corona und die Rückgewinnung des Denkens first appeared on Condorcet.

]]>

Während die Bekämpfung der Corona-19-Pandemie der Wirtschaft beträchtlichen materiellen Schaden zufügte, sind in der Bildung vergleichbare Konsequenzen ausgeblieben. Der Fernunterricht konnte ohne finanzielle Nothilfe umgesetzt werden. Kosten ergaben sich allenfalls in ideeller Hinsicht, insofern nicht alle Schülerinnen und Schüler darauf vorbereitet waren, für ihr Lernen mehr Eigenverantwortung zu übernehmen. Die ungleichen Lernbedingungen während des Lockdowns veranlassten einige Kantone, die Maturitätsprüfungen in reduzierter Form oder gar nicht durchzuführen, was ebenfalls ohne Kostenfolgen möglich war.

Denkbar ist allerdings, dass das Lernen auf Distanz, das ohne ICT-Infrastruktur und entsprechende Anwenderkenntnisse nicht möglich gewesen wäre, der Digitalisierung von Schule und Unterricht Auftrieb geben wird. Damit wären dann sehr wohl Kosten verbunden, die aber nicht schadensbegrenzender Art wären, sondern eine nachhaltige Investition in unsere Schulen darstellen würden.

Technischer und pädagogischer Nutzen

Der soziale Austausch fehlt

Bei allem Nutzen einer à jour gebrachten ICT-Ausstattung, den die Corona-Krise offenbar gemacht hat, ist jedoch Zurückhaltung geboten, wenn die technischen gegenüber den pädagogischen Optionen abgewogen werden. Da sich durch technologische Innovationen vorwiegend der individuelle Lernprozess optimieren lässt, fehlt ihnen ein wesentliches Moment pädagogischer Wirksamkeit: der soziale Austausch im Kollektiv der Schulklasse und die diskursive Auseinandersetzung mit einer sachkompetenten Lehrperson. Auch dies hat das unfreiwillige Experiment mit dem Fernunterricht gezeigt. In der häuslichen Isolation fehlten vielen Schülerinnen und Schülern die Unterstützung durch die Lehrperson und der direkte Kontakt zu den Mitschülerinnen und Mitschülern. Noch wissen wir nicht, welcher Nachteil ihnen daraus erwachsen ist.

Verengung schulischer Lernziele

Verengung schulischer Lernziele.

In pädagogischer Hinsicht ist aber nicht nur die soziale Isolierung, die mit digitalen Lernhilfen verbunden ist, zu bedenken, sondern auch die Gefahr einer Verengung schulischer Lernziele. Digitalisieren lassen sich Prozesse, über deren Funktionieren wir so viel wissen, dass wir sie zu beherrschen vermögen. Bei Lernprozessen heisst dies, dass eine Digitalisierung so weit möglich ist, wie es um die Aneignung von standardisiertem Wissen und Können geht. Davon gibt es in der Schule eine ganze Menge, und es spricht nichts dagegen, die betreffenden Lernleistungen der Schülerinnen und Schüler durch Künstliche Intelligenz und adaptive Lerntechnologien zu unterstützen. Lernprogramme helfen aber nicht, um Bildungsziele zu erreichen, die sich nicht automatisieren lassen. Dazu gehört insbesondere die Fähigkeit zum Denken, die unter dem Diktat der Kompetenzorientierung fast ganz aus den schulischen Lehrplänen verschwunden ist.

Die Fähigkeit zum Denken ist unter dem Diktat der Kompetenzorientierung fast ganz aus den schulischen Lehrplänen verschwunden.

Denken als Lernziel

Im Lehrplan 21 wird dem Denken zwar durchaus die Referenz erwiesen, insofern die Fähigkeit, über etwas nachzudenken, in die Beschreibung verschiedener Kompetenzstufen eingegangen ist. Eine eigenständige Kompetenz oder ein eigenes Lernziel stellt das Denken aber nicht dar. Gleiches gilt für die basalen fachlichen Kompetenzen für allgemeine Studierfähigkeit, die 2016 per Beschluss der EDK für die Fächer Mathematik und Erstsprache in den Rahmenlehrplan der Gymnasien aufgenommen wurden. Das Denken findet an keiner einzigen Stelle Erwähnung.

Sarah Springman, Rektorin der ETH: «Unsere Studierenden brauchen mehr Zeit zum Denken.»

Dabei sind es nicht zuletzt die Abnehmer der Gymnasien, nämlich die Hochschulen, die dem Denken hohe Bedeutung beimessen. So gab der ehemalige Präsident der ETH Zürich, Lino Guzzella, in einem Interview mit der NZZ am Sonntag zu verstehen, die wichtigste Aufgabe einer Hochschule sei nicht das Vermitteln von Fakten, «sondern den Leuten beizubringen, wie man denkt» (28. Dezember 2014, S. 19). «Wir wollen unsere Studierenden zu selbständigen, kritischen und kreativ denkenden Menschen anleiten» (ebd.). Ähnlich äusserte sich die Rektorin der ETH, Sarah Springman: «Unsere Studierenden brauchen mehr Zeit zum Denken. Lernen alleine genügt nicht» (NZZ am Sonntag vom 26. Juli 2015, S. 8).

Lernen in einer volatilen Zeit

Seneca: Für die Schule oder fürs Leben lernen?

Das Denken zu fördern ist etwas anderes als Kompetenzen zu vermitteln. Bezeichnenderweise kommt der Kompetenzbegriff ohne Bezug auf das Denken aus. Definiert werden Kompetenzen zumeist als Verbindung von Wissen und Können unter Einschluss der Fähigkeit und Bereitschaft, das erworbene Wissen und Können auch anzuwenden. Damit wird ein ernsthaftes Problem institutionalisierter Bildungsprozesse thematisiert, nämlich die Schwierigkeit, Wissen so zu vermitteln, dass es nicht isoliert im Gedächtnis abgespeichert wird und schnell wieder vergessen geht. Indem das Wissen mit der Fähigkeit zu seiner Nutzung angereichert wird, lässt sich der seit Seneca wohlfeile Vorwurf, in der Schule werde nicht fürs Leben, sondern nur für die Schule gelernt, entkräften.

Doch in einer Welt, die in ständiger Bewegung ist, stets neue Anforderungen stellt und als Sicherheit fast nur mehr die Einsicht bleibt, dass es auch anders kommen kann als erwartet, genügt es nicht, über Kompetenzen für alles Mögliche zu verfügen. Was wir in volatilen Zeiten brauchen, sind Ressourcen, die ein angemessenes Können erst generieren lassen. Gerade die Corona-Krise zeigt, dass eingeschliffene Gewohnheiten hinderlich, ja gefährlich sein können, um den Herausforderungen, vor die uns das noch wenig verstandene Virus stellt, gewachsen zu sein. Zwar mag es Sinn machen, den Regeln des Bundesamtes für Gesundheit blind zu folgen, aber wirklich schützen können wir uns vor dem Virus nur, wenn wir die Regeln flexibel und situativ angepasst anwenden.

Daniel Kahneman (*1934), Psychologe und Nobelpreisträger für Wirtschaftswissenschaften

Langsames und schnelles Denken

Das Denken zu fördern, ist auch deshalb angezeigt, weil es den Menschen offensichtlich nicht leicht fällt zu denken. Wobei wir mit Daniel Kahneman zwei Formen des Denkens unterscheiden müssen, ein schnelles und ein langsames Denken. Das schnelle Denken ist ein Erbe unserer evolutionären Vergangenheit, in der eine ausgeprägte Denkfähigkeit nicht von Vorteil gewesen wäre. Gefragt waren vielmehr intuitiv begründete Entscheidungen, um in einer Umwelt, die wenig Schutz vor Gefahren bot, zu überleben. Demgegenüber scheint das langsame Denken, das von Aristoteles zum Kennzeichen des Menschen gemacht wurde, nicht zu unserem biologischen Erbe zu gehören, sondern ein Ergebnis der kulturellen Entwicklung darzustellen. Darin liegt begründet, weshalb es von jeder Generation im Rahmen von schulischen Bildungsprozessen wieder neu erworben werden muss.

Die Schule als Ort des Denkens

Die Schule ist so gesehen ein kulturgeschichtlich notwendiger Ort, der die nachwachsenden Generationen zum Denken zwingt. Ihre Unabdinglichkeit verdankt sie nicht dem schnellen, sondern dem langsamen Denken, einem Denken also, dessen Bezug zum Alltag oft schwer zu erkennen ist. Die Schule ist ein künstlicher Raum, der sich durch noch so viel ‹Öffnung› des Unterrichts nicht in eine normale Lebenssituation verwandeln lässt.

Das aber ist genau die Herausforderung dessen, was wir Bildung nennen. In der Bildung finden nicht Wissen und Können, sondern Wissen und Denken zusammen, insofern Bildung den Menschen ermöglicht, sich in der Welt zu orientieren. Das schliesst nicht aus, dass aus der Orientierung ein Handeln wird, vermeidet aber, dass das Denken aus dem Bildungsauftrag der Schule verbannt wird. Vielleicht ist das Gute an der Corona-Krise, dass sie uns hilft, zu dieser grundlegenden Einsicht in Sinn und Zweck von Schule und Unterricht zurückzufinden.

 

The post Corona und die Rückgewinnung des Denkens first appeared on Condorcet.

]]>
https://condorcet.ch/2020/06/corona-und-die-rueckgewinnung-des-denkens/feed/ 0
Das Lernen als Aspekt menschlicher Selbstbestimmung. Eine Antwort an Felix Schmutz https://condorcet.ch/2020/04/das-lernen-als-aspekt-menschlicher-selbstbestimmung-eine-antwort-an-felix-schmutz/?utm_source=rss&utm_medium=rss&utm_campaign=das-lernen-als-aspekt-menschlicher-selbstbestimmung-eine-antwort-an-felix-schmutz https://condorcet.ch/2020/04/das-lernen-als-aspekt-menschlicher-selbstbestimmung-eine-antwort-an-felix-schmutz/#comments Thu, 09 Apr 2020 13:23:33 +0000 https://condorcet.ch/?p=4648

Professor Dr. Walter Herzog reagiert in seinem Beitrag auf die scharfe Kritik von Felix Schmutz (Pädagogik und Bodenhaftung, 4.4.2020). Die Redaktion ist der Meinung, dass die zugegebenermassen anspruchsvolle Lektüre dieses Diskurses für interessierte Leserinnen und Leser nicht nur spannend und genüsslich, sondern auch lehrreich ist. Damit wird der Blog auch seinem eigenen Anspruch gerecht, das perspektivische Sehen zu fördern.

The post Das Lernen als Aspekt menschlicher Selbstbestimmung. Eine Antwort an Felix Schmutz first appeared on Condorcet.

]]>
Felix Schmutz, BL:
kritisierte die Aussagen von Professor Herzog scharf.

Felix Schmutz ist kein Freund des selbstorganisierten Lernens. Ja, er scheint es regelrecht zu hassen. Anders kann ich seine Kritik («Pädagogik und Bodenhaftung») an meinem jüngsten Blog-Beitrag («Eine Chance für das selbstorganisierte Lernen») nicht verstehen. Mit seinem verbalen Rundumschlag schiesst er jedoch dermassen übers Ziel hinaus, dass er seinem Anliegen einen Bärendienst erweist.

Ich sehe davon ab, dass mir Schmutz Dinge unterschiebt, die  weder von mir vertreten werden noch  aus meinem Beitrag herausgelesen werden können.

Ich sehe davon ab, dass mir Schmutz Dinge unterschiebt, die weder von mir  vertreten werden noch  aus meinem Beitrag herausgelesen werden können. Ebenso sehe ich davon ab, dass Schmutz mehrfach Gedanken entwickelt, die ihn zu Schlüssen führen, die sich in meinem Text in fast gleicher Form finden, ohne dass er darauf verweisen würde. Ich sehe schliesslich auch davon ab, dass Schmutz dreimal aus meinem Text zitiert (jeweils kursiv gesetzt), aber nur an der dritten Stelle klar macht, dass das Zitat von mir stammt, während er an den beiden anderen Stellen den Eindruck erweckt, es handle sich um Zitate aus dem Lehrplan 21. Die panische Reaktion auf meinen Text scheint nicht nur seine Lese-, sondern auch seine Schreibkompetenz beeinträchtigt zu haben.

Wovon ich nicht absehen kann, ist hingegen, dass Schmutz auf die Kernthese meines Beitrags, wonach zwischen selbstorganisiertem Lernen als Lernziel und selbstorganisiertem Lernen als Unterrichtsmethode unterschieden werden sollte, praktisch nicht eingeht. Stattdessen hält er den üblichen Reduktionismus aufrecht und attackiert das selbstorganisierte Lernen als Methode. Dies mit Argumenten, die ich teilweise als fragwürdig, teilweise schlicht als falsch beurteile.

Vier Klarstellungen

Wenn ich alles zurechtrücken wollte, was Schmutz durcheinander gebracht hat, müsste ich noch mehr Raum in Anspruch nehmen, als ich es im Folgenden sowieso schon tun werde. Ich beschränke mich daher auf vier Punkte, die mir persönlich wichtig erscheinen, die aber auch aus sachlichen Gründen einer Entgegnung bedürfen. Es geht erstens um die falsche Gleichsetzung des selbstorganisierten Lernens mit dem «Lernen des Lernens», zweitens um die abwegige Herleitung des selbstorganisierten Lernens aus dem kybernetischen Modell des Regelkreises, drittens um die falsche Behauptung, das selbstorganisierte Lernen sei empirisch widerlegt worden, und viertens um die verquere Demontage der Metapher des Bulimie-Lernens.

1. Es geht nicht um das «Lernen des Lernens»

Schmutz unterstellt mir, ich sei der Auffassung, Selbstdisziplin und Motivation liessen sich explizit lehren. Richtig sei dagegen, dass Einstellungen und Bereitschaften implizit gelernt würden. Gleiches gelte für das Lernen. Das Lernen als solches könne nicht gelernt werden, was allein schon zeige, wie absurd es sei, das selbstregulierte Lernen zu einem Lernziel zu machen.

Wir müssen zwischen materialen (inhaltlichen) und formalen Lernzielen unterscheiden

So plausibel das Argument scheint, so kurzatmig ist es. Schmutz missachtet die gängige Unterscheidung zwischen formalen und materialen Lernzielen. Materiale (inhaltliche) Lernziele, die sich vor allem in Lehrplänen finden, geben vor, welcher Stoff in welchem Fach zu unterrichten ist. Formale Lernziele, die sich eher in übergeordneten Texten wie Schulgesetzen oder Präambeln von Lehrplänen finden, umschreiben, was schulische Bildung darüber hinaus leisten soll, wie insbesondere die Förderung und Stärkung von intellektuellen Kompetenzen (Denkfähigkeit, Problemlösen, geistige Offenheit, gesunder Menschenverstand etc.) oder von Persönlichkeitsmerkmalen (Willenskraft, Charakterstärke, Gewissenhaftigkeit, Zivilcourage etc.). Natürlich lässt sich keines dieser Ziele direkt unterrichten, was ihre Bedeutung für den Bildungsauftrag von Schule und Unterricht aber in keiner Weise schmälert.

Selber saufen und selber lernen

Das Pferd wird zur Tränke geführt, muss aber selber saufen.

Insofern ist fraglich, ob es überhaupt angebracht ist, gegen das «Lernen des Lernens» zu polemisieren, denn die Fähigkeit, über sein Lernen autonom zu verfügen, gehört durchaus auch zu den formalen Zielen schulischer Bildung. Wörtlich genommen, macht der Slogan allerdings tatsächlich keinen Sinn. Denn lernen können die Schülerinnen und Schüler immer schon. Das Lernen ist ein biologisch bestimmter Vorgang, der mit unserer Existenz gegeben ist und nicht erst erworben werden muss. Es verhält sich hier wie mit dem Pferd und der Tränke. Nachdem es zur Tränke geführt wurde, muss das Pferd selber saufen; auf dem Weg zur Tränke kann es jedoch begleitet werden. Auch lernen muss jeder Schüler und jede Schülerin für sich allein. Aber auf dem Lernweg, bevor das Lernen vollzogen wird, kann auch den Schülerinnen und Schülern Beistand geleistet werden.

Das Gleichnis zeigt, dass es beim selbstorganisierten Lernen nicht darum geht, das Lernen zu lernen. Vielmehr sollen die Lernenden befähigt werden, die Umstände des Lernens so weit selber zu gestalten, dass sie die Begleitung auf ihrem Lernweg Schritt um Schritt selber übernehmen können. Wie das Pferd die Tränke irgendwann selber finden wird, nachdem ihm der Weg dorthin häufig genug gezeigt wurde, werden die Schülerinnen und Schüler ihr Lernen sukzessive selber organisieren können, nachdem ihnen ausreichend gezeigt wurde, wie sie dies tun können. Es geht beim selbstorganisierten Lernen weder um das Lernen des Lernens noch um eine besondere Art von Lernen, sondern um die Bedingungen des Lernens, die so weit selber beherrscht werden sollen, dass ein Stück Autonomie erreicht wird.

2. Eine kuriose Herleitung des selbstorganisierten Lernens

Schmutz meint, es sei «leicht zu sehen», wo die Konzepte der Selbststeuerung und Selbstregulierung herkämen, nämlich aus der Kybernetik. Dem ist nicht so. Schmutz ist der semantischen Mehrdeutigkeit der Begriffe zum Opfer gefallen. Nur weil ein Wort gleich lautet, muss es noch nicht dieselbe Bedeutung haben. Bekanntlich ist die Bank, auf der man sitzen kann, nicht auch die Bank, bei der man einen Kredit aufnehmen kann. Gleiches gilt für die Begriffe Selbststeuerung und Selbstregelung.

Anhalten der historischen Zeit

Es trifft zu, dass von Selbstregulierung auch in der Kybernetik die Rede ist, wenn auch die Begriffe der Rückkopplung (Feedback) und des Regelkreises (zirkuläre Kausalität) häufiger verwendet werden. Ein technisches System wie ein Kühlschrank oder eine Zentralheizung reguliert sich selber, wenn es Informationen über seinen aktuellen Zustand mit einem Normwert vergleicht und allfällige Abweichungen autonom korrigiert. Dies ist ein Vorgang, der keinen Eingriff von aussen voraussetzt, wie Schmutz korrekt darstellt. Entscheidend im Hinblick auf das selbstregulierte Lernen ist jedoch, dass das System bei dieser Selbstkorrektur absolut nichts lernt. Ashby (1957) hat dies in seiner Einführung in die Kybernetik prägnant herausgearbeitet. Schmutz stimmt dem zu, wenn er wenig später schreibt: «Selbstregulatorische Prozesse beruhen auf voreingestellten Sollwerten. … Es handelt sich um die Reproduktion des ewig Gleichen.» Ganz genau. In einem sich selbst regulierenden System steht die Zeit still. Genauer gesagt, verstreicht zwar auch in einem Regelkreis Zeit, doch ist es die metrische Zeit der Uhren, die im Unterschied zur historischen Zeit keine Richtung aufweist. Indem der Pfeil der Zeit gebrochen wird, kann sich nichts ereignen. Wo sich nichts ereignet, muss nicht gelernt werden, kann aber auch nicht gelernt werden. Anders ausgedrückt: In einer sich selbst regulierenden kybernetischen Maschine passiert nichts, was Anlass zum Lernen gäbe. Dies allein schon müsste eigentlich genügen, um zu zeigen, dass das selbstregulierte Lernen mit dem kybernetischen Konzept der Selbstregulation nichts zu tun hat.

Steuerung oder Regelung?

Eine fundamentale Differenz zwischen Steuerung und Regelung.

Schmutz unterläuft ein weiterer Fehler: Er unterscheidet nicht zwischen Steuerung und Regelung. Selbst wenn sich ein System selber reguliert, muss ihm, falls es sich um ein technisches System handelt, ein Sollwert vorgegeben werden, und zwar von einem Menschen, der bestimmt, welche Leistung das System erbringen soll. Dafür steht der Begriff der Steuerung. In seiner Einführung in die Systemtheorie umschreibt Norbert Bischof (1995) den Unterschied mit den Begriffen der Konditionalität und der Manipulation. Was in einem Thermostaten abläuft, ist Konditionalität, was ein Mensch, der den Thermostaten kalibriert, tut, ist Manipulation. Die Regelung ist ein interner (automatischer), die Steuerung ein externer (entscheidungsbasierter) Vorgang. Das heisst auch, dass es zwischen einem technischen und einem biologischen System eine fundamentale Differenz gibt. Während bei einem technischen System Steuerung und Regelung von verschiedenen Instanzen realisiert werden, sind sie in einem biologischen System in ein und demselben System (Organismus) integriert. In der neueren Systemtheorie steht dafür der Begriff der Autopoiese (vgl. Maturana, 1998).

Es geht eben nicht um die automatische Regelung des Lernens, sondern um dessen vernunftgeleitete und handlungsorientierte Steuerung.

Franz E. Weinert formulierte den Begriff des selbstgesteuerten Lernens.

Die Unterscheidung von Steuerung und Regelung erklärt, weshalb bisweilen nicht nur gegenüber dem Begriff des selbstorganisierten Lernens, sondern auch gegenüber demjenigen des selbstregulierten Lernens Vorbehalte artikuliert werden und stattdessen dem Begriff des selbstgesteuerten Lernens der Vorzug gegeben wird, wie beispielsweise bei Franz E. Weinert (1982). Es geht eben nicht um die automatische Regelung des Lernens, sondern um dessen vernunftgeleitete und handlungsorientierte Steuerung. Schmutz hält allerdings auch den Begriff der Selbststeuerung für fehl am Platz.

Kybernetik zweiter Ordnung

Die Kybernetik eignet sich aus einem weiteren Grund schlecht zur Diffamierung des selbstorganisierten Lernens. Schmutz erwähnt die Macy-Konferenzen, an denen von 1946 bis 1953 eine «interdisziplinäre Arbeitsgruppe von amerikanischen Forschern» die Grundlagen der Kybernetik gelegt hatte. Pikanterweise waren es aber nicht nur «amerikanische Forscher», sondern auch europäische und in die USA emigrierte Europäer, die an den insgesamt zehn Konferenzen teilnahmen, wie Kurt Lewin, Paul Lazarsfeld, Heinz von Foerster, William Grey Walter, John von Neumann, W. Ross Ashby oder Roman Jakobson. Es ist nicht zuletzt diesen Nicht-Amerikanern, von denen die meisten allerdings später die amerikanische Staatsbürgerschaft angenommen haben, zu verdanken, dass sich die Kybernetik in den 1970er Jahren zu einer Kybernetik zweiter Ordnung weiterentwickelt hat. Die Kybernetik zweiter Ordnung stellt den Versuch dar, den Kybernetiker in die Theorie der Kybernetik einzubeziehen und damit vom Subjekt-Objekt-Schema der klassischen Kybernetik wegzukommen.

Was das heisst, lässt sich am Werk von Gotthard Günther – auch er ein emigrierter Europäer, der jedoch später nach Deutschland zurückkehrte – beispielhaft illustrieren. Von der Bewusstseinsphilosophie herkommend, versteht Günther (2002) unter Subjektivität ein immanentes (weltliches) Phänomen, das er als System umschreibt, das sich von seiner Umgebung abgrenzt und über Selbstreferenz verfügt. Subjektivität ist damit nicht mehr wie im Deutschen Idealismus eine reflexive transzendentale Position und kann auch nicht mehr im Singular begriffen werden, sondern stellt einen Plural dar. Dabei postuliert Günther eine konstitutive Asymmetrie zwischen subjektiver Subjektivität (Ich) und objektiver Subjektivität (Du). Während sich die Subjektivität des Du bis zu einem gewissen Grade objektivieren und technisch realisieren lässt, gilt dies für die Subjektivität des Ich nicht, da uns eine Metasprache fehlt, die uns ermöglichen würde, unser Selbstsein während seines Vollzugs reflexiv einzuholen. Notabene gilt dies auch für das Lernen. Auch auf unser Lernen können wir uns nur vor oder nach dessen Vollzug beziehen, aber nicht während wir lernen. Wenn wir es trotzdem versuchen, verfangen wir uns in eine Paradoxie. Paradoxien verhindern aber die Konstruktion eines technischen Systems.

Denken und Wollen

Menschen sind soziale Wesen, auch und gerade, wenn sie sich als Lehrende und Lernende begegnen.

Aber auch die Du-Subjektivität ist technisch nicht voll substituierbar, da das andere Subjekt nicht nur ein Zentrum des Denkens, sondern auch des Wollens ist. Denken und Wollen sind komplementäre Aspekte menschlicher Subjektivität. Daher können wir bestenfalls eine kognitive Maschine bauen (künstliche Intelligenz), aber nicht auch eine volitive Maschine. Sobald wir unser Gegenüber nicht (nur) als Denk-, sondern (auch) als Willensereignis erfahren, wird es für uns undurchschaubar und unberechenbar. Das aber heißt, dass eine automatische Regulierung von Lernprozessen nur möglich wäre, wenn wir das lernende Individuum als rein kognitives Wesen betrachten und aus seinen sozialen Bezügen herauslösen würden. Wie jede Lehrperson weiss, wäre dies das Ende des schulischen Unterrichts. Denn unter der Voraussetzung eines passiven und willenlosen Gegenübers kann pädagogisch nicht gehandelt werden. Menschen sind soziale Wesen, auch und gerade, wenn sie sich als Lehrende und Lernende begegnen. Sie anerkennen sich in ihrer Subjektivität, und zwar in reziproker Spiegelung von Ich- und Du-Subjektivität.

Eignet sich schon die Kybernetik erster Ordnung nicht, das selbstorganisierte Lernen als technologisches Hirngespinst abzutun, trifft dies auf die Kybernetik zweiter Ordnung erst recht zu. Eventuell liesse sie sich sogar nutzen, um dem selbstorganisierten Lernen eine bessere theoretische Grundlage zu verschaffen.

3. Widerlegt die Forschung das selbstorganisierte Lernen?

Schmutz bedauert, dass wichtige Ergebnisse der psychologischen Forschung «von Erziehungsfachleuten ignoriert werden, so dass immer wieder Ziele aufgestellt und Methoden propagiert werden, deren Wirkungslosigkeit schon lange nachgewiesen ist». Dabei hat er ausdrücklich auch das selbstorganisierte Lernen im Visier. Dieses wurde seiner Meinung nach längst als unwirksam nachgewiesen. Aber auch diese Behauptung hält einer genauen Prüfung nicht stand.

Was Lehrpersonen tun, ist wichtig, aber nicht alles, was Lehrpersonen tun, ist wirksam.

Dabei genügt schon ein Blick in die umfangreiche Aufarbeitung von Meta-Analysen zu den Bedingungen schulischen Lernens, die John Hattie (2009) vorgelegt hat. Seine Botschaft lautet: Was Lehrpersonen tun, ist wichtig, aber nicht alles, was Lehrpersonen tun, ist wirksam. Wirksam ist gemäss Hattie ein Unterricht, für den im Englischen der Begriff der direct instruction verwendet wird, was sich mit «direkte Unterweisung» oder «direkte Instruktion» übersetzen lässt. Charakteristisch für die direkte Unterweisung, die nicht mit dem Frontalunterricht verwechselt werden darf, ist, dass die Lehrperson die Lernziele und Erfolgskriterien des Unterrichts festlegt, diese den Lernenden transparent und verständlich darlegt, durch eigenes Verhalten vormacht, was und wie gelernt werden soll, überprüft, ob die Lernenden verstanden und auch tatsächlich gelernt haben sowie zum Abschluss einer Lehreinheit die Beiträge der Lernenden zusammenführt.

Wenn die Schüler zu ihren eigenen Lehrern werden

Steht Hattie damit auf der Seite von Schmutz? Lehnt er das selbstorganisierte Lernen ab? Mitnichten. Was er ablehnt, sind Unterrichtsformen, bei denen die Schülerinnen und Schüler allein gelassen werden. Insofern könnte man sagen, dass er das selbstorganisierte Lernen als Unterrichtsmethode ablehnt, was aber nicht heisst, dass er es auch als Lernziel ablehnt.

Was Hattie ablehnt, sind Unterrichtsformen, bei denen die Schülerinnen und Schüler allein gelassen werden.

Hattie unterstützt das selbstorganisierte Lernen als Lernziel.

In Hatties (2009) Buch finden sich leicht Stellen, die dem Begriff des selbstorganisierten Lernens praktisch eins zu eins entsprechen, auch wenn der Begriff selber nicht verwendet wird. Zum Beispiel (eigene Übersetzung): «Die Methoden, die gemäss der Synthese der Meta-Analysen am besten funktionieren, führen zu einer sehr aktiven, direkten Beteiligung und einem starken Gefühl der Handlungsfähigkeit im Prozess des Lernens und Lehrens» (S. 244). «Das Ziel ist es, den Lernenden die Fähigkeit zu vermitteln, sich selbst zu unterrichten – ihr Lernen selbst zu regulieren (to get students to learn the skills of teaching themselves – to self-regulate their learning)» (S. 245). «Die grössten Effekte auf das Schülerlernen treten auf, wenn Lehrpersonen in Bezug auf ihr Lehren selber zu Lernenden werden und wenn Lernende zu ihren eigenen Lehrpersonen werden (when students become their own teachers)» (S. 22). Am wirksamsten ist das schulische Lernen also dann, wenn die Schülerinnen und Schüler zu ihren eigenen Lehrern werden! So sehr Hattie das selbstorganisierte Lernen als Unterrichtsmethode ablehnen mag, so sehr stimmt er ihm als Lernziel zu. Zu ergänzen wäre lediglich, dass das Ziel im Kontext institutionalisierten Unterrichts immer nur annäherungsweise erreicht werden kann.

Konstruktivistisches Lernverständnis

Schmutz bezieht sich in seiner Kritik nicht auf Hattie, sondern auf einen Aufsatz von Kirschner, Sweller und Clark (2006), der allerdings auch von Hattie (2009) zitiert wird. Von «einer internationalen, empirisch abgestützten Studie» kann dabei aber nicht die Rede sein, denn die Autoren präsentieren keine noch unveröffentlichten Daten, sondern resümieren ausnahmslos bereits publizierte Forschungsergebnisse. Im Fokus des Aufsatzes steht auch nicht das selbstorganisierte Lernen, sondern die vergleichende Bewertung verschiedener Formen schülerzentrierten Unterrichts (die Autoren sprechen von «unguided or minimally guided instruction»). Wenn überhaupt, dann geht es den Autoren lediglich um das selbstorganisierte Lernen als Methode.

Eine genauere Lektüre seiner Quelle hätte Schmutz auch von den unnötigen Seitenhieben gegen den Konstruktivismus, der von ihm genauso wenig gelitten wird wie das selbstorganisierte Lernen, abhalten können. Ausdrücklich schreiben die Autoren nämlich: «The constructivist description of learning is accurate» (Kirschner, Sweller & Clark, 2006, S. 78)! Was sie kritisieren, ist also nicht das konstruktivistische Verständnis von Lernen (dieses bezeichnen sie ausdrücklich als korrekt), sondern die Konsequenzen, die in pädagogischen Kreisen daraus gezogen werden. Das aber deckt sich völlig mit meiner eigenen Auffassung. Aus einem psychologischen Verständnis von Lernen lässt sich nicht unmittelbar eine Methode zur Gestaltung des Unterrichts ableiten.

4. Können Metaphern falsch sein?

Den letzten Schliff gibt Schmutz seinem Verriss meines Beitrags zum selbstorganisierten Lernen, indem er mich des falschen Metapherngebrauchs bezichtigt. Wie er zu Recht feststellt, bilden Metaphern «die Sache, die sie meinen, jeweils nur unvollständig ab». Damit lässt sich aber keine Pauschalkritik an der Verwendung von Metaphern begründen, denn Metaphern nutzen wir oft dann, wenn uns ein begrifflicher Zugang zu einem Phänomen nicht möglich ist. Sei es, weil das Phänomen noch nicht hinreichend untersucht wurde, sei es, weil es notorisch schwierig sein kann, über gewisse Erfahrungen in klaren Worten zu reden. Metaphern sind deshalb auch in der Wissenschaft nicht nur schmückendes Beiwerk, auf das ohne weiteres verzichtet werden könnte, sondern von erkenntniserschliessender Bedeutung. Indem wir etwas sehen, als ob es etwas anderes wäre, erzeugen wir eine Analogie, die uns hilft, das begrifflich Unfassbare doch noch begreifbar zu machen. Insofern ist eine Metapher ein Medium der Sinnstiftung. Ob die Sinnstiftung selber sinnvoll ist, lässt sich rational nicht entscheiden. Deshalb ist grundsätzlich nichts einzuwenden, wenn Schmutz meiner Metaphernwahl mit Skepsis begegnet.

Was aber nicht angeht, ist eine Metaphernkritik, die versucht, die Logik der metaphorischen Sinnstiftung ausser Kraft zu setzen, indem sie nach Entsprechungen sucht, die der Metapher widersprechen. Der Vergleich, der eine Metapher konstituiert, ist immer selektiv, was sich auch so ausdrücken lässt, dass jede Metapher sowohl auf positiven wie auf negativen Analogien beruht. Die positiven Analogien erzeugen den Sinn der Metapher; die negativen Analogien umfassen jene Aspekte des Vergleichs, die für das Verständnis der Metapher irrelevant sind. Wird zum Beispiel der Mensch ein Wolf genannt, so liegt die positive Analogie darin, dass dem Menschen Eigenschaften zugeschrieben werden, die (vermeintlich) auch auf den Wolf zutreffen, wie Bestialität, Feindseligkeit oder Hinterhältigkeit. Zu den negativen Analogien gehört dagegen, dass ein Wolf vier Beine, einen Schwanz und ein Fell hat, alles Merkmale, die auf den Menschen nicht zutreffen und für den Sinn der Metapher belanglos sind.

Ein grotesker Vorwurf

Die Bulimie-Metapher wird bewusst falsch interpretiert.

Während ich in meinem Beitrag darlege, wie ich die Bulimie-Metapher verstanden haben möchte, also die positiven Analogien zwischen Bulimie und Schülerlernen ausführe, verbeisst sich Schmutz in die negativen Analogien und reitet solange darauf herum, bis ich gleichsam mit heruntergelassenen Hosen dastehe. Das ist nicht nur beschämend, sondern auch absurd. Denn die Metapher des Bulimie-Lernens stammt nicht von mir. Selbst bei Wikipedia gibt es mittlerweile einen Eintrag zum Bulimie-Lernen, der zudem den Eindruck erweckt, dass die Metapher bereits zum Begriff geworden ist. Es heisst nämlich: «Unter dem Begriff (!) Bulimielernen … versteht man das kurzfristige Auswendiglernen von Fakten, Formeln, Sachverhalten, Wissen etc. für eine Prüfung, Klausur, Klausurarbeit oder einen Test, die man relativ kurze Zeit danach wieder vergisst und dadurch mangels Übung und tiefgreifenderem Verständnis meist nicht auf ähnliche Probleme anwenden kann» (abgerufen am 1.4.2020). Genau so wird die Bulimie-Metapher von mir verwendet, um genau das zu bezeichnen, was Schmutz nach seiner vernichtenden Kritik als eigene Einsicht ausgibt: «Was nicht genug verarbeitet, nicht oft genug wiederholt wird oder erst gar nicht interessiert, landet nicht im Langzeitgedächtnis.» Es ist in der Tat ein gut bestätigtes Ergebnis der lernpsychologischen Forschung, dass verteiltes Lernen zu besseren Gedächtnisleistungen führt als massiertes Lernen. Aber statt hervorzuheben, dass er in diesem Punkt mit mir übereinstimmt, polemisiert Schmutz gegen meine Verwendung der Bulimie-Metapher und wirft mir zum krönenden Abschluss noch vor, ich wolle «schulische Arbeit als krank machend und nutzlos … diffamieren». Grotesker geht es wahrlich nicht mehr!

Schlussbemerkung

Der Vorwurf fehlender Bodenhaftung und ideologischer Befangenheit erweist sich als hohles Gerede, wenn der Kritiker nicht in der Lage ist, seine vorgeblich auf «Erfahrung und Empirie» beruhende Kritik hinlänglich zu begründen. Aus allen Rohren zu schiessen, im Glauben, eines der Geschosse werde sein Ziel schon treffen, ist eine untaugliche Strategie, um gegen die Fehlinterpretationen des selbstorganisierten Lernens anzukämpfen. Dass es diese Fehlinterpretationen gibt, steht auch für mich ausser Zweifel. Sie bestehen vor allem darin, das selbstorganisierte Lernen um den Zielaspekt zu verkürzen und ohne die Schülerinnen und Schüler darauf vorzubereiten als Methode einzusetzen. Kritisieren lässt sich diese Schrumpfvariante des selbstorganisierten Lernens nur auf der Basis gut begründeter und nachvollziehbarer Argumente. Weshalb Schmutz davon nichts wissen will, ist mir ein Rätsel.

Umso mehr, als unsere Positionen, wie schon angedeutet, gar nicht so weit auseinanderliegen. So stimme ich ohne weiteres zu, wenn Schmutz das «Ziel jeder Erziehung und Bildung» dahingehend bestimmt, «ein selbstständiges Leben führen und informierte, autonome Entscheidungen treffen zu können. Dies schrittweise zu ermöglichen, ist die Aufgabe und die Kunst derjenigen, die mit Kindern und Jugendlichen arbeiten.» Im Unterschied zu Schmutz interpretiere ich dieses Ziel aber nicht so, dass das Lernen davon ausgeschlossen ist, sondern schliesse es ausdrücklich in den Bildungsauftrag der Schule ein. Zu einem selbstbestimmten Leben gehört auch die Fähigkeit, sein Lernen selber gestalten zu können. Dies schrittweise zu ermöglichen, ist eine unverzichtbare, wenn auch anspruchsvolle Aufgabe des schulischen Unterrichts.

Literaturverzeichnis

Ashby, W.R. (21957). An Introduction to Cybernetics. London: Chapman & Hall.

Bischof, N. (1995). Struktur und Bedeutung. Eine Einführung in die Systemtheorie für Psychologen. Bern: Huber.

Günther, G. (32002). Das Bewusstsein der Maschinen. Eine Metaphysik der Kybernetik. Baden-Baden: AGIS.

Hattie, J.A.C. (2009). Visible Learning. A Synthesis of Over 800 Meta-Analyses Relating to Achievement. London: Routledge.

Kirschner, P.A., J. Sweller & R.E. Clark (2006). Why Minimal Guidance During Instruction Does Not Work: An Analysis of the Failure of Constructivist, Discovery, Problem-Based, Experiential, and Inquiry-Based Teaching. Educational Psychologist, 41, 75-86.

Maturana, H.R. (1998). Biologie der Realität. Frankfurt a.M.: Suhrkamp.

Weinert, F.E. (1982). Selbstgesteuertes Lernen als Voraussetzung, Methode und Ziel des Unterrichts. Unterrichtswissenschaft, 2, 99-110.

 

The post Das Lernen als Aspekt menschlicher Selbstbestimmung. Eine Antwort an Felix Schmutz first appeared on Condorcet.

]]>
https://condorcet.ch/2020/04/das-lernen-als-aspekt-menschlicher-selbstbestimmung-eine-antwort-an-felix-schmutz/feed/ 2
Eine Chance für das selbstorganisierte Lernen https://condorcet.ch/2020/03/eine-chance-fuer-das-selbstorganisierte-lernen/?utm_source=rss&utm_medium=rss&utm_campaign=eine-chance-fuer-das-selbstorganisierte-lernen https://condorcet.ch/2020/03/eine-chance-fuer-das-selbstorganisierte-lernen/#comments Wed, 25 Mar 2020 20:17:39 +0000 https://condorcet.ch/?p=4390

Professor Walter Herzog ist ein scharfer Kritiker von Harmos und Lehrplan 21. Gegenüber dem "Selbstorganisierten Lernen" hat er aber eine positive Haltung. Die Kritik an SOL beruhe auf einem Missverständnis.

The post Eine Chance für das selbstorganisierte Lernen first appeared on Condorcet.

]]>
Corona-Krise mit schwer absehbaren Folgen.

Krisen sind Zeiten der Entscheidung. Sie zwingen nicht nur kurzfristig zu entschlossenem Handeln, sondern haben auch langfristig Auswirkungen, die sich aus der Einsicht ergeben, dass man nicht hinreichend auf die Krise vorbereitet war. Was die Krise anbelangt, in die uns das Corona-Virus gestürzt hat, ist noch schwer absehbar, welche langfristigen Veränderungen sie zur Folge haben wird. Bezüglich des Schulsystems lassen sich allerdings bereits erste Vermutungen anstellen, wie die Weichen gestellt werden könnten. Dabei ist weniger an die Digitalisierung und den digitalisierten Unterricht zu denken als an eine wesentliche Voraussetzung des digitalisierten Unterrichts, nämlich die Fähigkeit und Bereitschaft der Schülerinnen und Schüler, ihr Lernen selber zu organisieren. Unzählige Schülerinnen und Schüler, die zurzeit zuhause lernen müssen, wären vermutlich froh, wenn sie beim Management ihres Lernalltags über mehr Kompetenzen verfügen würden.

Unzählige Schülerinnen und Schüler, die zurzeit zuhause lernen müssen, wären vermutlich froh, wenn sie beim Management ihres Lernalltags über mehr Kompetenzen verfügen würden.

Das Corona-Virus bringt ein schulpädagogisches Konzept zurück aufs Tapet, das in den vergangenen Jahren heftigen Kontroversen ausgesetzt war: das selbstorganisierte Lernen. So wurde der Lehrplan 21 mit dem Argument bekämpft, die Lehrpersonen würden sich aus der Verantwortung stehlen und die Schülerinnen und Schüler ihrem Schicksal überlassen. Gegen die Reduktion der Instruktionsfunktion auf eine blosse Coachingfunktion wurde vorgebracht, dass Lehrpersonen den Schulstoff verständlich aufzubereiten, methodisch reflektiert zu vermitteln und das Lernverhalten der Schülerinnen und Schüler eng zu begleiten hätten. Dabei offenbarten sich aber auch Missverständnisse, die auszuräumen nun die Gelegenheit gekommen ist.

Vom Lernziel zur Unterrichtsmethode

Lehrplan 21, Gesamtausgabe: SOL sollte von der Kritik ausgenommen bleiben.

Wie immer man zum Lehrplan 21 stehen mag, bezüglich des selbstorganisierten Lernens muss man ihn in Schutz nehmen. An keiner Stelle heisst es, die Schülerinnen und Schüler sollen beim Lernen allein gelassen werden. Das zeigt sich schon daran, dass das selbstorganisierte Lernen nicht als Unterrichtsmethode, sondern als Lernziel eingeführt wird. Die Schülerinnen und Schüler sollen lernen, «ihr Lernen zunehmend selbstständig zu bewältigen [und] an der eigenen Lernfähigkeit zu arbeiten». Sie sollen in der Fähigkeit gefördert werden, «ihr Lernen selbstständig zu gestalten und dafür zunehmend Verantwortung zu über­neh­men». Und sie sollen angeleitet werden, «über ihr Lernen und ihr Arbeiten nachzudenken und dieses zunehmend selbstständig und mit mehr Selbstverantwortung zu steuern».

Schüler sollen in der Fähigkeit gefördert werden, ihr Lernen selbstständig zu gestalten und dafür zunehmend Verantwortung zu über­neh­men.

Die Polemik um das selbstorganisierte Lernen verdankt sich vermutlich zu einem grossen Teil dem Begriff selber, der Fehlinterpretationen geradezu nahelegt. Sein Lernen selber zu organisieren, käme dem Anspruch vollständiger Selbstbestimmung gleich. Solange das Lernen jedoch in einem institutionellen Kontext wie der Schule stattfindet, ist ein selbstorganisiertes Lernen im umfassenden Sinn weder möglich noch sinnvoll. Bereits der Lehrplan schränkt die Selbstbestimmung des Lernens massiv ein.

Worum es eigentlich geht

Andere Begriffe würden daher besser zum Ausdruck bringen, worum es geht, wie insbesondere der Begriff des selbstregulierten Lernens. Denn genau dies ist der Anspruch: sein Lernen selber zu regulieren. Wer sein Lernen selber regulieren kann, verfügt über eine Reihe von Kenntnissen und Fähigkeiten, die es ihm ermöglichen, die Bedingungen des Lernens zu beeinflussen. Er vermag sich für das Lernen zu motivieren und verfügt über ein Repertoire an Lernstrategien, die sich flexibel einsetzen lassen. Er ist in der Lage, die ihm verfügbare Lernzeit optimal zu nutzen. Er kann sein Lernverhalten den Bedingungen und Anforderungen des Lerngegenstandes und der Lernsituation anpassen. Er ist fähig, nicht nur seinen Lernprozess zu beobachten, zu beurteilen und zu kontrollieren, sondern auch den Lernort festzulegen und die Lernumgebung zu arrangieren. Schliesslich gehört zur Selbstregulation des Lernens auch die Fähigkeit, sich bei Schwierigkeiten Hilfe zu holen, zum Beispiel im Rahmen einer Lernpartnerschaft, durch die Inanspruchnahme von Beratung oder die Nutzung eines Tutorials auf Youtube.

In keinem Fall kann einfach vorausgesetzt werden, dass Schülerinnen und Schüler in der Lage sind, die Umstände ihres Lernens eigenständig und eigenverantwortlich zu regeln.

Diese Aufzählung von Eigenleistungen macht deutlich, wie anspruchsvoll selbstorganisiertes Lernen ist. In keinem Fall kann einfach vorausgesetzt werden, dass Schülerinnen und Schüler in der Lage sind, die Umstände ihres Lernens eigenständig und eigenverantwortlich zu regeln. Genau deshalb ist das selbstorganisierte Lernen nicht in erster Linie eine Unterrichtsmethode, sondern ein Lernziel, das als solches zuerst gelehrt werden muss, bevor es als Methode eingesetzt werden kann.

Verbesserung des Unterrichts

Prüfungsbezogenes Lernen

Es wäre aber falsch anzunehmen, die Fähigkeit zur Selbstorganisation des Lernens erweise ihre Dringlichkeit nur in der ausserordentlichen Situation des Fernunterrichts. Kenntnisse über wirksame Lernstrategien sind auch unter regulären Unterrichtsbedingungen von grösster Bedeutung. Ein wahres Übel unseres Schulsystems liegt darin, dass es ein Lernverhalten fördert, das sich am Rhythmus der notenrelevanten Prüfungen orientiert. Da alles auf die Prüfungsleistung anzukommen scheint, wird das Lernen auf die Zeit unmittelbar vor der Prüfung konzentriert. Nach der Prüfung wird dann schnell wieder vergessen, was man sich eingepaukt hat. Gefördert wird ein Bulimie-Lernen, dessen Ineffektivität im Vergleich mit einem zeitlich verteilten Lernen psychologisch längst nachgewiesen ist, von der Schulpraxis aber weiterhin nicht zur Kenntnis genommen wird.

Hier ist auch der Punkt, wo die Kritik am Lehrplan 21 berechtigt ist. Dieser folgt didaktisch einer linearen Aufbaulogik, wonach der Stoff eines Faches wie beim Einräumen einer Bibliothek Stück um Stück in die Köpfe der Schülerinnen und Schüler eingelagert wird. Genau so kommt aber kein nachhaltiges Lernen zustande. Denn was auf eine einzelne Lernphase zutrifft, gilt auch für ein ganzes Curriculum: Stoff, der nicht repetiert und in neuen Kontexten reaktiviert und vertieft wird, geht schnell vergessen.

Richtig verstanden, könnte das selbstorganisierte Lernen nicht nur positive Auswirkungen auf die Qualität des Lernverhaltens der Schülerinnen und Schüler haben, sondern auch zu einer Verbesserung der Lernwirksamkeit des Unterrichts führen.

Es ginge also nicht nur darum, den Schülerinnen und Schülern beizubringen, ihr Lernverhalten zu ändern, auch der Unterricht wäre wirksamer, wenn er nicht einer linearen, sondern einer zyklischen Logik folgen würde. Richtig verstanden, könnte das selbstorganisierte Lernen nicht nur positive Auswirkungen auf die Qualität des Lernverhaltens der Schülerinnen und Schüler haben, sondern auch zu einer Verbesserung der Lernwirksamkeit des Unterrichts führen. Auch wenn der Anlass zu dieser Einsicht schmerzlich ist, er böte die Chance für eine innere Reform unserer Schulen, die so schnell nicht wiederkommen dürfte.

The post Eine Chance für das selbstorganisierte Lernen first appeared on Condorcet.

]]>
https://condorcet.ch/2020/03/eine-chance-fuer-das-selbstorganisierte-lernen/feed/ 1
Die PISA-Studien bieten der pädagogischen Praxis wenig Nutzen https://condorcet.ch/2019/12/die-pisa-studien-bieten-der-paedagogischen-praxis-wenig-nutzen/?utm_source=rss&utm_medium=rss&utm_campaign=die-pisa-studien-bieten-der-paedagogischen-praxis-wenig-nutzen https://condorcet.ch/2019/12/die-pisa-studien-bieten-der-paedagogischen-praxis-wenig-nutzen/#comments Thu, 05 Dec 2019 05:13:10 +0000 https://condorcet.ch/?p=3143

Die PISA-Studien nehmen für sich in Anspruch, Bildung zu messen. Aber kann man Bildung tatsächlich messen? Der emeritierte Professor und Condorcet-Autor Walter Herzog geht dieser Frage nach und deckt auf, weshalb die pädagogische Praxis von der Bildungsvermessung nur wenig profitieren kann.

The post Die PISA-Studien bieten der pädagogischen Praxis wenig Nutzen first appeared on Condorcet.

]]>

Es verhält sich mit der Bildung nicht unähnlich wie mit der Zeit. Niemand wird bestreiten, dass wir die Zeit messen können. Aber ebenso wird niemand behaupten, dass die metrische Zeit das Phänomen Zeit vollständig abdeckt. Unsere Uhren wissen nichts vom Leiden an der Zeit, vom Gefühl der Zeitlosigkeit, vom Verweilen im Augenblick oder von der Langeweile. Sie wissen auch nichts von der qualitativen Unterscheidung in Vergangenheit, Gegenwart und Zukunft. Wir mögen noch so lange auf unsere Uhren blicken, wir werden nie erfahren, dass die vergangene Zeit etwas ganz anderes ist als die zukünftige Zeit. Was eine Uhr misst, ist daher nie die ganze Zeit. Etwas Ähnliches trifft auf die Bildung zu. Auch wenn sich Bildung messen lässt, heisst dies nicht, dass die gemessene Bildung uneingeschränkt dem entspricht, was wir unter Bildung verstehen.

Auch wenn sich Bildung messen lässt, heisst dies nicht, dass die gemessene Bildung uneingeschränkt dem entspricht, was wir unter Bildung verstehen.

Entgrenzung von Raum und Zeit

Was tun wir überhaupt, wenn wir etwas messen? Im Falle der Zeit fällt uns eine Antwort nicht allzu schwer. Wir messen die Zeit, indem wir einen regelmässigen natürlichen oder künstlichen Vorgang als Standard setzen, um einen anderen Vorgang damit zu vergleichen. Ob Sonnenuhr, Wasseruhr, Sanduhr, Räderuhr, Pendeluhr oder Quarzuhr, immer gibt es einen sich periodisch wiederholenden Geschehensablauf, der als Massstab dient, um einen anderen Geschehensablauf zu messen.

Ob Sonnenuhr, Wasseruhr, Sanduhr, Räderuhr, Pendeluhr oder Quarzuhr, immer gibt es einen sich periodisch wiederholenden Geschehensablauf, der als Massstab dient.

Die Vorstellung, dass Uhren die Zeit anzeigen oder registrieren, ist daher missverständlich, da sie suggeriert, Zeit sei uns objektiv gegeben und brauche nur verlässlich abgebildet zu werden. Doch eine Uhr bildet die Zeit nicht ab, sondern auferlegt unserer Zeiterfahrung eine bestimmte Ordnung, die es ermöglicht, uns über die Zeit zu verständigen. Wie gut begründet der Vorgang der Zeitmessung auch immer sein mag, es gibt keine Zeit an sich. Was Zeit ist, legen wir durch die Messung von Zeit überhaupt erst fest.

Wir legen fest, was Bildung ist

Mit der Bildung verhält es sich nicht anders. Auch Bildung gibt es nicht an sich, sondern wir legen fest, was wir unter Bildung verstehen, indem wir uns auf eine lange Tradition des Denkens über Bildung beziehen. Das Gepräge, das Wilhelm von Humboldt und Hegel dem Bildungsbegriff gegeben haben, ist in vieler Hinsicht auch heute noch relevant, wenn wir über Bildung sprechen. Allerdings war die Messung von Bildung weder für Humboldt noch für Hegel ein Thema. Ihre Auseinandersetzung mit dem Bildungsbegriff erfolgte im Medium der Sprache, deren Nachteil darin liegt, dass wir weniger präzise kommunizieren können, was wir unter Bildung verstehen, als wenn uns ein Instrument zur Verfügung steht, mit dem sich Bildung messen lässt.

Die PISA-Studien stehen in einer Tradition der Standardisierung von Masssystemen.

Die höhere Präzision, die mit einem Messvorgang verbunden ist, hat wesentlich damit zu tun, dass eine Messung von lokalen und personalen Einflüssen weitgehend unabhängig ist. Während die Zeit noch in der ersten Hälfte des 19. Jahrhunderts von den natürlichen Tages- und Jahresrhythmen einer Agrargesellschaft bestimmt wurde und damit lokale Zeit war, führte die Industrialisierung zu einer Vereinheitlichung der Zeitmessung. Die aufkommenden Nationalstaaten beförderten die Entwicklung, da sie aufgrund ihrer Verwaltungsbedürfnisse generell an einheitlichen Masssystemen interessiert waren. Offenbar soll nun Gleiches auch mit der Bildung geschehen. Die PISA-Studien stehen in einer Tradition der Standardisierung von Masssystemen, die im 19. Jahrhundert begonnen hat und seither immer mehr Lebensbereiche erfasst. Analog zur metrischen Zeiterfassung soll die Beurteilung von Bildung unabhängig von lokalen Einflüssen sein, da sich nur so über Raum und Zeit hinweg Vergleiche anstellen lassen.

Verschiedene Messniveaus

Was messen wir überhaupt? Bild: AdobeStock

Was aber verstehen wir überhaupt unter einer Messung? Nach einer weit verbreiteten Definition beruht eine Messung auf der Zuordnung von Zahlen zu Eigenschaften von Objekten oder Ereignissen entsprechend einer bestimmten Regel. So können wir Klassen von Objekten mit einer gewissen Eigenschaft (z.B. Menschen mit der Eigenschaft, männlich oder weiblich zu sein) Zahlen zuordnen (den Männern eine 1, den Frauen eine 2 oder umgekehrt) und haben damit einen Messvorgang vollzogen. Allerdings einen äusserst primitiven, da die Zahlen lediglich eine nominelle Zuordnung, d.h. eine Benennung, erlauben. Man spricht deshalb von einer Nominalskala.

Etwas gehaltvoller ist die Zuordnung von Zahlen zu Objekten, wenn wir eine Rangreihe bilden können – z. B. die Reihenfolge, in der die Teilnehmer an einem Hundertmeterlauf im Ziel eintreffen. Wenn wir als Zahlsystem die natürlichen Zahlen nehmen und diese beginnend mit 1 vergeben, dann definieren die Zahlen eine Abfolge. Die Zahlen sind nicht mehr bloss Namen, sondern legen eine Ordnung fest, nämlich wer der Schnellste, wer der Zweitschnellste, wer der Drittschnellste etc. ist. Aus der Ordnung als solcher lässt sich aber nicht schliessen, wer der Schnellste schlechthin ist, da wir nur die Reihenfolge beim Eintreffen am Ziel registriert und nicht die Laufzeit gestoppt haben. Rang- bzw. Ordinalskalen erlauben eine qualitative Ordnung, also gerade nicht das, was wir unter einer Messung verstehen.

Messungen auf dem Niveau von Ratioskalen sind in den Sozialwissenschaften allerdings nicht möglich.

Erst eine Intervallskala, deren Zahlen nicht nur geordnet sind, sondern gleiche Abstände aufweisen und damit Grössenunterschiede erfassen, erfüllt die Erwartungen an eine Messung. Was einer Intervallskala jedoch noch fehlt, um die Qualität eines physikalischen Masssystems zu erreichen, ist ein definierter Nullpunkt. Ist ein solcher Nullpunkt gegeben wie im Falle der Längen- oder Zeitmessung haben wir es mit einer Ratioskala zu tun, die eine absolute Messung erlaubt. Der Messvorgang wird damit gänzlich unabhängig von lokalen Bedingungen, wie die Zeitmessung bei einem Hundertmeterrennen zeigen kann. Egal wo oder wann die hundert Meter gemessen werden, sie lassen sich über Raum und Zeit hinweg miteinander vergleichen, was es möglich macht, von einem Rekord bzw. «Weltrekord» zu sprechen. Messungen auf dem Niveau von Ratioskalen sind in den Sozialwissenschaften allerdings nicht möglich. Das höchste erreichbare Niveau sind Intervallskalen, wobei auch hier gelegentlich bezweifelt wird, dass dieses Niveau tatsächlich erreicht wird. Besonders schwierig sind daher Vergleiche über die Zeit. Obwohl mit den PISA-Studien solche Vergleiche angestellt werden, sind sie mit Vorsicht zu geniessen.

Tests als Messinstrumente

Wenn Messung darauf beruht, dass ein Massstab definiert wird, mit dem das zu messende Phänomen verglichen wird, dann stellt sich im Falle der Messung von Bildung die Frage, was eigentlich gemessen wird. Was wird womit verglichen? Bei den PISA-Studien stützt man sich auf das Leistungsverhalten der Schülerinnen und Schüler, denen standardisierte Testaufgaben vorgelegt werden, die sie zu bearbeiten haben. Wenn dann von Wissen, Können oder Kompetenzen gesprochen wird, dann muss man sich aber bewusst sein, dass dies gerade nicht gemessen wird. Eine Messung von Wissen oder Kompetenzen ist im strengen Sinn nicht möglich, da psychische Phänomene im Unterschied zu physischen nicht oder nur teilweise direkt zugänglich sind. Psychologische Konstrukte wie Persönlichkeit, Gedächtnis, Intelligenz, Problemlösefähigkeit, Kompetenz oder Einstellung, aber auch Schulleistung, sind uns nicht phänomenal gegeben. Vielmehr sind es Konstrukte, deren Realitätsstatus oft unklar ist. Was uns gegeben ist, sind Verhaltensweisen oder Ergebnisse von Verhaltensweisen, die wir als Indikatoren nutzen, um das interessierende Konstrukt zu erschliessen.

Psychometrische Tests sind nichts anderes als methodische Hilfsmittel, um individuelle Verhaltensweisen unter kontrollierten Bedingungen auszulösen.

Beurteilungsbogen der Kindergärten in St. Gallen Seite 9 von insgesamt 12 Seiten

Psychometrische Tests sind nichts anderes als methodische Hilfsmittel, um individuelle Verhaltensweisen unter kontrollierten Bedingungen auszulösen. Tests werden so konstruiert, dass sie einem Messverfahren nahekommen. Die üblichen Testkriterien – Objektivität, Reliabilität und Validität – sind Ersatzkriterien, um den Mangel an Messqualität zu kompensieren. Die Kriterien sind darauf ausgerichtet, die Durchführung eines Tests sowie die Auswertung der Testergebnisse zu normieren, womit der Anspruch einer Messung, nämlich von lokalen und situativen Bedingungen unabhängig zu sein, wenigstens annäherungsweise eingelöst werden kann. Dies bringt das folgende Zitat von Lee Cronbach aus seinen Essentials of Psychological Testing pointiert zum Ausdruck: «A standardized test is one in which the procedure, apparatus, and scoring have been fixed so that precisely the same testing procedures can be followed at different times and places» (S. 27 – Hervorhebung W. H.). Tests wie sie im Rahmen von PISA und vergleichbaren Schulleistungsstudien zum Einsatz kommen erfüllen damit eine analoge Funktion wie Uhren im Falle der Zeiterfassung, nämlich Bildung unabhängig von lokalen Bedingungen zu messen. Die Qualität der Messung von Schülerleistungen ist allerdings bedeutend geringer als die Qualität der Zeitmessung.

Problematisch ist vor allem der Aspekt der Validität.

Problematisch ist vor allem der Aspekt der Validität. Während die Objektivität und die Reliabilität formale Kriterien sind, die etwas über die Genauigkeit und Verlässlichkeit eines Tests sagen (z.B. darüber, wie gross der Messfehler ist), ist das entscheidende Kriterium eines Tests letztlich inhaltlicher Art und betrifft die Frage, ob der Test überhaupt misst, was er zu messen vorgibt. Während bei einer physikalischen Messung die Frage der Validität des Messinstruments vor dessen Entwicklung auf der Basis von theoretischen und empirischen Kenntnissen des Messgegenstandes beantwortet werden kann, lassen sich Tests erst im Nachhinein validieren. Sie werden mit einem Aussenkriterium korreliert, dessen Validität aber genauso fraglich sein kann wie die Validität des Tests selber. Nur wenn wir wüssten, wie der psychologische Gegenstand beschaffen ist, liesse sich die Frage, wie er gemessen werden soll, eindeutig beantworten. Das gilt für die Erhebung psychologischer Daten mittels Tests generell, also auch für die Messung von Kompetenzen. Zwar ist uns auch die Zeit sinnlich nicht direkt gegeben, aber im Falle der Zeit haben wir verlässliche physikalische Theorien, die uns erlauben, die Uhrzeit als fundamentalen Messvorgang zu begründen. Was die PISA-Tests tatsächlich messen, ist daher alles andere als klar.

Geringer Nutzen für die pädagogische Praxis

Offensichtlich bilden die PISA-Studien nicht einfach ab, was an unseren Schulen an Bildung vermittelt wird. Was die Studien messen, ist vom Messvorgang nicht unabhängig, sondern geht aus der Messung überhaupt erst hervor. Die Vorzüge, die die Messung von Bildung bietet, müssen daher mit einem hohen Preis bezahlt werden. Die Vorzüge liegen in der Standardisierung des Verfahrens und in seiner Unabhängigkeit von raum-zeitlichen Beschränkungen. Die Standardisierung erhöht die Verlässlichkeit, mit der über Bildung gesprochen werden kann. Die dadurch gewonnene Objektivität ist aber lediglich Objektivität im Sinne von intersubjektiver Übereinstimmung, aber nicht im Sinne von Gegenstandsadäquatheit. Zwar vermögen wir dank der PISA-Studien verbindlicher über Bildung zu sprechen, ob aber das, worüber wir sprechen, dem entspricht, was wir herkömmlicherweise unter Bildung verstehen, muss bezweifelt werden.

Vorteil liegt im politischen Bereich

Wie industrielle Standards dazu dienen, um Produktionsabläufe in ihrer Effizienz zu steigern, sind Bildungsstandards einer Logik der Effizienzsteigerung von Schule und Unterricht verpflichtet. Bild: AdobeStock

Angesichts dieses Vorbehalts scheint der Nutzen der PISA-Studien nicht pädagogischer, sondern politischer Art zu sein. Er liegt in der Relativierung eines sprachlichen Zugangs zur Bildung, dessen Grenzen darin liegen, dass wir über Bildung nur vage und unpräzise sprechen können, während die Messung von Bildung nicht nur mehr Präzision mit sich bringt, sondern auch Vergleiche ermöglicht, die über lokale Grenzen hinausgehen. Das entspricht dem Credo der standardbasierten Reform des Schulsystems. Wie industrielle Standards dazu dienen, um Produktionsabläufe in ihrer Effizienz zu steigern, sind Bildungsstandards einer Logik der Effizienzsteigerung von Schule und Unterricht verpflichtet. Dafür sind genaue Kenntnisse über die Leistungsfähigkeit des Systems unabdingbar. Mit den PISA-Studien wird der Blick auf die Schule vereinheitlicht, was politisch willkommen scheint. Pädagogisch ist aber etwas anderes gefragt. Wer pädagogisch handelt, tut dies nie auf dem Niveau standardisierter Abläufe, sondern immer in einer konkreten Situation unter Beachtung situativer und individueller Besonderheiten. Die Messung von Bildung steht damit im Widerspruch zur Logik pädagogischer Praxis. Dass Lehrerinnen und Lehrer mit den Ergebnissen der PISA-Studien wenig anzufangen wissen, kann daher nicht erstaunen.

The post Die PISA-Studien bieten der pädagogischen Praxis wenig Nutzen first appeared on Condorcet.

]]>
https://condorcet.ch/2019/12/die-pisa-studien-bieten-der-paedagogischen-praxis-wenig-nutzen/feed/ 1
Die verkehrte Welt der EDK https://condorcet.ch/2019/06/die-verkehrte-welt-der-edk/?utm_source=rss&utm_medium=rss&utm_campaign=die-verkehrte-welt-der-edk https://condorcet.ch/2019/06/die-verkehrte-welt-der-edk/#comments Thu, 06 Jun 2019 21:32:13 +0000 https://lvb.kdt-hosting.ch/?p=1305

Während die PISA-Studien mit grosser Regelmässigkeit belegen, dass unsere Schülerinnen und Schüler in Mathematik zur Weltspitze gehören, jedoch im Lesen nur Mittelmass bilden, verkündet die EDK als Hauptergebnis ihrer ersten nationalen Überprüfung der Grundkompetenzen das schiere Gegenteil. Kann man sich einen Reim darauf machen? Condorcet-Autor Walter Herzog weist in seiner Analyse auf brisante Tatsachen hin, welche der EDK ein denkbar schlechtes Zeugnis ausstellen. Wer sich die Herausforderung der längeren Lektüre nicht zumuten will, dem empfehlen wir die Zusammenfassung unseres Autors Felix Schmutz im Anschluss an diesen Beitrag.

The post Die verkehrte Welt der EDK first appeared on Condorcet.

]]>

Nach einjähriger Verschiebung des Publikationstermins hat die EDK am 24. Mai 2019 die Ergebnisse der ersten beiden Durchgänge der «Überprüfung des Erreichens der Grundkompetenzen» bekanntgegeben. Erhoben wurden die Daten Mitte 2016 und Mitte 2017, und man fragt sich, weshalb die Auswertung so viel Zeit gekostet hat. Meine Vermutung, dass bei der Festlegung der Schwellenwerte politisch Einfluss genommnen wurde (vgl. mein Blog-Beitrag vom 10. Mai 2019), scheint sich zwar nicht zu bewahrheiten. Das ändert aber nichts am Verdacht, dass von Seiten der Politik Druck ausgeübt wurde. Bedenkt man, dass es bei den PISA-Studien jeweils knapp anderthalb Jahre dauert, bis die Ergebnisse vorliegen, wobei angesichts der grossen Zahl an teilnehmenden Ländern kein Zweifel besteht, dass diese Zeit tatsächlich benötigt wird, sind die drei Jahre, die wir auf die Ergebnisse zur Überprüfung der Grundkompetenzen in Mathematik warten mussten, unverständlich. Im Folgenden unternehme ich einen zweiten Versuch, die Verzögerung zu erklären, lege den Hauptakzent aber auf die kritische Würdigung der vorgelegten Ergebnisse.

Hohe Erwartungen

Überprüft wurde, wie weit die Schülerinnen und Schüler die Grundkompetenzen in Mathematik am Ende der obligatorischen Schule sowie in der Schulsprache und in der ersten Fremdsprache am Ende der Primarschulzeit erreichen. Die Grundkompetenzen entsprechen den nationalen Bildungszielen, wie sie vom HarmoS-Konkordat vorgegeben werden. Sie stellen gemäss EDK ein Kerninstrument des Konkordats dar (vgl. EDK 2011, S. 3) und sind als leistungsbezogene Mindest‑ bzw. Basisstandards formuliert. Sie umschreiben jenes Minimum an Wissen und Können, dessen Erwerb von allen Schülerinnen und Schülern in der obligatorischen Schulzeit erwartet wird. Nach Ansicht der EDK hat unser Bildungssystem zu «gewährleisten, dass praktisch alle Schülerinnen und Schüler diese Mindestanforderungen … erreichen» (ebd., S. 78).

Bild: AdobeStock

Im HarmoS-Konkordat werden fünf Bereiche aufgeführt, in denen unsere Schulen eine umfassende Grundbildung zu vermitteln haben, nämlich: 1. Sprachen, 2. Mathematik und Naturwissenschaften, 3. Sozial- und Geisteswissenschaften, 4. Musik, Kunst und Gestaltung sowie 5. Bewegung und Gesundheit. Grundkompetenzen wurden bisher lediglich in den ersten beiden Bereichen festgelegt, nämlich in der Schulsprache, in der ersten Fremdsprache (eine zweite Landessprache oder Englisch), in der zweiten Fremdsprache, in Mathematik und in den Naturwissenschaften, und zwar – mit Ausnahme der Fremdsprachen – jeweils für das Ende des 4. Schuljahres, das Ende des 8. Schuljahres (Ende Primarschule) und das Ende des 11. Schuljahres (Ende der obligatorischen Schule). Da der Fremdsprachenunterricht in der Regel erst nach der vierten Klasse beginnt, liegen die entsprechenden Grundkompetenzen nur für die 8. und die 11. Klasse vor.

Wenn die Grundkompetenzen nun erstmals in zwei Bildungsbereichen – Mathematik und Schul‑ sowie erste Fremdsprache – überprüft wurden, dann handelt es sich um einen engen Ausschnitt aus dem gesamten Bildungsauftrag der obligatorischen Schule. Dies nicht nur, weil die Naturwissenschaften und die zweite Fremdsprache nicht einbezogen wurden, sondern auch, weil die EDK nach wie vor nicht entschieden hat, was mit den anderen Bildungsbereichen geschehen soll, ob dort ebenfalls Grundkompetenzen festgelegt werden oder ob darauf verzichtet wird. Sollte es bei Sprache und Mathematik bleiben, so würde anhand eines schmalen Segments des Bildungsauftrags der obligatorischen Schule darüber befunden, ob unsere Kinder und Jugendlichen jenes Minimum an Wissen und Können erwerben, dessen Erwerb von ihnen erwartet wird.

Die Beschränkung auf Sprache und Mathematik schürt die Hoffnung, dass dem engen Fokus eine um so bessere Qualität der Ergebnisse gegenübersteht, so dass wir im Bereich von Mathematik und Sprache ein verlässliches Bild vom Bildungsstand unserer Schülerinnen und Schüler gewinnen – ein verlässlicheres jedenfalls als dasjenige, das die PISA-Studien zeichnen. Denn die PISA-Studien nehmen erklärtermassen keine Rücksicht auf nationale Besonderheiten, insbesondere nicht auf die Lehrpläne. Da die Grundkompetenzen jedoch auf fachbezogenen Kompetenzmodellen beruhen, die auf der Basis eines systematischen Vergleichs der kantonalen Lehrpläne erarbeitet wurden, sollte deren Überprüfung informativer ausfallen als die PISA-Studien.

Die Erwartungen sind auch deshalb hoch, weil die Schweiz bei den PISA-Studien seit 2015 auf die Erhebung von kantonal repräsentativen Stichproben verzichtet und nur mehr mit einer für die Gesamtschweiz repräsentativen Auswahl teilnimmt (nur für den Tessin wird weiterhin eine kantonale Stichprobe gezogen). Bereits 2009 hatte die EDK beschlossen, dass PISA künftig nur noch dem internationalen Vergleich dienen soll, während die Funktion des interkantonalen Vergleichs an die Überprüfung der Grundkompetenzen übergehen soll. Mit den Ergebnissen der Überprüfung der Grundkompetenzen in Sprache und Mathematik sind daher seit längerem wieder kantonale Vergleiche möglich, was den beiden Studien zusätzliche Bedeutung gibt.

Erfüllt werden die Erwartungen jedoch nicht. Bevor ich dies darlege, möchte ich kurz ausführen, was die EDK zu ihren Reformen veranlasste und welche Ziele dahinter stehen.

Messen, was sich messen lässt

Bild: AdobeStock

Einen wesentlichen Anstoss für die Reformen der vergangenen Jahre gaben die Ergebnisse der ersten PISA-Studie, die im Jahre 2000 durchgeführt und 2001 der Öffentlichkeit vorgestellt wurde. Von «Bildungsmisere» und «Bildungsnotstand» war die Rede, wobei die verstörten Reaktionen vor allem durch die schwachen Leistungen im Lesen, weniger in den Naturwissenschaften und gar nicht in der Mathematik ausgelöst wurden. «Viele Schüler verstehen nur Bahnhof» titelte der Tages Anzeiger vom 5. Dezember 2001. Rund 20% der Jugendlichen erreichten lediglich das erste von fünf Niveaus der Lesekompetenz oder lagen sogar darunter.

Nachdem sich der Pulverdampf etwas gelegt hatte, sah sich die EDK 2002 zu einer Erklärung veranlasst (vgl. EDK 2002), der sie 2003 einen Aktionsplan folgen liess. Der Aktionsplan definierte fünf Handlungsfelder, in denen das schweizerische Bildungssystem reformiert werden soll. Eine der Empfehlungen betraf die Umstellung auf eine konsequent an den Lernleistungen der Schülerinnen und Schüler orientierte Steuerung des Bildungssystems, eine weitere die verlässlichere Messung der Schülerleistungen. Explizit heisst es in dem Papier der EDK: «Um im Schulsystem die Leistungen transparent zu erfassen, sind klare Leistungsvorgaben und periodische Messungen erforderlich. Fachliche Leistungen sowie Fächer übergreifende Kompetenzen sind regelmässig aufgrund von Bildungsstandards zu überprüfen» (EDK 2003, S. 20).

Ein Jahr später veröffentlichte die EDK ihr so genanntes Weissbuch zum HarmoS-Projekt (vgl. EDK 2004). Auch in diesem Papier tauchen wesentliche Reformideen wieder auf, die zuvor als Reaktion auf PISA 2000 formuliert worden waren. So unter anderem die Vorgabe von leistungsorientierten Bildungsstandards, die Ausrichtung des schulischen Lernens an Kompetenzen, die Einführung eines gesamtschweizerischen Bildungsmonitorings und die Festlegung von Mindestkompetenzen, die künftig von allen Schülerinnen und Schülern zu erreichen sind. Aus den Mindestkompetenzen sind später Basiskompetenzen und inzwischen die Grundkompetenzen geworden, deren erstmalige Überprüfung 2016 und 2017 stattgefunden hat.

Ein sehr begrenztesSegment

Wie schon aufgezeigt, decken die Grundkompetenzen in Mathematik, Schulsprache und erster Fremdsprache nur ein enges Segment des Bildungsauftrags der obligatorischen Schule ab. Das Segment wird jedoch noch enger, wenn wir erfahren, dass mit den eingesetzten Testaufgaben nur das erfasst wurde, was sich im Rahmen eines flächendeckenden Monitorings unter Effizienzgesichtspunkten überhaupt erfassen lässt. Bei der Schulsprache sind dies lediglich das Lesen und die Orthografie, bei den Fremdsprachen das Lese- und das Hörverständnis. Alle anderen Sprachaspekte – freies Reden, zusammenhängendes Sprechen, Teilnahme an Gesprächen, Schreiben, Grammatik, Literatur und kulturelles Verständnis – sind aus erhebungs- oder messtechnischen Gründen weggefallen. Selbst die Lesekompetenz ist nicht umfassend getestet worden, sondern nur insofern, wie die verwendeten Antwortformate (Multiple Choice) eine Erhebung zuliessen. So wurde zum Beispiel die Fähigkeit, Informationen aus verschiedenen Quellen, wie Text, Bild und Grafiken, zu verknüpfen, nicht überprüft. Gleiches gilt für die Orthografie, bei der nur das explizite Regelwissen geprüft wurde, nicht aber die so genannte Verschriftungskompetenz und auch nicht die Korrekturkompetenz (vgl. Konsortium ÜGK 2019a, S. 25).

Gleiches gilt auch für die Mathematik. Obwohl bei den Grundkompetenzen acht Handlungsaspekte genannt werden, sind aus erhebungstechnischen Gründen nur fünf erfasst worden (vgl. Konsortium ÜGK 2019b, S. 19ff.). Insofern ist die Aussage der EDK, wonach mit den beiden Erhebungen «erstmals … untersucht (wurde), wie viele Schülerinnen und Schüler die Grundkompetenzen erreichen, die von der EDK 2011 festgelegt worden sind» (Medienmitteilung vom 24.5.2019), unzutreffend, wenn nicht eklatant irreführend.

Offenbar laufen wir offenen Auges in genau die Falle, vor der von besonnener Seite seit längerem gewarnt wird. Gemessen wird nicht, was pädagogisch wichtig ist, sondern pädagogisch wichtig wird, was sich mit den verfügbaren Instrumenten messen lässt! Bereits mit ihren ersten beiden Studien zur Überprüfung der Grundkompetenzen straft die EDK ihr oft abgegebenes Versprechen, kein teaching to the test befördern zu wollen, Lügen. Indem die Qualität der Schule auf jene Aspekte reduziert wird, die sich im Rahmen eines large-scale assessments messen lassen, wird alles andere, was eine gute Schule auszeichnet, schlicht übergangen. Die Lehrerinnen und Lehrer werden schnell begreifen, was die EDK für wichtig hält, nämlich nicht einmal die Grundkompetenzen, die sie mit grosser Mehrheit beschlossen hat, sondern lediglich jenen Ausschnitt daraus, der sich mit Hilfe standardisierter Verfahren überprüfen lässt.

Gut in Mathematik und schlecht im Lesen – oder umgekehrt?

Nicht nur die Reduktion der schulischen Bildung auf jene Aspekte von Mathematik und Sprache, die sich standardisiert messen lassen, ist enttäuschend. Enttäuschend sind auch die Ergebnisse selber. Per Ende der Primarschule erreichen schweizweit durchschnittlich 88.1% der Schülerinnen und Schüler die Grundkompetenzen im Lesen in der Schulsprache. Bei der Orthografie sind es je nach Sprachregion 80.1% (Tessin), 84.4% (Deutschschweiz) und 88.8% (Romandie). Dass man keinen Gesamtwert angeben kann, ist befremdend. Auch wenn die EDK die orthografischen Grundkompetenzen nur sprachregional festgelegt hat, stellt ein schweizweites Monitoring, das nicht in der Lage ist, vergleichbare Aufgaben zu stellen, eine Sinnwidrigkeit dar – insbesondere angesichts der Entscheidung der EDK, die Funktion des interkantonalen Vergleichs von den PISA-Studien an die Überprüfung der Grundkompetenzen zu transferieren.

In der ersten Fremdsprache – Deutsch in der Westschweiz, Französisch im Tessin und Französisch oder Englisch in der Deutschschweiz (Graubünden wurde nicht erfasst) – erreichen 88.0% der Schülerinnen und Schüler am Ende der Primarschule die Grundkompetenzen beim Hörverstehen Deutsch, 88.6% beim Hörverstehen Französisch und 95.4% beim Hörverstehen Englisch, während es beim Leseverstehen 65.2% in Französisch, 71.6% in Deutsch und 86.0% in Englisch sind. In der Mathematik, die per Ende der obligatorischen Schule erfasst wurde, werden die Grundkompetenzen im schweizerischen Durchschnitt zu 62.2% erreicht mit einer beträchtlichen Varianz zwischen den Kantonen (43.5% bis 82.7%).

Die Ergebnisse erstaunen. Denn sie widersprechen diametral den Erkenntnissen aus den PISA-Studien. Auf die erste Erhebung von 2000 wurde bereits hingewiesen. Sie ergab schlechte Leseleistungen und gute Mathematikleistungen. Daran hat sich bei den folgenden Durchgängen kaum etwas geändert. Trotz des Eindrucks, dass bei der Leseförderung einiges getan wurde, zeigen die Messwerte nur geringe Veränderungen und schon gar nicht einen eindeutigen Trend. Bei der Erhebung von 2015 sank der Wert sogar wieder auf das ursprüngliche Niveau von 2000. 20% der getesteten Schülerinnen und Schüler waren nicht in der Lage, einen einfachen Text zu verstehen. Entsprechend war die Reaktion die Medien: «Jeder fünfte Schüler kann nicht richtig lesen» (SonntagsZeitung vom 11.12.2016).

Man könnte einwenden, dass wir es nicht mit derselben Altersgruppe zu tun haben. Während bei PISA die 15-Jährigen getestet werden, also Jugendliche, die am Ende ihrer obligatorischen Schulzeit stehen, wurde die Lesekompetenz in der EDK-Studie per Ende Primarschule, also bei 11- bis 12-Jährigen, gemessen. Es wäre jedoch wenig plausibel anzunehmen, dass die Sprachkompetenz erst in den letzten drei Schuljahren ins Negative kippt. Funktionaler Analphabetismus (Illetrismus) entwickelt sich in den ersten Schuljahren, ja oft schon in der Vorschulzeit, so dass sich die PISA- und die EDK-Daten zur Lesekompetenz diesbezüglich durchaus vergleichen lassen.

emer. Professor Walter Herzog
Photo: Fabü

Bestätigung finden die schlechten Leseleistungen der Schülerinnen und Schüler zudem in den periodisch durchgeführten Studien zur Lese- und Schreibkompetenz Erwachsener. Danach stehen die 16- bis 64-Jährigen in der Schweiz nicht besser da als die Schulabgängerinnen und Schulabgänger. Die letzte in der Schweiz durchgeführte Studie ergab einen Anteil von 16% funktionaler Analphabeten (vgl. BFS 2006). Die Schweiz ist allerdings kein Sonderfall, denn man geht davon aus, dass in allen Industrieländern etwa 15 bis 20% der Erwachsenen nur recht und schlecht lesen und schreiben können. Was PISA 2015 anbelangt, so liegt der Anteil 15-Jähriger mit geringer Lesekompetenz in Belgien, Frankreich, Italien und Österreich im gleichen Bereich von rd. 20% wie in der Schweiz (vgl. Konsortium PISA.ch 2015, S. 42).

Bei der Mathematik ist ein Vergleich leichter möglich, da wir es mit derselben Altersgruppe zu tun haben. Zwar werden in den beiden Schlussberichten zur Überprüfung der Grundkompetenzen keine Altersangaben gemacht, was wissenschaftlich etwas irritierend ist, jedoch kann aufgrund des Stichprobenverfahrens davon ausgegangen werden, dass die Altersgruppen bei PISA und bei der Überprüfung der mathematischen Grundkompetenzen im grossen Ganzen vergleichbar sind.

Schon bei der ersten PISA-Erhebung lagen die Schweizer Schülerinnen und Schüler auf dem 7. Rang von 33 teilnehmenden Ländern. Lob gab es dafür keines, da die schlechten Leseleistungen im Vordergrund standen. Das änderte sich mit den folgenden Durchgängen, die sich auf immer mehr teilnehmende Länder ausdehnten (inzwischen nehmen rd. 80 Länder an PISA teil). Wie sich die Mathematik-Leistungen unserer 15-Jährigen im internationalen Kontext ausnehmen, können die folgenden Headlines zeigen:

2003: «PISA 2003 – sehr gute Kompetenzen in Mathematik» (Medienmitteilung BFS & EDK vom 7.12.2004)

2006: «Schweizer Schüler hervorragend in Mathematik» (NZZ am Sonntag vom 2.12.2007)

2009: «Mathematik: Schweizer Jugendliche sind Weltklasse» (Der Bund vom 8.12.2010)

2012: «In Mathematik liegen die Schweizer jetzt vor den Finnen» (Tages Anzeiger vom 4.12.2013)

2015: «Die Schweizer Jugendlichen sind die Mathematik-Stars Europas» (Neue Zürcher Zeitung vom 7.12.2016)

Tatsächlich haben die 15-jährigen Jugendlichen in der Schweiz beim letzten PISA-Durchgang, dessen Ergebnisse wir kennen (die Ergebnisse von 2018 kennen wir noch nicht), in Mathematik unter allen europäischen Ländern den ersten Platz belegt. Zwar muss man auch bei der Mathematik in Rechnung stellen, dass es eine Gruppe von 15-Jährigen gibt, die lediglich das tiefste Niveau der Kompetenzskala erreichen oder sogar darunter liegen, jedoch steht der erzielte Durchschnittswert für ein mehr als gutes Leistungsniveau.

Es ist daher völlig paradox, dass dieselbe Altersgruppe von Schülerinnen und Schülern bei praktisch allen bisher durchgeführten PISA-Erhebungen in Mathematik zur weltweiten Spitze gehört, während sie bei der ersten Überprüfung der Grundkompetenzen so miserabel abschneidet. Und es ist nochmals paradox, dass fast spiegelbildlich dazu unsere Schülerinnen und Schüler in den PISA-Studien zum Lesen so schlecht abschneiden, während sie bei der Überprüfung der Grundkompetenzen geradezu hervorragende Leistungen zeigen. Auch wenn die beiden Studien zum Teil andere Ziele verfolgen und auch in methodischer Hinsicht Unterschiede bestehen, kann nicht sein, dass zwei Grossstudien zur Schulqualität zu dermassen widersprüchlichen Resultaten kommen. Etwas scheint faul zu sein im Staate Dänemark! Solange wir uns die verkehrte Welt der EDK nicht erklären können, wissen wir nicht, welchen Daten wir überhaupt trauen können.

Hilfe aus Luxemburg

Im Folgenden möchte ich versuchen, eine Erklärung zu geben. Dabei folge ich einer Spur, die Nadja Pastega in der SonntagsZeitung vom 26. Mai 2019 gelegt hat. Sie verweist auf ein Gutachten, das vom Generalsekretariat der EDK Ende 2017 beim Centre for Educational Testing der Universität Luxemburg in Auftrag gegeben wurde, offenbar nachdem die unerwarteten Resultate zur Mathematik im inneren Kreis der EDK bekanntgeworden waren. Das Gutachten sollte klären, ob das gewählte Vorgehen bei der Überprüfung der Grundkompetenzen, insbesondere die Testentwicklung und die Bestimmung der so genannten Schwellenwerte (cut-scores), die auf den Messskalen die Grenze zwischen Kompetenz und Inkompetenz festlegen, methodisch korrekt war. Auf den ersten Blick ist das Gutachten positiv ausgefallen: «Overall, the test design, data collection, data analysis, and, in particular the standard-setting are on a very high level and fully in line with present scientific quality standards» (Fischbach & Ugen 2018, S. 24). Diese Stelle wird von der EDK denn auch gerne zitiert. Jedoch ergibt sich bei genauerer Lektüre des Gutachtens ein ziemlich anderes Bild.

Ich möchte ein paar Stellen aus dem Gutachten zitieren, die auf gravierende Schwächen bei der Entwicklung der Kompetenzmodelle, bei der Festlegung der Grundkompetenzen und bei deren Überprüfung im Rahmen der Monitoringstudie hinweisen. Die Zitate lassen sich ohne weiteres überspringen; ich werde die wichtigsten Punkte anschliessend zusammenfassen. (ÜGK steht für «Überprüfung des Erreichens der Grundkompetenzen»; mit «items» sind die Testaufgaben gemeint, mit «auditors» die beiden Gutachter aus Luxemburg.)

«Overall, the exact item development process remains unclear to the auditors. The auditors were not provided with proper documentation describing the … item development process, and even throughout the hearings, the auditors did not gain satisfactory insights into the item development modus operandi» (S. 14).

«… the items that were included in the main test were never adequately pretested; half were adjusted after a first pretest, and half were newly developed afterwards» (S. 15).

«… only 132 out of 180 items passed all quality control steps and remained in the final scaling model. Over one quarter of item loss is very high and too high for a main test operation. … The … item loss is not a matter of analysis but … a matter of suboptimal item development and, first and foremost, insufficient pretesting» (S. 19).

«The ÜGK … mathematics items … involved a great deal of text. It is well known that language proficiency has an important impact on mathematics performance. For assessments in mathematics, it is thus recommended that the language load be reduced as much as possible» (S. 14).

«The items retained during the standard-setting procedure (i.e., those items below the cut-score) operationalise the theoretical descriptors in about the easiest way possible. Crucially, however, these descriptors, and thus the minimum standards, are very ambitious in international comparison, lack proper empirical validation, and empirically behave more like norm standards (Regelstandards)» (S. 25).

«Although the HarmoS competence model underwent a validation study, the derived minimum standards were never properly empirically validated. … the auditors tried hard to understand how exactly the minimum standards emerged, but neither the available documentation nor the interviewees could provide a scientifically satisfying answer. Moreover, the aforementioned validation study was not without its methodological flaws and represents only the first step in an iterative validation process» (S. 29).

«It is the conclusion and conviction of the auditors that the ‹unexpected› 2016 ÜGK … mathematics results … ultimately have their root in suboptimal and overly ambitious reference documents» (S. 28).

Das ist eine Breitseite an Kritik, die schon jede für sich Zweifel an der Qualität der Ergebnisse der Überprüfung der Mathematik-Grundkompetenzen weckt.

Zusammenfassen lassen sich die monierten Mängel dahingehend, dass unklar ist, wie bei der Entwicklung der Testaufgaben vorgegangen wurde, im Hinblick auf die Zielsetzung viel zu viele Aufgaben einbezogen wurden, diese aber nicht systematisch vorgetestet wurden, nachträglich neue Aufgaben generiert wurden, die aber nicht mehr empirisch geprüft wurden, die Testaufgaben übermässig textlastig sind (womit die Messung der Mathematikkompetenz beeinträchtigt sein könnte), die Validität der Aufgaben nicht ausreichend gewährleistet ist, das erarbeitete Kompetenzmodell nie zufriedenstellend verifiziert wurde, die Bestimmung der Schwellenwerte vermutlich nicht zu Mindeststandards, sondern zu Regelstandards führte und alles in allem die Referenzdokumente (womit wohl in erster Linie die von der EDK verabschiedeten Grundkompetenzen gemeint sind) für eine solche Studie unzulänglich sind.

Das ist eine Breitseite an Kritik, die schon jede für sich Zweifel an der Qualität der Ergebnisse der Überprüfung der Mathematik-Grundkompetenzen weckt. Allerdings deckt das Gutachten Probleme auf, die zum grossen Teil schon im Schlussbericht der HarmoS-Methodologiegruppe, die von 2005 bis 2008 die Entwicklung der Kompetenzmodelle begleitete, genannt werden (vgl. Ramseier, Moser, Moreau & Antonietti 2008). Ich nenne die wesentlichen Punkte:

  • nur ein Teil der Testaufgaben wurde im Rahmen von Pretests überprüft
  • die Auswahl der Testaufgaben erfolgte eher nach pragmatischen als nach wissenschaftlichen Kriterien
  • die Schwierigkeit der Testaufgaben wurde nicht immer korrekt eingeschätzt
  • das Problem der sprachlichen Äquivalenz der Testitems in den drei Landessprachen wurde massiv unterschätzt
  • die Kompetenzniveaus (inkl. Basisstandards) wurden eher interpretierend als nach einem formalisierten Verfahren festgelegt
  • es wurden zwar Grundlagen für die Validierung der Kompetenzmodelle geschaffen, als validiert können diese aber nicht bezeichnet werden
  • insgesamt war die Entwicklung der Kompetenzmodelle in wissenschaftlicher Hinsicht unzulänglich

Zusammenfassend bezweifelte also bereits die HarmoS-Methodologiegruppe, dass die Kompetenzmodelle ausreichend überprüft und die Mindeststandards nach wissenschaftlichen Kriterien bestimmt wurden. Obwohl die Kritik den Verantwortlichen der EDK bekannt sein musste, scheint an der Projektorganisation nichts geändert worden zu sein. Die Folge war, dass sich die Mängel bei der Überprüfung der Grundkompetenzen fortpflanzten.

Auf die beiden gravierendsten Mängel, nämlich die ungenügende Qualität der erzielten Ergebnisse und die unzulängliche Projektorganisation, möchte ich im Folgenden einzeln eingehen.

Eine fragwürdige Strategie

Einige der aufgezeigten Mängel lassen sich angesichts des grossen Zeitdrucks, unter dem die Entwicklung der Kompetenzmodelle, die Bestimmung der Mindeststandards und die Festlegung der Grundkompetenzen erfolgten, nachvollziehen. Die Fehler, die gemacht wurden, haben aber dazu beigetragen, dass die Ergebnisse der Überprüfung der mathematischen Grundkompetenzen selbst gedämpften Erwartungen nicht genügen können.

Bild: AdobeStock

Besonders gravierend ist die Ungewissheit, ob tatsächlich Grundkompetenzen oder nicht vielmehr durchschnittliche Leistungen erfasst wurden, bei der Bestimmung der Schwellenwerte also eher Regelstandards als Mindeststandards festgesetzt wurden. In der Klieme-Expertise, auf die man sich beim HarmoS-Projekt ausgiebig stützte, werden Regelstandards als mittleres Leistungsniveau definiert, das von etwa der Hälfte der Schülerinnen und Schüler erreicht wird, während Mindeststandards für jenes basale Leistungsniveau stehen, von dem erwartet wird, dass es von keinem Lernenden unterschritten wird (vgl. Klieme et al. 2003, S. 27). Mit dem HarmoS-Konkordat bekennen sich die Kantone ausdrücklich zu Mindeststandards. In den Dokumenten der EDK wird der Begriff der Grundkompetenzen mittlerweile synonym mit demjenigen der Mindest‑ bzw. Basisstandards gebraucht. Genauer gesagt: der Begriff der Basisstandards wurde per Beschluss der EDK-Plenarversammlung durch denjenigen der Grundkompetenzen ersetzt (vgl. EDK 2011, S. 84f.). Man kann sich fragen, wie sinnvoll es ist, eine Fähigkeit (Kompetenz) mit dem Massstab ihrer Bewertung (Standard) gleichzusetzen. Halten wir am Begriff der Standards fest, so zeigt bereits der Bericht der HarmoS-Methodologiegruppe, insbesondere aber das Gutachten des Luxemburger Centre for Educational Testing, dass bei der Überprüfung der Grundkompetenzen eher Regel- als Mindeststandards erfasst wurden.

Allerdings wäre es falsch anzunehmen, dass wir, anstatt zu wissen, wo das Kompetenzniveau unserer Schülerinnen und Schüler «im Minimum» liegt, nun wüssten, wo es «in der Regel» liegt. Denn die Vermutung der Gutacher, dass eher Regel‑ als Mindeststandards festgelegt wurden, heisst nicht, dass wir es tatsächlich mit Regelstandards zu tun haben. Beabsichtigt war ja durchaus, die Schwellenwerte so zu legen, dass sich Mindeststandards (Grundkompetenzen) ergeben. Nur weil dies misslungen ist, haben wir noch keine Regelstandards gewonnen. Das Einzige, was sich mit einiger Überzeugung sagen lässt, ist, dass die erfassten Mathematikleistungen der Schülerinnen und Schüler irgendwo zwischen Mindest- und Regelstandards liegen, ohne dass wir genau sagen können wo.

In ihrem Bericht nennen die Auditoren drei Strategien, wie mit der offensichtlichen Zielverfehlung bei der Überprüfung der Mathematikkompetenzen hätte umgegangen werden können. Die ehrlichste Strategie wäre, die gewonnenen Daten zu nutzen, um das Kompetenzmodell nachträglich angemessen zu validieren und die Grundkompetenzen neu festzulegen. Dabei hätte die EDK allerdings nicht nur eingestehen müssen, dass die Resultate mangelhaft sind, sondern aufgrund der gravierenden Mängel der Studie auch auf deren Publikation verzichten müssen. Die Neubestimmung der Grundkompetenzen hätte zudem zur Folge gehabt, dass die sprachregionalen Lehrpläne, die eben erst erarbeitet wurden, bereits wieder hätten angepasst werden müssen. Man kann nachvollziehen, dass die EDK diese Strategie nicht gewählt hat.

Eine zweite Strategie hätte nach Meinung der Auditoren darin gelegen, die Terminologie anzupassen und auf den Begriff der Grundkompetenzen zu verzichten. Auch damit wäre die EDK aber nicht darum herumgekommen einzugestehen, dass die Ergebnisse für die ursprüngliche Zielsetzung der Überprüfung der Grundkompetenzen nicht brauchbar sind. Offensichtlich hat sie auch diese Strategie nicht gewählt. Man scheint an den Grundkompetenzen festhalten zu wollen, wohl auch deshalb, weil etwas anderes ohne Gesichtsverlust nicht möglich ist. Denn die Grundkompetenzen sind inzwischen nicht nur in die sprachregionalen Lehrpläne eingeflossen, sondern dienen auch als Referenzrahmen für die Überarbeitung und Entwicklung von Lehrmitteln und bestimmen die Studiengänge an den Pädagogischen Hochschulen.

Die dritte, von den Auditoren am wenigsten empfohlene Strategie, um mit der missratenen Überprüfung der Grundkompetenzen umzugehen, bestünde darin zu bestreiten, dass die Ergebnisse erwartungswidrig ausgefallen sind. Genau diese Strategie hat die EDK schliesslich gewählt. Kommuniziert wurde anlässlich der Information der Medien, dass man mit der Umsetzung des HarmoS-Projekts erst ganz am Anfang stehe, die getesteten Schülerinnen und Schüler daher noch nicht nach den neuen Lehrplänen unterrichtet worden seien, die Daten insofern für die Grundkompetenzen der Schülerinnen und Schüler «am Ausgangspunkt der Harmonisierung» (Medienmitteilung vom 24.5.2019) stünden, die Unterschiede in den Ergebnissen vor dem Hintergrund der noch gültigen kantonalen Lehrpläne erklärbar seien und davon auszugehen sei, dass die zunehmende Anwendung der gemeinsamen Lehrpläne und Lehrmittel «zu einer weiterführenden Harmonisierung der Bildungsziele beitragen» (ebd.) werde.

Mit dieser von den Luxemburger Auditoren «rhetorisch» genannten Strategie wird nicht nur von den Qualitätsmängeln der Studie abgelenkt, die EDK geht auch das Risiko ein, ihre Glaubwürdigkeit zu verlieren. Denn seit Jahren stellt man sich auf den Standpunkt, dass das HarmoS-Projekt keine Reform, zumindest keine Reform «verstanden als Veränderung von Bestehendem» (EDK 2011, S. 67, Fn. 79) sei, sondern nur bereits Vorhandenes vereinheitliche und harmonisiere. In einem Interview betonte der frühere Generalsekretär der EDK, dass «viele der Grundkompetenzen … seit Jahr und Tag Gegenstand des Unterrichts (sind)» (Ambühl 2016, S. 17). Dann aber können die neuen Mathematiklehrpläne kaum grundsätzlich von den alten verschieden sein, selbst wenn eingestanden wird, dass die kantonalen Unterschiede bei der Mathematik bisher grösser waren als bei der Schulsprache. Vor allem lässt sich mit diesem windigen Argument in keiner Weise erklären, weshalb die Ergebnisse in Mathematik im Vergleich mit den PISA-Studien so viel schlechter ausgefallen sind. Es zeugt von wenig Format, wenn die EDK, statt der Öffentlichkeit reinen Wein einzuschenken, eine Kommission einsetzt, die abklären soll, ob das Anspruchsniveau der mathematischen Testaufgaben tatsächlich zu hoch war (Medienmitteilung vom 24.5.2019). Da schon jetzt ziemlich klar ist, wie das Ergebnis ausfallen wird, geht es wohl einzig darum, Zeit zu schinden, um sich weitere rhetorische Pirouetten auszudenken.

“Bei PISA 2015 enervierte man sich von Seiten der EDK noch über die vermeintlich schlechte methodische Qualität der Studie.”

Die Maskerade der EDK angesichts der unerwarteten Resultate des Monitorings der mathematischen Grundkompetenzen steht in eigenartigem Kontrast zu ihrem lauthalsen Protest anlässlich der Ergebnisse der PISA-Erhebung von 2015. Die Tatsache, dass die Werte in allen drei Testbereichen – Lesen, Mathematik und Naturwissenschaften – gegenüber der Erhebung von 2012 schlechter ausgefallen waren, war für einige Verantwortliche der EDK und des LCH Anlass genug, um sich über die vermeintlich schlechte methodische Qualität der Studie zu enervieren. Der LCH werweisste, ob das Geld nicht besser für andere Zwecke eingesetzt würde, die EDK verzichtete darauf, einen eigenen Bericht zu den Resultaten zu verfassen und verlangte von der PISA-Zentrale in Paris Auskunft über das «massive Qualitätsproblem» und die «unabschätzbaren Konsequenzen» der Studie (vgl. Tages Anzeiger vom 7.12.2016). Dabei wurde die Studie von 2015 im vollen Wissen und mit dem ausdrücklichen Einverständnis der EDK in einem leicht abgeänderten Modus durchgeführt – per Computer statt per Papier und Stift, mit einer deutlich verkleinerten Stichprobe, mit methodischen Anpassungen bei den Messskalen (vgl. EDK 2012; Konsortium PISA.ch 2018). Mag sein, dass sich dadurch gewisse Probleme der Vergleichbarkeit – vor allem im zeitlichen Längsschnitt – ergeben haben, die aber nicht singulär für die Schweiz waren.

Zudem hätte man wissen müssen, dass sich die Verschlechterung der Schülerleistungen beim Lesen in einem engen Horizont bewegte. Die Werte auf der Skala zur Lesekompetenz liegen – wie auf den anderen PISA-Skalen auch – bei einer angenommenen Normalverteilung der Leistungen grosso modo in einem Intervall zwischen 300 und 700 Punkten. Zwischen 2000 und 2015 schwankten die Leistungspunkte bei der Lesekompetenz der getesteten schweizerischen Probandinnen und Probanden zwischen 492 (Minimum) und 509 (Maximum) Punkten, also in einem recht engen Bereich. Der Koordinator von PISA, Andreas Schleicher, zeigte sich denn auch leicht amüsiert über die wenig professionelle Reaktion der EDK und verwies zu Recht darauf, dass PISA vielen nationalen Tests um Jahre voraus sei (vgl. Luzerner Zeitung vom 11.12.2016). Wenn es dafür noch eines Beweises bedurft hätte, dann hat ihn die EDK mit ihrer Überprüfung der Grundkompetenzen in Mathematik inzwischen erbracht.

Vermischung der Zuständigkeiten

Im Bericht der Luxemburger Auditoren werden neben methodischen auch organisatorische Mängel aufgedeckt. Insbesondere wird eine Vermengung von strategischer und operativer Führung moniert. Die Rede ist von einer suboptimalen Projektorganisation, «because the project coordination and the contracting body are not separate entities and are thus not able to independently carry out their respective functions» (Fischbach & Ugen 2018, S. 12). Die EDK trage zwei sich ausschliessende Hüte, insofern sie auf der einen Seite Verträge abschliesse sowie eine Überwachungsfunktion wahrnehme und auf der anderen Seite die Projektleitung innehabe, also exekutiv tätig sei. «Crucially, while the contracting and supervising authority is by definition a political body, the executive body should be apolitical and scientific in nature» (ebd., S. 30). Die Einmischung der Politik in die Wissenschaft, die in meinem Blog-Beitrag vom 10. Mai 2019 zur Befürchtung Anlass gab, dass die Bestimmung der Schwellenwerte politisch beeinflusst sein könnte, scheint struktureller Natur zu sein und auf der organisatorischen Ebene abzulaufen.

Es ist gelinde gesagt seltsam, dass sich ein behördliches Organ wie das Generalsekretariat der EDK in forschungsmethodische Entscheidungen einmischt und ein politisches Gremium wie die EDK-Plenarversammlung die Ergebnisse der Überprüfung der Grundkompetenzen entgegennimmt, würdigt und über deren Weiterleitung an die Öffentlichkeit beschliesst (vgl. EDK 2014, Art. 5). Allerdings lässt sich damit nachvollziehen, wie es zur Verzögerung der Publikation der Ergebnisse gekommen ist. Denn die unerwarteten Resultate bei den Grundkompetenzen in Mathematik waren der Projektleitung seit Mitte 2017 bekannt. Sie wurden der EDK-Plenarversammlung im Herbst 2017 vorgelegt, was zum Auftrag an das Generalsekretariat führte, ein externes Audit einzuholen. Die Auditoren berichteten der EDK-Plenarversammlung persönlich über die Ausführung ihres Auftrags (vgl. EDK 2019, S. 12 und 21). Die Freigabe der Ergebnisse zur Publikation wurde von der EDK-Plenarversammlung am 28. März 2019 beschlossen.

Die Forderung nach klarer Trennung von Politik und Wissenschaft ist mehr als berechtigt. Nicht nur um potentielle Konflikte zu vermeiden, sondern auch im Interesse einer optimalen Entscheidungsstruktur ist es von grösster Wichtigkeit, «that the two bodies [Politik und Wissenschaft, W.H.] are independent, adequately represented, and engaged in regular, formalised, and transparent dialogue» (Fischbach & Ugen 2018, S. 31). Transparenz würde auch heissen, dass die Protokolle der Sitzungen von EDK-Vorstand und EDK-Plenarversammlung öffentlich gemacht würden.

Inzwischen ist bekannt geworden, dass die Projektleitung an eine externe Institution, nämlich an das vor kurzem gegründete Interdisziplinäre Zentrum für Bildungsforschung (IZB) der Universität Bern, übergehen soll. Ob die unglückliche Vermischung strategischer und operativer Funktionen dadurch tatsächlich behoben wird, ist jedoch fraglich. Skeptisch stimmt die Tatsache, dass die Klärung der Frage, ob bei den mathematischen Grundkompetenzen nicht Mindest-, sondern Regelstandards erfasst wurden, nicht der neuen Projektleitung überlassen wird, die wohl am ehesten in der Lage wäre, den Sachverhalt abzuklären, sondern einem internen Organ – einer «Kommission der EDK» (Medienmitteilung vom 24.5.2019) – übertragen wurde. Die Skepsis verschärft sich, wenn man erfährt, dass sich die Universität Zürich, die von der EDK offenbar für die künftige Projektleitung favorisiert wurde, mit der Begründung vom Auftrag zurückzog, dass die Zuständigkeiten und Kompetenzen nicht zufriedenstellend geklärt werden konnten (vgl. EDK 2019, S. 9). Ob es der Universität Bern besser gelungen ist, der EDK die notwendige Klarheit abzuringen, entzieht sich meiner Kenntnis. Solange das Organisationsreglement über die Durchführung der Überprüfung der Grundkompetenzen (vgl. EDK 2014), mit dem sich die EDK einen übermässigen Einfluss auf operative Projektentscheidungen zusichert, nicht angepasst wird, steht zu befürchten, dass die organisatorischen Probleme trotz Auslagerung der Projektleitung aus dem Generalsekretariat andauern werden.

Anhaltende Ernüchterung

Gesamthaft gesehen, hinterlassen die ersten Durchgänge der «Überprüfung des Erreichens der Grundkompetenzen» für die EDK keinen besonders vorteilhaften Eindruck. Insbesondere die Hauptadressaten der beiden Erhebungen – die Bildungspraxis, die Bildungspolitik und die Bildungsverwaltung – werden mit den Ergebnissen kaum etwas anfangen können. Was soll man mit Daten machen, bei denen nicht einmal klar ist, ob tatsächlich Grundkompetenzen gemessen wurden, deren Gültigkeit und Zuverlässigkeit nicht schlüssig beurteilt werden kann und die nicht den geringsten Hinweis darauf geben, wie der schulische Unterricht verbessert werden kann? Besonders pikant ist, dass auch die Hintergrund- bzw. Kontextvariablen, die erhoben wurden, um Unterschiede in den Schülerleistungen zu erklären – wie das Geschlecht, die soziale Herkunft, der Migrationsstatus oder die zu Hause gesprochene Sprache der Schülerinnen und Schüler – praktisch keine Effekte zeigen, ausser jenen, die (wie im Falle der sozialen Herkunft) aufgrund weit besserer Studien längst bekannt sind. Auch die kantonalen Unterschiede lassen sich mit den Kontextvariablen weder im Falle der Mathematik noch bei den Sprachen erklären.

Nicht einmal bei der Anzahl Lektionen lässt sich ein überzeugender Effekt nachweisen. Intuitiverweise würde man annehmen, dass jene Kantone, in denen über die Gesamtdauer der obligatorischen Schule mehr Mathematiklektionen erteilt werden, die besseren Schülerleistungen aufweisen. Jedoch zeigt eine entsprechende Analyse, die anhand der Stundendotation auf der Sekundarstufe I vorgenommen wurde, nur einen geringen Effekt. Die wirklich interessante Aussage, wonach die Mathematikleistungen mit Massnahmen zur Verbesserung der Unterrichtsqualität «weit stärker beeinflusst werden (können) als mit der Erhöhung der Unterrichtszeit» (Konsortium ÜGK 2019b, S. 77), kann bezeichnenderweise nur hypothetisch formuliert werden, weil die Daten eine verbindliche Aussage nicht zulassen.

Die Ernüchterung angesichts der geringen Aussagekraft der Ergebnisse, die sich regelmässig nach Veröffentlichung der PISA-Studien einstellt, wird noch grösser sein, wenn die Resultate zur Überprüfung der Grundkompetenzen einmal breiter gestreut sein werden, wenn sie es nicht bereits ist. Kann schon mit den PISA-Daten herzlich wenig anfangen, wer daraus Schlüsse für die Verbesserung seines Unterrichts ziehen will, wird es mit den vorliegenden Daten noch weniger tun können. Hinzu kommt das schwerwiegende Problem, dass es kaum gelingen wird, mit den vorhandenen Daten einen Längsschnitt zu begründen, da dies nur möglich wäre, wenn der Massstab zur Bestimmung der Grundkompetenzen unverändert bliebe. Wie aber soll an einem Massstab festgehalten werden, wenn sich herausstellt, dass gar nicht Grundkompetenzen gemessen wurden, sondern Leistungen, die irgendwo zwischen Mindest- und Regelstandards liegen? Was soll man über die Zeit hinweg vergleichen, wenn bei der nächsten Erhebung neu bestimmt werden muss, wo der Schwellenwert der Grundkompetenzen liegt?

Zum Thema Vergleich gehört auch, dass sich die EDK schon früh darauf festlegte, im Rahmen des HarmoS-Konkordats lediglich Grundkompetenzen zu überprüfen, nicht aber das gesamte Leistungsspektrum, also nicht auch die höheren Kompetenzstufen (vgl. EDK 2015, S. 20). Das bedeutet einerseits eine Verschwendung von Ressourcen und andererseits eine weitere Abschottung gegenüber den PISA-Studien, mit deren Daten eine Verknüpfung praktisch unmöglich wird. Bei PISA wird nicht nur dichotomisch danach gefragt, ob ein Schwellenwert erreicht wird oder nicht, sondern das ganze Kompetenzspektrum abgedeckt. Damit lassen sich beispielsweise auch über besonders gute Leistungen Aussagen machen. Weshalb man sich bei der EDK nur dafür interessiert, ob an unseren Schulen das absolute Minimum an Anforderungen erreicht wird, ist sowohl wissenschaftlich wie bildungspolitisch schwer verständlich.

Es bleibt zu klären, ob die Kritik an der Überprüfung der Grundkompetenzen nur auf die Mathematik oder auch auf die Sprachen zutrifft. Obwohl der Schlussbericht zu den beiden Erhebungen den Eindruck erweckt, dass bei der Überprüfung der Lese‑ und Orthografiekompetenz Fehler, die man bei der Mathematik beging, korrigiert wurden (vgl. EDK 2019, S. 22ff.), ist schwer zu beurteilen, ob dem tatsächlich so ist. Leider steht zu den Sprachen kein Audit-Bericht zur Verfügung, der wohl deshalb nicht eingeholt wurde, weil die Ergebnisse eher den Erwartungen entsprachen. Es wäre jedoch fatal, aus der Tatsache, dass die Resultate bei der Schulsprache wunschgemäss ausfielen, den Schluss zu ziehen, dass die Datenqualität besser ist. Zu denken geben muss insbesondere die Diskrepanz zu den PISA-Studien, die in der Schweiz über all die Jahre hinweg einen Anteil von durchschnittlich 17% Jugendlichen ausweisen, die selbst einfache Texte nicht korrekt lesen oder interpretieren können.

Allerdings fällt es im Falle der Lesekompetenz – unter anderem aus den zuvor genannten Gründen – schwer, Vergleiche zwischen den beiden Studien anzustellen. Bei der Überprüfung der Grundkompetenzen scheinen ausschliesslich so genannte kontinuierliche Texte verwendet worden zu sein (vgl. Konsortium ÜGK 2019a, S. 20ff.), während bei den PISA-Studien auch nichtkontinuierliche Texte, für deren Bearbeitung Informationen aus Bildern, Grafiken oder Darstellungen beigezogen werden müssen, zum Einsatz kommen. Zudem ist nicht klar, wie weit der nachträglich gesetzte Schwellenwert bei der Überprüfung der Schulsprache mit dem Niveau 1 der PISA-Studien zur Lesekompetenz übereinstimmt. Solange wir diesbezüglich keine belastbaren Informationen haben, ist eine abschliessende Beurteilung der methodischen Qualität der Überprüfung der sprachlichen Grundkompetenzen nicht möglich. Spätestens im kommenden Dezember, wenn die Ergebnisse der PISA-Erhebung von 2018 vorgestellt werden, wird die Diskussion darüber, wie gross der Anteil von leseinkompetenten Jugendlichen in der Schweiz ist, jedoch weitergehen.

Literatur

Ambühl, Hans (2016): «Das ist ganz normale, unaufgeregte Systemarbeit.» Doris Fischer und Heinz Weber im Interview mit Hans Ambühl und Vera Husfeldt. In: Bildung Schweiz. Zeitschrift des LCH (161), Heft 2, S. 16-18. Download: https://www.lch.ch/fileadmin/files/documents/BILDUNG_SCHWEIZ/2016/1602.pdf [04.06.2019]

BFS (2006): Lesen und Rechnen im Alltag. Grundkompetenzen von Erwachsenen in der Schweiz. Neuchâtel: Bundesamt für Statistik. Download: https://alice.ch/fileadmin/Dokumente/Grundkompetenzen/8_ALL_Bericht_CH.pdf [04.06.2019]

EDK (2002): Erklärung der EDK zu den Ergebnissen von «PISA 2000». Bern: Schweizerische Konferenz der kantonalen Erziehungsdirektoren. Download: https://edudoc.ch/record/25641/files/Erkl_Pisa_d.pdf [04.06.2019]

EDK (2003): Aktionsplan «PISA-2000»-Folgemassnahmen. Bern: Schweizerische Konferenz der kantonalen Erziehungsdirektoren. Download: https://edudoc.educa.ch/static/web/arbeiten/pisa2000_aktplan_d.pdf [04.06.2019]

EDK (2004): HARMOS. Zielsetzungen und Konzeption. Juni 2004. Bern: Schweizerische Konferenz der kantonalen Erziehungsdirektoren. Download: https://edudoc.educa.ch/static/web/arbeiten/harmos/weissbuch_d.pdf [04.06.2019]

EDK (2011): Die interkantonale Vereinbarung über die Harmonisierung der obligatorischen Schule (HarmoS-Konkordat) vom 14. Juni 2007. Kommentar, Entstehungsgeschichte, Instrumente. Bern: Schweizerische Konferenz der kantonalen Erziehungsdirektoren. Download: https://edudoc.ch/record/96777/files/harmos-konkordat_d.pdf [04.06.2019]

EDK (2012): Teilnahme der Schweiz an PISA 2015. Bericht zu Handen der Plenarversammlung und Beschlussfassung. Bern und Liestal: Schweizerische Konferenz der kantonalen Erziehungsdirektoren. Download: https://edudoc.ch/record/105012/files/PB_pisa_d.pdf [04.06.2019]

EDK (2014): Organisationsreglement über die Durchführung der Überprüfung des Erreichens der Grundkompetenzen vom 8. Mai 2014. Bern: Schweizerische Konferenz der kantonalen Erziehungsdirektoren. Download: https://edudoc.ch/record/113128/files/Organisationsregl_UeGK_d.pdf [04.06.2019]

EDK (2015): Bilanz 2015. Harmonisierung der verfassungsmässigen Eckwerte (Art. 62 Abs. 4 BV) für den Bereich der obligatorischen Schule. Bern: Schweizerische Konferenz der kantonalen Erziehungsdirektoren. Download: https://edudoc.educa.ch/static/web/arbeiten/harmos/bilanz2015_bericht_d.pdf [04.06.2019]

EDK (2019): Überprüfung des Erreichens der Grundkompetenzen. Bericht zu den Erhebungen 2016 und 2017. Bern: Schweizerische Konferenz der kantonalen Erziehungsdirektoren. Download: https://edudoc.ch/record/204069/files/201905_bericht_Erhebungen_ugk_2016_2017_d.pdf [04.06.2019]

Fischbach, Antoine & Sonja Ugen (2018): ÜGK/COFO Mathematics 2016 Audit Report. Commissioned by EDK/CDIP upon the Request of KOSTA HarmoS. Luxembourg: Luxembourg Centre for Educational Testing. Download: https://edudoc.ch/record/204067/files/UeGK_Audit_Report_230218.pdf [04.06.2019]

Klieme, Eckhard, Hermann Avenarius, Werner Blum, Peter Döbrich, Hans Gruber, Manfred Prenzel, Kristina Reiss, Kurt Riquarts, Jürgen Rost, Heinz-Elmar Tenorth & Helmut J. Vollmer (2003): Zur Entwicklung nationaler Bildungsstandards. Eine Expertise. Bonn: Bundesministerium für Bildung und Forschung. Download: https://edudoc.ch/record/33468/files/develop_standards_nat_form_d.pdf [04.06.2019]

Konsortium PISA.ch (2018): PISA 2015. Schülerinnen und Schüler der Schweiz im internationalen Vergleich. Bern: Staatssekretariat für Bildung, Forschung und Innovation und Schweizerische Konferenz der kantonalen Erziehungsdirektoren. Download: https://pisa.educa.ch/sites/default/files/uploads/2018/11/pisa2015_nationaler-bericht_d.pdf [04.06.2019]

Konsortium ÜGK (2019a): Überprüfung der Grundkompetenzen. Nationaler Bericht der ÜGK 2017: Sprachen 8. Schuljahr. Bern und Genf: Schweizerische Konferenz der kantonalen Erziehungsdirektoren und Service de la recherche en éducation. Download: https://edudoc.ch/record/204072/files/UGK_2017_Completo_DE.pdf [04.06.2019]

Konsortium ÜGK (2019b): Überprüfung der Grundkompetenzen. Nationaler Bericht der ÜGK 2016: Mathematik 11. Schuljahr. Bern und Genf: Schweizerische Konferenz der kantonalen Erziehungsdirektoren und Service de la recherche en éducation. Download: https://edudoc.ch/record/204075/files/UGK_2016_Completo_DE.pdf [04.06.2019]

Medienmitteilung vom 24.5.2019: Grundkompetenzen Sprachen und Mathematik: erste schweizweite Erhebungen abgeschlossen. Bern: Schweizerische Konferenz der kantonalen Erziehungsdirektoren. Download: https://edudoc.educa.ch/static/web/aktuell/medienmitt/grundkomp_mm_sprachen_math_d.pdf [04.06.2019]

Ramseier, Erich, Urs Moser, Jean Moreau & Jean-Philippe Antonietti (2008): Schlussbericht der HarmoS-Methodologiegruppe. Bern: Schweizerische Konferenz der kantonalen Erziehungsdirektoren. Download: http://www.lehrplanforschung.ch/wp-content/uploads/2011/06/Methodologie-Schlussbericht-_HarmoS11.pdf [04.06.2019]

The post Die verkehrte Welt der EDK first appeared on Condorcet.

]]>
https://condorcet.ch/2019/06/die-verkehrte-welt-der-edk/feed/ 1