Die wenigen öffentlich zugänglichen Beispiele zeigen, dass in kompetenzorientierten Lehrgängen oder Testblättern Aufgaben in Form von multiple choice und Zuordnungen dominieren. Detaillierte Anleitungen enthalten oft schon die halbe Lösung der Aufgabe. Die Auswahlantworten müssen genügend klar und unterscheidbar sein, damit eindeutige Lösungen identifiziert werden können. Die Aufgaben sind somit nach einer eigenen Logik gestaltet, ähnlich dem Fernsehquiz Wer wird Millionär? Wer diese Logik durchschaut, kann die richtige Lösung auch allein dank allgemeiner Intelligenz oder dank allgemeinem Vorwissen oder auch dank fachfremden Kompetenzen erraten, wenn er von der Sache nur wenig versteht. Es ist eine Illusion, von der Lösung dieser Aufgaben auf Sachkompetenz schliessen zu wollen.
Die Prüfungsstelle in Luxemburg kritisierte die amateurhaften Aufgabenstellungen
Bei der schweizweiten Überprüfung der Grundkompetenzen von 2016 kritisiert denn auch die Prüfungsstelle in Luxemburg, welche die Anlage, Durchführung und Auswertung des Mathematiktests kritisch analysiert und mit internationalen Standards verglichen hat, die amateurhaften Aufgabenstellungen[1]:
Item development can be substantially improved and is currently the weakest link in the ÜGK/COFO operation.
Sie weist darauf hin, dass die ganze Erhebung von der Qualität der Aufgabenstellungen abhängt. Obwohl die statistische Auswertung untadelig ist, seien die Resultate mit dem Mangel ungeeigneter Aufgaben behaftet und somit in ihrer Aussagekraft zu relativieren.
Das wirkliche Leben funktioniert nicht wie ein Millionärsspiel mit Auswahlantworten.
Das wirkliche Leben funktioniert nicht wie ein Millionärsspiel mit Auswahlantworten. Da muss ein Text in seinem wörtlichen und übertragenen Sinn verstanden werden, er muss an Vorwissen angeknüpft werden können, beim Formulieren muss man automatisch richtig schreiben und nicht nur Wörter oder Buchstaben in Lücken einsetzen können, beim Formulieren in der Fremdsprache müssen Wörter spontan zur Verfügung stehen, sie können nicht nur einfach aus Listen abgekupfert und zugeordnet werden. Echte Sachkompetenz kann nur in offenen Aufgaben getestet werden.
In seinem Positionspapier nimmt der LCH-Dachverband Stellung zu standardisierten Tests. Die folgende daraus zitierte Feststellung trifft ebenso gut auch auf entsprechende digitale Kompetenztrainings zu:
Trotz grossen methodischen Fortschritten zeigen Tests aber immer nur Ausschnitte von Potentialen… Weil Tests immer nur das messen, was gemessen werden kann, wird das Postulat einer umfassenden Menschenbildung durch eine breite Grundausbildung massiv eingeschränkt. [2]
Ob sich der LCH noch an seine eigene Positionierung erinnert?
Die Aufgabenpools von mindsteps enthalten inzwischen 25’000 Aufgaben der oben gezeigten Art. Arbeiten Kinder und Jugendliche vorwiegend solche Softwareprogramme ab, entwickeln sie sicher ein gewisses Geschick im Umgang mit den einschlägigen Übungsformaten, so dass sie in ähnlich gestalteten Tests durchaus gut abschneiden können. Damit handelt es sich bei mindsteps aber um nichts anderes als um reines Teaching to the Test. Also genau das, wovor Kritiker seit Langem warnen. Die Testindustrie, die geschäftstüchtig auch Übungsprogramme anbietet, generiert so zwangsläufig erfolgreiche Resultate und legitimiert damit ihre Existenz. Ein sich selbst bestätigendes System der Täuschung entsteht.
Es entsteht ein sich selbst bestätigendes System der Täuschung
Wollte man Lernen mit digitalen Tools anstreben, müssten die Programme von der Sache her konzipiert werden und in Schritten vom Einfachen zum Schwierigen hinführen. Im Gegensatz zu einem Tool wie mindsteps ginge es nicht um Gehirnoptimierung, sondern um sachlogischen Aufbau des Wissens und Könnens. Statt mindsteps müsste es learning steps heissen. Solche Programme gibt es schon lange unter dem Namen «programmierter Unterricht» in mehr oder minder guter Qualität.
- Kompetenzgewinn gleich Lernen?
Ist es aber überhaupt möglich, sachlogisches Step-by-Step-Lernen zu ersetzen durch Kompetenzlernen nach dem Muster des Tools mindsteps?
Es dürfte einleuchten, dass digitale Selbstläufer-Tools wie mindsteps zwar Menschen so weit konditionieren, dass sie Testaufgaben wie die oben besprochenen lösen können, dass sie dadurch aber nicht die anspruchsvollen Fachkompetenzen erlangen können, die im Lehrplan 21 aufgelistet sind. Um fachliches Wissen und Können zu erwerben, bleibt die schrittweise Aufnahme des Stoffes, die personal begleitete Vermittlung und die Lösung von umfassenderen und offeneren Aufgaben unabdingbar. Kompetenz entsteht nicht durch das modulartige Zusammensetzen von Puzzlesteinen des Könnens, sondern umgekehrt, durch ein integrales Verständnis, das auf Einzelphänomene heruntergebrochen werden kann.
Allerdings wird man dem nur zustimmen, wenn man sich an die eigentliche Bedeutung von Kompetenz erinnert. Obwohl häufig zitiert, meint Franz E. Weinerts Definition von Kompetenz nicht das, was im Lehrplan 21 als Ansammlung von Einzelfähigkeiten aufgeführt ist. Weinert versteht unter Kompetenz ein Potenzial zur Problemlösung. Das Potenzial kann nicht in kleine Einzelteile zerlegt werden, es ist ein kognitives Ganzes, das bei einzelnen Aufgaben angezapft wird. Ein solches Potenzial entsteht zwar wohl durch kumulative Lernerfahrungen oder durch einzelne Lernschritte, es ist aber erst als Kompetenz souverän abrufbar mit einer zeitlichen Verzögerung, die für die kognitive Verarbeitung und Speicherung benötigt wird.
Wie kam es zu diesem Missverständnis des Begriffes Kompetenz? Einfache Antwort: Durch eine Verwechslung! Die OECD erteilte der Lernpsychologie den Auftrag, ein Verfahren zu entwickeln, mit dem sich die Leistungen von Schulen international vergleichen lassen sollten. Die Psychologie wählte ein Verfahren in Analogie zur Messung der Intelligenz. Intelligenz ist die angeborene und im Austausch mit der Umwelt entwickelte kognitive Problemlösefähigkeit, mit deren Vermessung Psychologen seit hundert Jahren operieren. Als Kompetenz bezeichneten sie deshalb nun diejenige Problemlösefähigkeit, die durch schulischen Unterricht entwickelt wird. [3]
Das Messverfahren wurde analog zur Intelligenzmessung in ähnlicher Weise, aber mit Aufgaben aus den Schulfächern Erstsprache, Mathematik und Naturwissenschaften entwickelt und geeicht. Damit sollten objektive Grössen ermittelt werden, mit denen die Leistungen der Schulabgänger erfasst und verglichen werden konnten. Solche zur Leistungsmessung definierten Aufgabenformate, die als Kompetenzen umschrieben wurden, bildeten die Grundlage für die PISA-Erhebungen. Wie bei Intelligenztests wurden aus den Testresultaten Rückschlüsse auf die Kompetenz, auf das in der Schule erworbene Potenzial gezogen.
Nebenbei: Vergleiche zwischen Intelligenz- und Kompetenzmessungen ergaben eine hohe Korrelation. Wer intelligent ist, hat es leichter, im Schulunterricht gute Kompetenzen zu erwerben. Wie Anton Hügli darlegte, baute die Psychologie mit ihren Kompetenzmessungen die Deutungshoheit über menschliche Leistungsfähigkeit aus, die sie schon mit Intelligenztests erlangt hatte.[4]
Aus den zur Leistungserhebung definierten Kompetenzen und den an Aufgaben geeichten Messgrössen wurden plötzlich Lernziele. Das ganze schulische Lernen sollte auf psychologisch definierte Messgrössen ausgerichtet werden, obwohl dies niemals so gedacht war.
Im Zusammenhang mit der PISA-Hysterie sahen sich nun Politik und Pädagogik schuldbewusst genötigt, Vorkehrungen gegen unterdurchschnittliche Resultate zu treffen. Aus den zur Leistungserhebung definierten Kompetenzen und den an Aufgaben geeichten Messgrössen wurden plötzlich Lernziele. Das ganze schulische Lernen sollte auf psychologisch definierte Messgrössen ausgerichtet werden, obwohl dies niemals so gedacht war. Die ursprüngliche Absicht war gewesen, in stichprobenartigen Ausschnitten die Kompetenzen zu eruieren, die sich nach abgeschlossener Volksschule als Kondensat bei Jugendlichen feststellen liessen, und zwar ohne direkte Bezugnahme auf einzelne Elemente des Lehrplans. Niemals aber wollte man Kompetenzen zum Ausgangspunkt des Lernens postulieren. Vielmehr hätte das Lernen mit geeigneten didaktisch-methodischen Massnahmen verbessert werden müssen, damit daraus nachhaltigere Kompetenzen resultierten.
Die schon oben erwähnte luxemburgische Prüfinstanz, die mit dem «Auditing» der Grundkompetenzenerhebung beauftragt war, warnt denn auch explizit vor kommerziellen Kompetenztrainings, die psychologisch-wissenschaftlichen Standards wegen ihrer Laienhaftigkeit nicht genügen.[5]
Zur Erinnerung: Lernen bedeutet, einer Sache begegnen und sich mit ihr auseinandersetzen, Verständnis und Erkenntnis gewinnen, das Verstandene anwenden und üben, das Neue mit früheren Erkenntnissen verbinden. Folge und Resultat dieser Arbeit sind Wissen und Kompetenzen. Mit Kompetenzen beginnen heisst jedoch, das Pferd vom Schwanz her aufzäumen. Man glaubt, den Lernprozess abkürzen zu können, indem man das manchmal mühsame Ringen um Verständnis, das allmähliche Sich-Aneignen und das anstrengende Üben überspringt und direkt auf Anwendung und Kompetenz lossteuert. Das menschliche Gehirn ist jedoch nicht für das ökonomisierte Lernen via Kompetenzinputs geschaffen.
Dessen ungeachtet wurden für den Lehrplan 21 mit bemerkenswertem Bienenfleiss Tausende von Kompetenzformulierungen erfunden. Man schuf künstlich Abstufungen, die – streng genommen – einfach Lernschritte darstellen. Ihre Aufwertung zu Potenzialen wirkt unsinnig, da ein Potenzial eine übergeordnete Grösse ist, vergleichbar mit elektrischem Strom, mit dem viele kleine und grosse Geräte betrieben werden können. Es gibt keinen Telefonstrom, Weckerstrom, Waschmaschinenstrom, Heizungssteuerungsstrom, etc. Was hier sofort als Unsinn erkennbar ist, wird im Lehrplan 21 in absurder Weise auf die Spitze getrieben. Ausserdem müssen zur Lösung einer Aufgabe meist mehrere verschiedene fachliche und überfachliche Kompetenzen abgerufen werden. Diese quasi wie unter Laborbedingungen zu isolieren, bleibt Illusion.
- Fazit und Ausblick
Obige Überlegungen sollten aufzeigen,
– dass outputorientiertes Kompetenzlernen eine Abkehr von dem in den Verfassungen definierten Bildungsauftrag darstellt: Anstatt den Fokus zunächst auf die Entwicklung der persönlichen Anlagen der Kinder und Jugendlichen zu lenken, werden diese von Anfang an auf praktisch verwertbare Anwendungen konditioniert,
– dass ein auf Kompetenzen ausgerichtetes Lernen die schrittweise Aneignung, Vertiefung und Anwendung eines Stoffes unter Anleitung einer Lehrperson aufgibt und durch ein digital gesteuertes auf Gehirnoptimierung getrimmtes Abarbeiten von Einzelelementen ersetzt, was mit nachhaltigem Lernen nicht vereinbar ist,
– dass die Messungen der Kompetenzen unscharf bleiben, weil die Testanlage oft keine genügend klar abgegrenzten Bedingungen schafft, so dass tatsächliche Aussagen über «fachliche Kompetenz» letztlich ungewiss bleiben,
– dass die Faszination des Testens, Messens, statistischen Auswertens und Normierens auch in den Augen einer unabhängigen Prüfinstanz auf Kosten fundierter Fachkenntnis geht und die Tester als fachliche Banausen erscheinen lässt,
– dass der Begriff Kompetenz in Analogie zur Intelligenz kognitive Potenziale umschreibt, die von der Psychologie definiert wurden, um das Können der Schulabgänger zu messen, dass er aber nicht dafür geschaffen wurde, Unterrichtsziele zu beschreiben oder als Lehrplanmatrix zu dienen,
– dass Output-Orientierung bedeutet, dass das, was erst als Resultat des Lernprozesses greifbar werden kann, zum Ausgangspunkt des Lernens gemacht werden soll, um den Lernvorgang abzukürzen bzw. ökonomisch effizienter zu gestalten.
Es bleibt abzuwarten, wie Schule und Politik mit den Folgen des kompetenzorientierten Unterrichts umgehen werden, wenn sich herausstellen sollte, dass das Projekt nicht das bringt, was man davon erwartet hat. Inzwischen wird jedoch eine Generation von Kindern und Jugendlichen als Versuchskaninchen einem umfassenden Experiment mit sehr unsicherem Ausgang ausgesetzt. Hysterische Betriebsamkeit mit Tests und Korrekturmassnahmen belasten das Schulwesen, anstatt es zu verbessern.
Allschwil, Mai 2019
[1] ÜGK/COFO Mathematics 2016 Audit Report, Dr Antoine Fischbach & Dr Sonja Ugen, Luxembourg, 23 February 2018, Seite 23
[2] https://www.lch.ch/fileadmin/files/documents/Positionspapiere/170821_PositionspapierStandardisierteLeistungsmessungenTests.pdf
[3] Karl Schweizer, Leistung und Leistungsdiagnostik, 3. Kapitel: Kompetenz und Kompetenzdiagnostik (E. Klieme), S. 127ff.
(4) Anton Hügli, Was ist Kompetenz? Begriffsgeschichtliche Perspektiven eines pädagogischen Schlagworts, lvb.inform 2016/2017-03
[5] Over the last decade, a number of commercial assessment players conquered the parts of the Swiss education landscape that were not yet claimed by official stakeholders. It is the auditors’ understanding that these players—or at least some of them—flooded the market with tempting products of questionable scientific validity.
Die Krux bei der Umsetzung der Kompentenzorientierung in der Praxis scheint die Notengebung zu sein. Wenn man sich bei den Lehrern umhört, wird entweder nichts gemacht oder ein grosser Aufwand für die Auswahl der “relevanten” Kompetenzziele für die einzelnen Schulklassen betrieben. Was es offenbar nirgends gibt, ist eine Anleitung für den Lehrer, wie er praktisch eine einzelne Kompetenzperformanz organisieren und “messen” kann. Die Zurückhaltung der Lehrer ist verständlich, weil es für sie schwer werden würde, eine aus einer Kompetenzperformanz abgeleitete Note den Eltern plausibel erklären zu können. Die grossmundig von den Bildungsbehörden und -politikern versprochene transparente und vergleichbare Notengebung wird wohl ein weiterer Eklat des Lehrplan 21 werden.