PISA-Teste, Stellwerkteste, Multichecks, TIMMS-Studien, ÜGK-Teste, AVGS (Tests des Autogewerbes) haben derzeit Hochkonjunktur. Und sie haben alle etwas gemeinsam: Sie vergleichen, sind also normativ angelegt.
Das Problem all dieser Tests liegt weniger an ihrer Machart oder an der fehlenden Qualität, sondern in ihrer Rezeption. Ganz allgemein wird viel zu viel in sie hineininterpretiert. Ein PISA-Test kann gut beschreiben, wie es um die Lesefertigkeit unserer Schülerinnen und Schüler bestellt ist. Er sagt aber wenig über die allgemeine Unterrichtsqualität, das Schulsystem generell, die Bildungsstandorte oder den Bildungsstand der Schülerinnen aus. Vor allem sagt er nicht aus über die Fähigkeit, kluge Aufsätze zu schreiben. Dazu gibt es viel zu viele unberücksichtigte Faktoren und Erhebungsunterschiede.
Hat ein Test z. B. konkrete Konsequenzen, gibt es also ein Ranking, eine namentliche Zuordnung oder hat er finanzielle Konsequenzen für den Lernort – wie in den USA –, dann wird öfters betrogen. Gilt er nur für anonyme Statistiken, die in einem allgemeinen Pot ausgewertet werden, dann werden Teste mit wenig Motivation durchgeführt und oft in Randlektionen verlegt (wer früher fertig ist, kann gehen). Für die Ursachenforschung taugen Teste ohnehin nichts.
Die Journalisten unseres Landes interpretieren diese Vergleichsteste jeweils ohne die nötigen Statistikkenntnisse, fragen nicht nach dem Design der Teste, rezipieren sinnlose Länderrankings und dramatisieren des Öfteren deren Ergebnisse in einer völlig überzogenen Weise. Im Tross der Medien hyperventilieren dann profilsüchtige Politiker, die überstürzte Sofortreaktionen fordern. Und nicht zuletzt werden auch Eltern nervös, wenn sie glauben, dass ihre Kinder in der Schule nichts lernen.
Rankings einzelner Schulen aufgrund solcher Teste bringen nicht viel und richten oft mehr Schaden an.
Dennoch sollte man solche Tests nicht pauschal ablehnen, sondern sich vielmehr ganz konkret für die Ergebnisse interessieren.
Teste sind Momentaufnahmen, nicht mehr.
Ein Beispiel (das nicht erfunden ist): Im Schulhaus A einer Stadt erhalten deutlich mehr Schulabgänger eine Lehrstelle als in der Schule B. Beide haben gleiche Voraussetzungen, sind also Schulen in städtischen Quartieren mit hohem Migrationsanteil. Als Lehrer in der Schule B würde ich mich dafür interessieren, was die Schule A macht, dass sie so gute Resultate erzielt.
Ein anderes Beispiel: Über Jahre hinweg erzielen die Schüler der Schule C schlechtere Rückmeldungen von den Gymnasien als die Schule D. Wie sieht die Selektionsqualität der beiden Schulen aus? Als Vorsteher des Bildungsdepartments der Stadt Basel würde es mich sehr interessieren, was die Schulen im Kanton Fribourg anders machen, dass sie mit halb so viel Geld bei den ÜGK die Spitzenplätze belegen, während die eigenen Schulen immer den letzten Platz belegen.
Gefordert sind nicht Rankings für Dummies, sondern Professionalität im Umgang mit eigenen Schwächen.
Interessant ist übrigens auch der Umgang mit den Eignungstests à la Multicheck oder AVGS. In meiner gegenwärtigen Arbeit als Lehrer war ich gezwungen, Schülerinnen und Schülern ungenügende, sprich, schlechtere Noten als im letzten Zeugnis zu setzen. Das führte zu einem Protest mancher Elternpaare. Einige dieser Schülerinnen und Schüler traten kürzlich zu Eignungstests an, welche meine Einschätzung vollauf bestätigten. Auch die Stellwerksteste geben uns – sinnvoll eingesetzt – wertvolle Hinweise auf den Stand der jeweiligen Mathematikgruppe. Aber auch hier gilt: Sie sind eine Momentaufnahme, nicht mehr.
Doch kommen wir zurück zu den nationalen Vergleichstests wie PISA oder ÜGK (Überprüfung der Grundkompetenzen). Es ist wirklich amüsant zu beobachten, wie Reformer und Kritiker diese Tests jeweils aus ihrer Sicht interpretieren. Die Frühfranzösischfans und Kompetenztheoretiker hüllen sich in Schweigen, wenn es um die sinkenden Leistungen in den Fächern Deutsch und Französisch geht. Und die Reformkritiker zitieren diese umso lieber, weil sie ja ihre Meinung bestätigt sehen. Natürlich ist hier jeweils grösste Vorsicht geboten, weil diese Teste immer nur einen begrenzten Ausschnitt der pädagogischen Wirklichkeit wiedergeben.
Gefordert sind nicht Rankings für Dummies, sondern Professionalität im Umgang mit eigenen Schwächen. Die Schule sollten sich vernetzen, sich austauschen, voneinander lernen. Wenn sie dies nicht tun, ist die Folge oft ein Masterplan aufgrund eines Vergleichstests.
Zur Ehrenrettung der Freisinnigen müssen wir immerhin festhalten: Die Freisinnigen nehmen endlich einmal die beschämenden Leistungen des Basler Bildungssystems zur Kenntnis und beginnen sich zu fragen, was all diese teuren Reformen gebracht haben. Sie wollen es scheinbar wissen und stecken nicht den Kopf in den Sand, wie ihr bürgerlicher Bildungsdirektor, der zu Pauschalverwedelungen neigt (https://condorcet.ch/2020/08/frage-an-die-wissenschaft-wir-haben-die-besten-lehrer/)
Die Ergebnisse von Leistungstests können ruhig transparent gemacht werden. Wenn die Ergebnisse im Vergleich schlecht sind, sollte man ernsthaft daran gehen, Ursachenforschung zu betreiben. Das können die Schulen und ihre Lehrkräfte am besten. Nichts bildet mehr Vertrauen als der offene und selbstkritisch hinterfragende Umgang mit ungünstigen Vergleichen.
Als die grosse Erziehungswissenschaftlerin Deborah Meier die als gescheitert betrachtete Mission Hill Schule in Boston übernahm, erwarteten viele, dass sie sich gegen diese unseligen Highstake-Tests wehren würde. Sie mahnte zur Gelassenheit: «Macht diese Tests, schickt sie ein, studiert die Ergebnisse und lernt daraus. Und lasst euch nicht verrückt machen!» Innert 5 Jahren wurde aus der verrufenen Brennpunktschule ein Vorzeigemodell, das auch für die Mittelschicht attraktiv wurde, obwohl die Tests anfangs miserabel ausfielen und auch später nicht überragend waren (Der Condorcet-Blog berichtete darüber: https://condorcet.ch/2020/10/deborah-meier-mission-hill-in-boston-oder-warum-ich-die-usa-immer-noch-liebe-2-teil/). Teste sagen eben nicht alles.
Man darf mir vorwerfen, dass meine Haltung etwas naiv sei, dass Rankings und ihre Rezeption in einer zunehmend nervösen Gesellschaft gar keine ruhige und selbstkritische Analyse zulassen. Ich war seinerzeit ein heftiger Kritiker der PISA-Teste, aber ich habe die PISA-Teste nie pauschal verurteilt, sondern mich vielmehr auf ihre Erhebungsmethode und ihre Kernaussagen konzentriert. Dass dies von den Medien und der Politik nicht gemacht wird, ist noch kein Grund, auf diese Teste zu verzichten. Vor allem die TIMMS-Studien liefern immer wieder wertvolle Erkenntnisse für den Unterricht, Erkenntnisse, die mitunter auch viele Wunschprosa-Vorstellungen der Bildungsbürokraten pulverisieren.