21. November 2024

Nationale Vergleichsteste: Vor Schnellinterpetationen sei gewarnt – lesen sie die Packungsbeilage

Die nationalen Leistungstests liefern keine Ursachenbeschreibung. Trotzdem überbieten sich BildungspolitikerInnen mit Mutmassungen und vorschnellen Erklärungen! Dabei wäre es wichtiger, die richtigen Fragen zu stellen!

Die Ergebnisse der nationalen Leistungstests wurden am Freitag, den 24. Mai veröffentlicht. Die Ergebnisse lassen aufhorchen und bieten eine Bühne für Interpretationen sowie auch für die üblichen  Selbstinszenierungen. Viele BildungspolitikerInnen überbieten sich Minuten nach der Veröffentlichung mit Mutmassungen, Deutungen und Beschwichtigungen.

Für den Basler Bildungsdirektor Conradin Cramer sind die Resultate keine Überraschung: «Wir sind ein Stadtkanton!» Bildungsdirektorin Silvia Steiner (ZH) stellt zunächst einmal klar: «Es liegt nicht an den Lehrkräften! Die sind gut!» Der LCH-Präsident Beat Zemp geht da bereits schon in die Details: «Es hat vielleicht an der Motivation gefehlt, weil der Test am Ende der Schulzeit erfolgte und für die Noten irrelevant gewesen ist.» Und auch die neue Erziehungsdirektorin des Kantons Bern, Christine Häsler, ist unverzüglich mit einer Erklärung zur Hand. Es habe mit dem alten Lehrplan 95 zu tun! Dabei enthüllt sie erstaunliche Zahlen: «Damals kamen die Kinder auf jährlich 300 Mathematiklektionen – in anderen Kantonen waren es gegen 500!» Man staune und rechne: 300 Mathematiklektionen pro Jahr? Das wären dann ca. 7.5 Lektionen die Woche! So viel habe ich als Mathematiklehrer noch nie unterrichtet! Und 500 Mathematiklektionen pro Jahr? Das wären dann 12,5 Lektionen pro Woche! Wir nehmen an, dass hier noch eine weitere Erklärung folgt!

Ist mehr Geld die Lösung?

Natürlich ist auch die SP-BL mit der Ursachenanalyse zur Stelle: «Die Bildungsqualität ist im Keller!» posaunt sie in einer eilends verfassten Medienmitteilung. Und der Grund: Die Sparmassnahmen! Das Gegenmittel? Mehr Geld! Und auch hier staunt der fragende Leser und ist versucht, den Genossinnen und Genossen einige Zahlen in Erinnerung zu rufen. Die Bildungsausgaben sind nämlich von rund 16 Milliarden im Jahr 1995 auf über 37 Milliarden im Jahr 2018gestiegen! Und kein Kanton gibt für die Bildung mehr aus als der Kanton Basel-Stadt! Im Jahr 2016 waren es 19’607 Fr. pro Person. Im Vergleich dazu gab der Kanton Freiburg für seine Schüler rund 10’000 Fr. aus, also rund die Hälfte. Trotzdem sind die Leistungen der Freiburger SchülerInnen eklatant besser als die der Basler SchülerInnen.

Natürlich wissen die Praktiker in diesem Lande, dass ein Grossteil dieser Gelder in umstrittene und v.a. millionenschweren Reformprojekte geflossen ist. Da wäre vielleicht eine ehrliche Kosten-Nutzen-Analyse angezeigt. Aber daran scheinen die Genossinnen und Genossen nicht interessiert zu sein.

Fazit: Die nationalen Vergleichsteste liefern keinen Ursachenbeschrieb. Die Redaktion des Condorcet-Blogs hält es mit Monika Gschwind (BL). Sie bekannte, sie sei von den Resultaten enttäuscht und nehme sie nicht auf die leichte Schulter. Aber jetzt gehe es vorerst einmal um eine schonungslose Analyse! Wir ziehen den Hut und liefern den Link:

http://www.edk.ch/dyn/32350.php

Wichtiger als Vermutungen: Die richtigen Fragen stellen!

Anstatt sich mit Schnellschüssen zu profilieren oder eventuell sogar zu blamieren, sollten sich alle Bildungspolitiker (und auch Journalisten) eher fragen: “Wie kann es sein, dass  dieselbe Alterskohorte von Schülerinnen und Schülern (nämlich die 15-jährigen) bei praktisch allen bisher durchgeführten PISA-Erhebungen ausgerechnet in Mathematik im internationalen Vergleich zur weltweiten Spitze gehört, während sie nun bei der ersten nationalen Erhebung der EDK im schweizerischen Durchschnitt so miserabel abschneiden?”

Eine völlig verquere Situation zu den PISA-Ergebnissen

Zudem haben wir spiegelbildlich beim Lesen ebenfalls eine vollständig verquere Konstellation: wo die Schüler bei PISA nach wie vor schlecht abschneiden, schneiden sie bei der ÜGK geradezu hervorragend ab. Auch wenn die beiden Studien nicht in jeder Hinsicht dieselben Ziele verfolgen, wäre uns die EDK zumindest eine Erklärung schuldig. Solange wir diese nicht haben (wir werden sie wohl auch nicht bekommen), wissen wir schlicht nicht, was die präsentierten Ergebnisse überhaupt bedeuten oder wert sind.

image_pdfAls PDF herunterladen

Verwandte Artikel

Sachsen bleibt Musterschüler, Berlin macht deutlichen Sprung nach vorn

Sachsen hat nach einer jährlichen Vergleichsstudie der arbeitgebernahen Initiative Neue Soziale Marktwirtschaft (INSM) weiterhin das beste Bildungssystem in Deutschland. Im 21. INSM-Bildungsmonitor steht der Freistaat wie schon in den Vorjahren als Musterschüler da. Dahinter liegt Bayern vor Hamburg und Thüringen. Am Ende der Skala steht wie auch schon im vergangenen Jahr Bremen. Vorletzter ist Brandenburg, davor steht Nordrhein-Westfalen.

Was dürfen wir hoffen?

Der Krieg in der Ukraine kommt auch bei uns in die Kinderzimmer und in die Schulstuben. Via Medien. Die Bilder belasten. Was können Lehrerinnen und Pädagogen tun? Um standhalten und Halt geben zu können, braucht es ein geistiges Fundament, ist Condorcet-Autor Carl Bossard überzeugt.

2 Kommentare

  1. “7d Von den individuellen Merkmalen der Schülerinnen und Schülern (Geschlecht, soziale Herkunft, zu Hause gesprochene Sprache, Migrationsstatus) hat die soziale Herkunft den stärksten Effekt auf die Ergebnisse (Erhebung 2016 und 2017)”.

    Im selektiven Schulsystem wird die soziale Herkunft der Schülerinnen und Schüler weiterhin den stärksten Effekt auf die Ergebnisse haben. Dieser Sachverhalt widerspricht zwar eindeutig dem gesetzlichen und verfassungsmässigen Auftrag der Volksschule. Ohne entsprechende Anpassungen des selektiven Systems sind kaum nennenswerte Steigerungen möglich.

  2. Die Widersprüche zwischen den Schweizer PISA-Resultaten und den Ergebnissen des nationalen Test über die Grundanforderungen sind eklatant. Die verwirrenden Aussagen des nationalen Tests werfen eine ganze Reihe von grundlegenden Fragen auf, die bei der Konzeption des neuen Lehrplans offensichtlich nicht mit der nötigen Sorgfalt abgeklärt wurden.

    Die folgenden Punkte bedürfen dringend einer Klärung:

    • Weshalb werden schweizweit durchgeführte Tests nicht zuerst einem eng begrenzten
    Probelauf unterzogen, damit allfällige Schwächen der Aufgabenstellungen rechtzeitig
    erkannt werden?

    • Wie konnte es dazu kommen, dass der Test zur Überprüfung der Grundanforderungen in der
    Mathematik im Nachhinein als zu schwierig taxiert wurde?

    • Wie aussagekräftig sind Tests über ein Fach, wenn nur Teilbereiche der fachspezifischen
    Kompetenzen geprüft werden?

    • Welches sind die Gründe, dass zentrale Kompetenzbereiche in den Sprachen nicht bewertet
    werden und dennoch ein Urteil über die sprachlichen Fähigkeiten der Schüler gewagt
    wird?

    • Welche Risiken birgt ein Testkonzept, das einzelne Kompetenzbereiche von Fächern unter
    die Lupe nimmt und einen grossen Teil des Fächerkanons keiner Leistungsüberprüfung
    unterzieht?

    • Wie wird sichergestellt, dass Fächer wie Geschichte, Geografie oder der handwerkliche
    Bereich nicht völlig im Schatten der überprüften Fächer stehen?

    • Müsste nicht mit einer Leistungsüberprüfung der gesamten pädagogischen Arbeit bei einer
    begrenzten Zahl von ausgewählten Lehrpersonen ein Gegengewicht zum isolierten
    Überprüfen einzelner Fächer geschaffen werden?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert