16. September 2019

Die verkehrte Welt der EDK

Während die PISA-Studien mit grosser Regelmässigkeit belegen, dass unsere Schülerinnen und Schüler in Mathematik zur Weltspitze gehören, jedoch im Lesen nur Mittelmass bilden, verkündet die EDK als Hauptergebnis ihrer ersten nationalen Überprüfung der Grundkompetenzen das schiere Gegenteil. Kann man sich einen Reim darauf machen? Condorcet-Autor Walter Herzog weist in seiner Analyse auf brisante Tatsachen hin, welche der EDK ein denkbar schlechtes Zeugnis ausstellen. Wer sich die Herausforderung der längeren Lektüre nicht zumuten will, dem empfehlen wir die Zusammenfassung unseres Autors Felix Schmutz im Anschluss an diesen Beitrag.

Foto: Fabü (Condorcet)

Nach einjähriger Verschiebung des Publikationstermins hat die EDK am 24. Mai 2019 die Ergebnisse der ersten beiden Durchgänge der «Überprüfung des Erreichens der Grundkompetenzen» bekanntgegeben. Erhoben wurden die Daten Mitte 2016 und Mitte 2017, und man fragt sich, weshalb die Auswertung so viel Zeit gekostet hat. Meine Vermutung, dass bei der Festlegung der Schwellenwerte politisch Einfluss genommnen wurde (vgl. mein Blog-Beitrag vom 10. Mai 2019), scheint sich zwar nicht zu bewahrheiten. Das ändert aber nichts am Verdacht, dass von Seiten der Politik Druck ausgeübt wurde. Bedenkt man, dass es bei den PISA-Studien jeweils knapp anderthalb Jahre dauert, bis die Ergebnisse vorliegen, wobei angesichts der grossen Zahl an teilnehmenden Ländern kein Zweifel besteht, dass diese Zeit tatsächlich benötigt wird, sind die drei Jahre, die wir auf die Ergebnisse zur Überprüfung der Grundkompetenzen in Mathematik warten mussten, unverständlich. Im Folgenden unternehme ich einen zweiten Versuch, die Verzögerung zu erklären, lege den Hauptakzent aber auf die kritische Würdigung der vorgelegten Ergebnisse.

Hohe Erwartungen

Überprüft wurde, wie weit die Schülerinnen und Schüler die Grundkompetenzen in Mathematik am Ende der obligatorischen Schule sowie in der Schulsprache und in der ersten Fremdsprache am Ende der Primarschulzeit erreichen. Die Grundkompetenzen entsprechen den nationalen Bildungszielen, wie sie vom HarmoS-Konkordat vorgegeben werden. Sie stellen gemäss EDK ein Kerninstrument des Konkordats dar (vgl. EDK 2011, S. 3) und sind als leistungsbezogene Mindest‑ bzw. Basisstandards formuliert. Sie umschreiben jenes Minimum an Wissen und Können, dessen Erwerb von allen Schülerinnen und Schülern in der obligatorischen Schulzeit erwartet wird. Nach Ansicht der EDK hat unser Bildungssystem zu «gewährleisten, dass praktisch alle Schülerinnen und Schüler diese Mindestanforderungen … erreichen» (ebd., S. 78).

Bild: AdobeStock

Im HarmoS-Konkordat werden fünf Bereiche aufgeführt, in denen unsere Schulen eine umfassende Grundbildung zu vermitteln haben, nämlich: 1. Sprachen, 2. Mathematik und Naturwissenschaften, 3. Sozial- und Geisteswissenschaften, 4. Musik, Kunst und Gestaltung sowie 5. Bewegung und Gesundheit. Grundkompetenzen wurden bisher lediglich in den ersten beiden Bereichen festgelegt, nämlich in der Schulsprache, in der ersten Fremdsprache (eine zweite Landessprache oder Englisch), in der zweiten Fremdsprache, in Mathematik und in den Naturwissenschaften, und zwar – mit Ausnahme der Fremdsprachen – jeweils für das Ende des 4. Schuljahres, das Ende des 8. Schuljahres (Ende Primarschule) und das Ende des 11. Schuljahres (Ende der obligatorischen Schule). Da der Fremdsprachenunterricht in der Regel erst nach der vierten Klasse beginnt, liegen die entsprechenden Grundkompetenzen nur für die 8. und die 11. Klasse vor.

Wenn die Grundkompetenzen nun erstmals in zwei Bildungsbereichen – Mathematik und Schul‑ sowie erste Fremdsprache – überprüft wurden, dann handelt es sich um einen engen Ausschnitt aus dem gesamten Bildungsauftrag der obligatorischen Schule. Dies nicht nur, weil die Naturwissenschaften und die zweite Fremdsprache nicht einbezogen wurden, sondern auch, weil die EDK nach wie vor nicht entschieden hat, was mit den anderen Bildungsbereichen geschehen soll, ob dort ebenfalls Grundkompetenzen festgelegt werden oder ob darauf verzichtet wird. Sollte es bei Sprache und Mathematik bleiben, so würde anhand eines schmalen Segments des Bildungsauftrags der obligatorischen Schule darüber befunden, ob unsere Kinder und Jugendlichen jenes Minimum an Wissen und Können erwerben, dessen Erwerb von ihnen erwartet wird.

Die Beschränkung auf Sprache und Mathematik schürt die Hoffnung, dass dem engen Fokus eine um so bessere Qualität der Ergebnisse gegenübersteht, so dass wir im Bereich von Mathematik und Sprache ein verlässliches Bild vom Bildungsstand unserer Schülerinnen und Schüler gewinnen – ein verlässlicheres jedenfalls als dasjenige, das die PISA-Studien zeichnen. Denn die PISA-Studien nehmen erklärtermassen keine Rücksicht auf nationale Besonderheiten, insbesondere nicht auf die Lehrpläne. Da die Grundkompetenzen jedoch auf fachbezogenen Kompetenzmodellen beruhen, die auf der Basis eines systematischen Vergleichs der kantonalen Lehrpläne erarbeitet wurden, sollte deren Überprüfung informativer ausfallen als die PISA-Studien.

Die Erwartungen sind auch deshalb hoch, weil die Schweiz bei den PISA-Studien seit 2015 auf die Erhebung von kantonal repräsentativen Stichproben verzichtet und nur mehr mit einer für die Gesamtschweiz repräsentativen Auswahl teilnimmt (nur für den Tessin wird weiterhin eine kantonale Stichprobe gezogen). Bereits 2009 hatte die EDK beschlossen, dass PISA künftig nur noch dem internationalen Vergleich dienen soll, während die Funktion des interkantonalen Vergleichs an die Überprüfung der Grundkompetenzen übergehen soll. Mit den Ergebnissen der Überprüfung der Grundkompetenzen in Sprache und Mathematik sind daher seit längerem wieder kantonale Vergleiche möglich, was den beiden Studien zusätzliche Bedeutung gibt.

Erfüllt werden die Erwartungen jedoch nicht. Bevor ich dies darlege, möchte ich kurz ausführen, was die EDK zu ihren Reformen veranlasste und welche Ziele dahinter stehen.

Messen, was sich messen lässt

Bild: AdobeStock

Einen wesentlichen Anstoss für die Reformen der vergangenen Jahre gaben die Ergebnisse der ersten PISA-Studie, die im Jahre 2000 durchgeführt und 2001 der Öffentlichkeit vorgestellt wurde. Von «Bildungsmisere» und «Bildungsnotstand» war die Rede, wobei die verstörten Reaktionen vor allem durch die schwachen Leistungen im Lesen, weniger in den Naturwissenschaften und gar nicht in der Mathematik ausgelöst wurden. «Viele Schüler verstehen nur Bahnhof» titelte der Tages Anzeiger vom 5. Dezember 2001. Rund 20% der Jugendlichen erreichten lediglich das erste von fünf Niveaus der Lesekompetenz oder lagen sogar darunter.

Nachdem sich der Pulverdampf etwas gelegt hatte, sah sich die EDK 2002 zu einer Erklärung veranlasst (vgl. EDK 2002), der sie 2003 einen Aktionsplan folgen liess. Der Aktionsplan definierte fünf Handlungsfelder, in denen das schweizerische Bildungssystem reformiert werden soll. Eine der Empfehlungen betraf die Umstellung auf eine konsequent an den Lernleistungen der Schülerinnen und Schüler orientierte Steuerung des Bildungssystems, eine weitere die verlässlichere Messung der Schülerleistungen. Explizit heisst es in dem Papier der EDK: «Um im Schulsystem die Leistungen transparent zu erfassen, sind klare Leistungsvorgaben und periodische Messungen erforderlich. Fachliche Leistungen sowie Fächer übergreifende Kompetenzen sind regelmässig aufgrund von Bildungsstandards zu überprüfen» (EDK 2003, S. 20).

Ein Jahr später veröffentlichte die EDK ihr so genanntes Weissbuch zum HarmoS-Projekt (vgl. EDK 2004). Auch in diesem Papier tauchen wesentliche Reformideen wieder auf, die zuvor als Reaktion auf PISA 2000 formuliert worden waren. So unter anderem die Vorgabe von leistungsorientierten Bildungsstandards, die Ausrichtung des schulischen Lernens an Kompetenzen, die Einführung eines gesamtschweizerischen Bildungsmonitorings und die Festlegung von Mindestkompetenzen, die künftig von allen Schülerinnen und Schülern zu erreichen sind. Aus den Mindestkompetenzen sind später Basiskompetenzen und inzwischen die Grundkompetenzen geworden, deren erstmalige Überprüfung 2016 und 2017 stattgefunden hat.

Ein sehr begrenztesSegment

Wie schon aufgezeigt, decken die Grundkompetenzen in Mathematik, Schulsprache und erster Fremdsprache nur ein enges Segment des Bildungsauftrags der obligatorischen Schule ab. Das Segment wird jedoch noch enger, wenn wir erfahren, dass mit den eingesetzten Testaufgaben nur das erfasst wurde, was sich im Rahmen eines flächendeckenden Monitorings unter Effizienzgesichtspunkten überhaupt erfassen lässt. Bei der Schulsprache sind dies lediglich das Lesen und die Orthografie, bei den Fremdsprachen das Lese- und das Hörverständnis. Alle anderen Sprachaspekte – freies Reden, zusammenhängendes Sprechen, Teilnahme an Gesprächen, Schreiben, Grammatik, Literatur und kulturelles Verständnis – sind aus erhebungs- oder messtechnischen Gründen weggefallen. Selbst die Lesekompetenz ist nicht umfassend getestet worden, sondern nur insofern, wie die verwendeten Antwortformate (Multiple Choice) eine Erhebung zuliessen. So wurde zum Beispiel die Fähigkeit, Informationen aus verschiedenen Quellen, wie Text, Bild und Grafiken, zu verknüpfen, nicht überprüft. Gleiches gilt für die Orthografie, bei der nur das explizite Regelwissen geprüft wurde, nicht aber die so genannte Verschriftungskompetenz und auch nicht die Korrekturkompetenz (vgl. Konsortium ÜGK 2019a, S. 25).

Gleiches gilt auch für die Mathematik. Obwohl bei den Grundkompetenzen acht Handlungsaspekte genannt werden, sind aus erhebungstechnischen Gründen nur fünf erfasst worden (vgl. Konsortium ÜGK 2019b, S. 19ff.). Insofern ist die Aussage der EDK, wonach mit den beiden Erhebungen «erstmals … untersucht (wurde), wie viele Schülerinnen und Schüler die Grundkompetenzen erreichen, die von der EDK 2011 festgelegt worden sind» (Medienmitteilung vom 24.5.2019), unzutreffend, wenn nicht eklatant irreführend.

Offenbar laufen wir offenen Auges in genau die Falle, vor der von besonnener Seite seit längerem gewarnt wird. Gemessen wird nicht, was pädagogisch wichtig ist, sondern pädagogisch wichtig wird, was sich mit den verfügbaren Instrumenten messen lässt! Bereits mit ihren ersten beiden Studien zur Überprüfung der Grundkompetenzen straft die EDK ihr oft abgegebenes Versprechen, kein teaching to the test befördern zu wollen, Lügen. Indem die Qualität der Schule auf jene Aspekte reduziert wird, die sich im Rahmen eines large-scale assessments messen lassen, wird alles andere, was eine gute Schule auszeichnet, schlicht übergangen. Die Lehrerinnen und Lehrer werden schnell begreifen, was die EDK für wichtig hält, nämlich nicht einmal die Grundkompetenzen, die sie mit grosser Mehrheit beschlossen hat, sondern lediglich jenen Ausschnitt daraus, der sich mit Hilfe standardisierter Verfahren überprüfen lässt.

Gut in Mathematik und schlecht im Lesen – oder umgekehrt?

Nicht nur die Reduktion der schulischen Bildung auf jene Aspekte von Mathematik und Sprache, die sich standardisiert messen lassen, ist enttäuschend. Enttäuschend sind auch die Ergebnisse selber. Per Ende der Primarschule erreichen schweizweit durchschnittlich 88.1% der Schülerinnen und Schüler die Grundkompetenzen im Lesen in der Schulsprache. Bei der Orthografie sind es je nach Sprachregion 80.1% (Tessin), 84.4% (Deutschschweiz) und 88.8% (Romandie). Dass man keinen Gesamtwert angeben kann, ist befremdend. Auch wenn die EDK die orthografischen Grundkompetenzen nur sprachregional festgelegt hat, stellt ein schweizweites Monitoring, das nicht in der Lage ist, vergleichbare Aufgaben zu stellen, eine Sinnwidrigkeit dar – insbesondere angesichts der Entscheidung der EDK, die Funktion des interkantonalen Vergleichs von den PISA-Studien an die Überprüfung der Grundkompetenzen zu transferieren.

In der ersten Fremdsprache – Deutsch in der Westschweiz, Französisch im Tessin und Französisch oder Englisch in der Deutschschweiz (Graubünden wurde nicht erfasst) – erreichen 88.0% der Schülerinnen und Schüler am Ende der Primarschule die Grundkompetenzen beim Hörverstehen Deutsch, 88.6% beim Hörverstehen Französisch und 95.4% beim Hörverstehen Englisch, während es beim Leseverstehen 65.2% in Französisch, 71.6% in Deutsch und 86.0% in Englisch sind. In der Mathematik, die per Ende der obligatorischen Schule erfasst wurde, werden die Grundkompetenzen im schweizerischen Durchschnitt zu 62.2% erreicht mit einer beträchtlichen Varianz zwischen den Kantonen (43.5% bis 82.7%).

Die Ergebnisse erstaunen. Denn sie widersprechen diametral den Erkenntnissen aus den PISA-Studien. Auf die erste Erhebung von 2000 wurde bereits hingewiesen. Sie ergab schlechte Leseleistungen und gute Mathematikleistungen. Daran hat sich bei den folgenden Durchgängen kaum etwas geändert. Trotz des Eindrucks, dass bei der Leseförderung einiges getan wurde, zeigen die Messwerte nur geringe Veränderungen und schon gar nicht einen eindeutigen Trend. Bei der Erhebung von 2015 sank der Wert sogar wieder auf das ursprüngliche Niveau von 2000. 20% der getesteten Schülerinnen und Schüler waren nicht in der Lage, einen einfachen Text zu verstehen. Entsprechend war die Reaktion die Medien: «Jeder fünfte Schüler kann nicht richtig lesen» (SonntagsZeitung vom 11.12.2016).

Man könnte einwenden, dass wir es nicht mit derselben Altersgruppe zu tun haben. Während bei PISA die 15-Jährigen getestet werden, also Jugendliche, die am Ende ihrer obligatorischen Schulzeit stehen, wurde die Lesekompetenz in der EDK-Studie per Ende Primarschule, also bei 11- bis 12-Jährigen, gemessen. Es wäre jedoch wenig plausibel anzunehmen, dass die Sprachkompetenz erst in den letzten drei Schuljahren ins Negative kippt. Funktionaler Analphabetismus (Illetrismus) entwickelt sich in den ersten Schuljahren, ja oft schon in der Vorschulzeit, so dass sich die PISA- und die EDK-Daten zur Lesekompetenz diesbezüglich durchaus vergleichen lassen.

emer. Professor Walter Herzog
Photo: Fabü

Bestätigung finden die schlechten Leseleistungen der Schülerinnen und Schüler zudem in den periodisch durchgeführten Studien zur Lese- und Schreibkompetenz Erwachsener. Danach stehen die 16- bis 64-Jährigen in der Schweiz nicht besser da als die Schulabgängerinnen und Schulabgänger. Die letzte in der Schweiz durchgeführte Studie ergab einen Anteil von 16% funktionaler Analphabeten (vgl. BFS 2006). Die Schweiz ist allerdings kein Sonderfall, denn man geht davon aus, dass in allen Industrieländern etwa 15 bis 20% der Erwachsenen nur recht und schlecht lesen und schreiben können. Was PISA 2015 anbelangt, so liegt der Anteil 15-Jähriger mit geringer Lesekompetenz in Belgien, Frankreich, Italien und Österreich im gleichen Bereich von rd. 20% wie in der Schweiz (vgl. Konsortium PISA.ch 2015, S. 42).

Bei der Mathematik ist ein Vergleich leichter möglich, da wir es mit derselben Altersgruppe zu tun haben. Zwar werden in den beiden Schlussberichten zur Überprüfung der Grundkompetenzen keine Altersangaben gemacht, was wissenschaftlich etwas irritierend ist, jedoch kann aufgrund des Stichprobenverfahrens davon ausgegangen werden, dass die Altersgruppen bei PISA und bei der Überprüfung der mathematischen Grundkompetenzen im grossen Ganzen vergleichbar sind.

Schon bei der ersten PISA-Erhebung lagen die Schweizer Schülerinnen und Schüler auf dem 7. Rang von 33 teilnehmenden Ländern. Lob gab es dafür keines, da die schlechten Leseleistungen im Vordergrund standen. Das änderte sich mit den folgenden Durchgängen, die sich auf immer mehr teilnehmende Länder ausdehnten (inzwischen nehmen rd. 80 Länder an PISA teil). Wie sich die Mathematik-Leistungen unserer 15-Jährigen im internationalen Kontext ausnehmen, können die folgenden Headlines zeigen:

2003: «PISA 2003 – sehr gute Kompetenzen in Mathematik» (Medienmitteilung BFS & EDK vom 7.12.2004)

2006: «Schweizer Schüler hervorragend in Mathematik» (NZZ am Sonntag vom 2.12.2007)

2009: «Mathematik: Schweizer Jugendliche sind Weltklasse» (Der Bund vom 8.12.2010)

2012: «In Mathematik liegen die Schweizer jetzt vor den Finnen» (Tages Anzeiger vom 4.12.2013)

2015: «Die Schweizer Jugendlichen sind die Mathematik-Stars Europas» (Neue Zürcher Zeitung vom 7.12.2016)

Tatsächlich haben die 15-jährigen Jugendlichen in der Schweiz beim letzten PISA-Durchgang, dessen Ergebnisse wir kennen (die Ergebnisse von 2018 kennen wir noch nicht), in Mathematik unter allen europäischen Ländern den ersten Platz belegt. Zwar muss man auch bei der Mathematik in Rechnung stellen, dass es eine Gruppe von 15-Jährigen gibt, die lediglich das tiefste Niveau der Kompetenzskala erreichen oder sogar darunter liegen, jedoch steht der erzielte Durchschnittswert für ein mehr als gutes Leistungsniveau.

Es ist daher völlig paradox, dass dieselbe Altersgruppe von Schülerinnen und Schülern bei praktisch allen bisher durchgeführten PISA-Erhebungen in Mathematik zur weltweiten Spitze gehört, während sie bei der ersten Überprüfung der Grundkompetenzen so miserabel abschneidet. Und es ist nochmals paradox, dass fast spiegelbildlich dazu unsere Schülerinnen und Schüler in den PISA-Studien zum Lesen so schlecht abschneiden, während sie bei der Überprüfung der Grundkompetenzen geradezu hervorragende Leistungen zeigen. Auch wenn die beiden Studien zum Teil andere Ziele verfolgen und auch in methodischer Hinsicht Unterschiede bestehen, kann nicht sein, dass zwei Grossstudien zur Schulqualität zu dermassen widersprüchlichen Resultaten kommen. Etwas scheint faul zu sein im Staate Dänemark! Solange wir uns die verkehrte Welt der EDK nicht erklären können, wissen wir nicht, welchen Daten wir überhaupt trauen können.

Hilfe aus Luxemburg

Im Folgenden möchte ich versuchen, eine Erklärung zu geben. Dabei folge ich einer Spur, die Nadja Pastega in der SonntagsZeitung vom 26. Mai 2019 gelegt hat. Sie verweist auf ein Gutachten, das vom Generalsekretariat der EDK Ende 2017 beim Centre for Educational Testing der Universität Luxemburg in Auftrag gegeben wurde, offenbar nachdem die unerwarteten Resultate zur Mathematik im inneren Kreis der EDK bekanntgeworden waren. Das Gutachten sollte klären, ob das gewählte Vorgehen bei der Überprüfung der Grundkompetenzen, insbesondere die Testentwicklung und die Bestimmung der so genannten Schwellenwerte (cut-scores), die auf den Messskalen die Grenze zwischen Kompetenz und Inkompetenz festlegen, methodisch korrekt war. Auf den ersten Blick ist das Gutachten positiv ausgefallen: «Overall, the test design, data collection, data analysis, and, in particular the standard-setting are on a very high level and fully in line with present scientific quality standards» (Fischbach & Ugen 2018, S. 24). Diese Stelle wird von der EDK denn auch gerne zitiert. Jedoch ergibt sich bei genauerer Lektüre des Gutachtens ein ziemlich anderes Bild.

Ich möchte ein paar Stellen aus dem Gutachten zitieren, die auf gravierende Schwächen bei der Entwicklung der Kompetenzmodelle, bei der Festlegung der Grundkompetenzen und bei deren Überprüfung im Rahmen der Monitoringstudie hinweisen. Die Zitate lassen sich ohne weiteres überspringen; ich werde die wichtigsten Punkte anschliessend zusammenfassen. (ÜGK steht für «Überprüfung des Erreichens der Grundkompetenzen»; mit «items» sind die Testaufgaben gemeint, mit «auditors» die beiden Gutachter aus Luxemburg.)

«Overall, the exact item development process remains unclear to the auditors. The auditors were not provided with proper documentation describing the … item development process, and even throughout the hearings, the auditors did not gain satisfactory insights into the item development modus operandi» (S. 14).

«… the items that were included in the main test were never adequately pretested; half were adjusted after a first pretest, and half were newly developed afterwards» (S. 15).

«… only 132 out of 180 items passed all quality control steps and remained in the final scaling model. Over one quarter of item loss is very high and too high for a main test operation. … The … item loss is not a matter of analysis but … a matter of suboptimal item development and, first and foremost, insufficient pretesting» (S. 19).

«The ÜGK … mathematics items … involved a great deal of text. It is well known that language proficiency has an important impact on mathematics performance. For assessments in mathematics, it is thus recommended that the language load be reduced as much as possible» (S. 14).

«The items retained during the standard-setting procedure (i.e., those items below the cut-score) operationalise the theoretical descriptors in about the easiest way possible. Crucially, however, these descriptors, and thus the minimum standards, are very ambitious in international comparison, lack proper empirical validation, and empirically behave more like norm standards (Regelstandards)» (S. 25).

«Although the HarmoS competence model underwent a validation study, the derived minimum standards were never properly empirically validated. … the auditors tried hard to understand how exactly the minimum standards emerged, but neither the available documentation nor the interviewees could provide a scientifically satisfying answer. Moreover, the aforementioned validation study was not without its methodological flaws and represents only the first step in an iterative validation process» (S. 29).

«It is the conclusion and conviction of the auditors that the ‹unexpected› 2016 ÜGK … mathematics results … ultimately have their root in suboptimal and overly ambitious reference documents» (S. 28).

Das ist eine Breitseite an Kritik, die schon jede für sich Zweifel an der Qualität der Ergebnisse der Überprüfung der Mathematik-Grundkompetenzen weckt.

Zusammenfassen lassen sich die monierten Mängel dahingehend, dass unklar ist, wie bei der Entwicklung der Testaufgaben vorgegangen wurde, im Hinblick auf die Zielsetzung viel zu viele Aufgaben einbezogen wurden, diese aber nicht systematisch vorgetestet wurden, nachträglich neue Aufgaben generiert wurden, die aber nicht mehr empirisch geprüft wurden, die Testaufgaben übermässig textlastig sind (womit die Messung der Mathematikkompetenz beeinträchtigt sein könnte), die Validität der Aufgaben nicht ausreichend gewährleistet ist, das erarbeitete Kompetenzmodell nie zufriedenstellend verifiziert wurde, die Bestimmung der Schwellenwerte vermutlich nicht zu Mindeststandards, sondern zu Regelstandards führte und alles in allem die Referenzdokumente (womit wohl in erster Linie die von der EDK verabschiedeten Grundkompetenzen gemeint sind) für eine solche Studie unzulänglich sind.

Das ist eine Breitseite an Kritik, die schon jede für sich Zweifel an der Qualität der Ergebnisse der Überprüfung der Mathematik-Grundkompetenzen weckt. Allerdings deckt das Gutachten Probleme auf, die zum grossen Teil schon im Schlussbericht der HarmoS-Methodologiegruppe, die von 2005 bis 2008 die Entwicklung der Kompetenzmodelle begleitete, genannt werden (vgl. Ramseier, Moser, Moreau & Antonietti 2008). Ich nenne die wesentlichen Punkte:

  • nur ein Teil der Testaufgaben wurde im Rahmen von Pretests überprüft
  • die Auswahl der Testaufgaben erfolgte eher nach pragmatischen als nach wissenschaftlichen Kriterien
  • die Schwierigkeit der Testaufgaben wurde nicht immer korrekt eingeschätzt
  • das Problem der sprachlichen Äquivalenz der Testitems in den drei Landessprachen wurde massiv unterschätzt
  • die Kompetenzniveaus (inkl. Basisstandards) wurden eher interpretierend als nach einem formalisierten Verfahren festgelegt
  • es wurden zwar Grundlagen für die Validierung der Kompetenzmodelle geschaffen, als validiert können diese aber nicht bezeichnet werden
  • insgesamt war die Entwicklung der Kompetenzmodelle in wissenschaftlicher Hinsicht unzulänglich

Zusammenfassend bezweifelte also bereits die HarmoS-Methodologiegruppe, dass die Kompetenzmodelle ausreichend überprüft und die Mindeststandards nach wissenschaftlichen Kriterien bestimmt wurden. Obwohl die Kritik den Verantwortlichen der EDK bekannt sein musste, scheint an der Projektorganisation nichts geändert worden zu sein. Die Folge war, dass sich die Mängel bei der Überprüfung der Grundkompetenzen fortpflanzten.

Auf die beiden gravierendsten Mängel, nämlich die ungenügende Qualität der erzielten Ergebnisse und die unzulängliche Projektorganisation, möchte ich im Folgenden einzeln eingehen.

Eine fragwürdige Strategie

Einige der aufgezeigten Mängel lassen sich angesichts des grossen Zeitdrucks, unter dem die Entwicklung der Kompetenzmodelle, die Bestimmung der Mindeststandards und die Festlegung der Grundkompetenzen erfolgten, nachvollziehen. Die Fehler, die gemacht wurden, haben aber dazu beigetragen, dass die Ergebnisse der Überprüfung der mathematischen Grundkompetenzen selbst gedämpften Erwartungen nicht genügen können.

Bild: AdobeStock

Besonders gravierend ist die Ungewissheit, ob tatsächlich Grundkompetenzen oder nicht vielmehr durchschnittliche Leistungen erfasst wurden, bei der Bestimmung der Schwellenwerte also eher Regelstandards als Mindeststandards festgesetzt wurden. In der Klieme-Expertise, auf die man sich beim HarmoS-Projekt ausgiebig stützte, werden Regelstandards als mittleres Leistungsniveau definiert, das von etwa der Hälfte der Schülerinnen und Schüler erreicht wird, während Mindeststandards für jenes basale Leistungsniveau stehen, von dem erwartet wird, dass es von keinem Lernenden unterschritten wird (vgl. Klieme et al. 2003, S. 27). Mit dem HarmoS-Konkordat bekennen sich die Kantone ausdrücklich zu Mindeststandards. In den Dokumenten der EDK wird der Begriff der Grundkompetenzen mittlerweile synonym mit demjenigen der Mindest‑ bzw. Basisstandards gebraucht. Genauer gesagt: der Begriff der Basisstandards wurde per Beschluss der EDK-Plenarversammlung durch denjenigen der Grundkompetenzen ersetzt (vgl. EDK 2011, S. 84f.). Man kann sich fragen, wie sinnvoll es ist, eine Fähigkeit (Kompetenz) mit dem Massstab ihrer Bewertung (Standard) gleichzusetzen. Halten wir am Begriff der Standards fest, so zeigt bereits der Bericht der HarmoS-Methodologiegruppe, insbesondere aber das Gutachten des Luxemburger Centre for Educational Testing, dass bei der Überprüfung der Grundkompetenzen eher Regel- als Mindeststandards erfasst wurden.

Allerdings wäre es falsch anzunehmen, dass wir, anstatt zu wissen, wo das Kompetenzniveau unserer Schülerinnen und Schüler «im Minimum» liegt, nun wüssten, wo es «in der Regel» liegt. Denn die Vermutung der Gutacher, dass eher Regel‑ als Mindeststandards festgelegt wurden, heisst nicht, dass wir es tatsächlich mit Regelstandards zu tun haben. Beabsichtigt war ja durchaus, die Schwellenwerte so zu legen, dass sich Mindeststandards (Grundkompetenzen) ergeben. Nur weil dies misslungen ist, haben wir noch keine Regelstandards gewonnen. Das Einzige, was sich mit einiger Überzeugung sagen lässt, ist, dass die erfassten Mathematikleistungen der Schülerinnen und Schüler irgendwo zwischen Mindest- und Regelstandards liegen, ohne dass wir genau sagen können wo.

In ihrem Bericht nennen die Auditoren drei Strategien, wie mit der offensichtlichen Zielverfehlung bei der Überprüfung der Mathematikkompetenzen hätte umgegangen werden können. Die ehrlichste Strategie wäre, die gewonnenen Daten zu nutzen, um das Kompetenzmodell nachträglich angemessen zu validieren und die Grundkompetenzen neu festzulegen. Dabei hätte die EDK allerdings nicht nur eingestehen müssen, dass die Resultate mangelhaft sind, sondern aufgrund der gravierenden Mängel der Studie auch auf deren Publikation verzichten müssen. Die Neubestimmung der Grundkompetenzen hätte zudem zur Folge gehabt, dass die sprachregionalen Lehrpläne, die eben erst erarbeitet wurden, bereits wieder hätten angepasst werden müssen. Man kann nachvollziehen, dass die EDK diese Strategie nicht gewählt hat.

Eine zweite Strategie hätte nach Meinung der Auditoren darin gelegen, die Terminologie anzupassen und auf den Begriff der Grundkompetenzen zu verzichten. Auch damit wäre die EDK aber nicht darum herumgekommen einzugestehen, dass die Ergebnisse für die ursprüngliche Zielsetzung der Überprüfung der Grundkompetenzen nicht brauchbar sind. Offensichtlich hat sie auch diese Strategie nicht gewählt. Man scheint an den Grundkompetenzen festhalten zu wollen, wohl auch deshalb, weil etwas anderes ohne Gesichtsverlust nicht möglich ist. Denn die Grundkompetenzen sind inzwischen nicht nur in die sprachregionalen Lehrpläne eingeflossen, sondern dienen auch als Referenzrahmen für die Überarbeitung und Entwicklung von Lehrmitteln und bestimmen die Studiengänge an den Pädagogischen Hochschulen.

Die dritte, von den Auditoren am wenigsten empfohlene Strategie, um mit der missratenen Überprüfung der Grundkompetenzen umzugehen, bestünde darin zu bestreiten, dass die Ergebnisse erwartungswidrig ausgefallen sind. Genau diese Strategie hat die EDK schliesslich gewählt. Kommuniziert wurde anlässlich der Information der Medien, dass man mit der Umsetzung des HarmoS-Projekts erst ganz am Anfang stehe, die getesteten Schülerinnen und Schüler daher noch nicht nach den neuen Lehrplänen unterrichtet worden seien, die Daten insofern für die Grundkompetenzen der Schülerinnen und Schüler «am Ausgangspunkt der Harmonisierung» (Medienmitteilung vom 24.5.2019) stünden, die Unterschiede in den Ergebnissen vor dem Hintergrund der noch gültigen kantonalen Lehrpläne erklärbar seien und davon auszugehen sei, dass die zunehmende Anwendung der gemeinsamen Lehrpläne und Lehrmittel «zu einer weiterführenden Harmonisierung der Bildungsziele beitragen» (ebd.) werde.

Mit dieser von den Luxemburger Auditoren «rhetorisch» genannten Strategie wird nicht nur von den Qualitätsmängeln der Studie abgelenkt, die EDK geht auch das Risiko ein, ihre Glaubwürdigkeit zu verlieren. Denn seit Jahren stellt man sich auf den Standpunkt, dass das HarmoS-Projekt keine Reform, zumindest keine Reform «verstanden als Veränderung von Bestehendem» (EDK 2011, S. 67, Fn. 79) sei, sondern nur bereits Vorhandenes vereinheitliche und harmonisiere. In einem Interview betonte der frühere Generalsekretär der EDK, dass «viele der Grundkompetenzen … seit Jahr und Tag Gegenstand des Unterrichts (sind)» (Ambühl 2016, S. 17). Dann aber können die neuen Mathematiklehrpläne kaum grundsätzlich von den alten verschieden sein, selbst wenn eingestanden wird, dass die kantonalen Unterschiede bei der Mathematik bisher grösser waren als bei der Schulsprache. Vor allem lässt sich mit diesem windigen Argument in keiner Weise erklären, weshalb die Ergebnisse in Mathematik im Vergleich mit den PISA-Studien so viel schlechter ausgefallen sind. Es zeugt von wenig Format, wenn die EDK, statt der Öffentlichkeit reinen Wein einzuschenken, eine Kommission einsetzt, die abklären soll, ob das Anspruchsniveau der mathematischen Testaufgaben tatsächlich zu hoch war (Medienmitteilung vom 24.5.2019). Da schon jetzt ziemlich klar ist, wie das Ergebnis ausfallen wird, geht es wohl einzig darum, Zeit zu schinden, um sich weitere rhetorische Pirouetten auszudenken.

“Bei PISA 2015 enervierte man sich von Seiten der EDK noch über die vermeintlich schlechte methodische Qualität der Studie.”

Die Maskerade der EDK angesichts der unerwarteten Resultate des Monitorings der mathematischen Grundkompetenzen steht in eigenartigem Kontrast zu ihrem lauthalsen Protest anlässlich der Ergebnisse der PISA-Erhebung von 2015. Die Tatsache, dass die Werte in allen drei Testbereichen – Lesen, Mathematik und Naturwissenschaften – gegenüber der Erhebung von 2012 schlechter ausgefallen waren, war für einige Verantwortliche der EDK und des LCH Anlass genug, um sich über die vermeintlich schlechte methodische Qualität der Studie zu enervieren. Der LCH werweisste, ob das Geld nicht besser für andere Zwecke eingesetzt würde, die EDK verzichtete darauf, einen eigenen Bericht zu den Resultaten zu verfassen und verlangte von der PISA-Zentrale in Paris Auskunft über das «massive Qualitätsproblem» und die «unabschätzbaren Konsequenzen» der Studie (vgl. Tages Anzeiger vom 7.12.2016). Dabei wurde die Studie von 2015 im vollen Wissen und mit dem ausdrücklichen Einverständnis der EDK in einem leicht abgeänderten Modus durchgeführt – per Computer statt per Papier und Stift, mit einer deutlich verkleinerten Stichprobe, mit methodischen Anpassungen bei den Messskalen (vgl. EDK 2012; Konsortium PISA.ch 2018). Mag sein, dass sich dadurch gewisse Probleme der Vergleichbarkeit – vor allem im zeitlichen Längsschnitt – ergeben haben, die aber nicht singulär für die Schweiz waren.

Zudem hätte man wissen müssen, dass sich die Verschlechterung der Schülerleistungen beim Lesen in einem engen Horizont bewegte. Die Werte auf der Skala zur Lesekompetenz liegen – wie auf den anderen PISA-Skalen auch – bei einer angenommenen Normalverteilung der Leistungen grosso modo in einem Intervall zwischen 300 und 700 Punkten. Zwischen 2000 und 2015 schwankten die Leistungspunkte bei der Lesekompetenz der getesteten schweizerischen Probandinnen und Probanden zwischen 492 (Minimum) und 509 (Maximum) Punkten, also in einem recht engen Bereich. Der Koordinator von PISA, Andreas Schleicher, zeigte sich denn auch leicht amüsiert über die wenig professionelle Reaktion der EDK und verwies zu Recht darauf, dass PISA vielen nationalen Tests um Jahre voraus sei (vgl. Luzerner Zeitung vom 11.12.2016). Wenn es dafür noch eines Beweises bedurft hätte, dann hat ihn die EDK mit ihrer Überprüfung der Grundkompetenzen in Mathematik inzwischen erbracht.

Vermischung der Zuständigkeiten

Im Bericht der Luxemburger Auditoren werden neben methodischen auch organisatorische Mängel aufgedeckt. Insbesondere wird eine Vermengung von strategischer und operativer Führung moniert. Die Rede ist von einer suboptimalen Projektorganisation, «because the project coordination and the contracting body are not separate entities and are thus not able to independently carry out their respective functions» (Fischbach & Ugen 2018, S. 12). Die EDK trage zwei sich ausschliessende Hüte, insofern sie auf der einen Seite Verträge abschliesse sowie eine Überwachungsfunktion wahrnehme und auf der anderen Seite die Projektleitung innehabe, also exekutiv tätig sei. «Crucially, while the contracting and supervising authority is by definition a political body, the executive body should be apolitical and scientific in nature» (ebd., S. 30). Die Einmischung der Politik in die Wissenschaft, die in meinem Blog-Beitrag vom 10. Mai 2019 zur Befürchtung Anlass gab, dass die Bestimmung der Schwellenwerte politisch beeinflusst sein könnte, scheint struktureller Natur zu sein und auf der organisatorischen Ebene abzulaufen.

Es ist gelinde gesagt seltsam, dass sich ein behördliches Organ wie das Generalsekretariat der EDK in forschungsmethodische Entscheidungen einmischt und ein politisches Gremium wie die EDK-Plenarversammlung die Ergebnisse der Überprüfung der Grundkompetenzen entgegennimmt, würdigt und über deren Weiterleitung an die Öffentlichkeit beschliesst (vgl. EDK 2014, Art. 5). Allerdings lässt sich damit nachvollziehen, wie es zur Verzögerung der Publikation der Ergebnisse gekommen ist. Denn die unerwarteten Resultate bei den Grundkompetenzen in Mathematik waren der Projektleitung seit Mitte 2017 bekannt. Sie wurden der EDK-Plenarversammlung im Herbst 2017 vorgelegt, was zum Auftrag an das Generalsekretariat führte, ein externes Audit einzuholen. Die Auditoren berichteten der EDK-Plenarversammlung persönlich über die Ausführung ihres Auftrags (vgl. EDK 2019, S. 12 und 21). Die Freigabe der Ergebnisse zur Publikation wurde von der EDK-Plenarversammlung am 28. März 2019 beschlossen.

Die Forderung nach klarer Trennung von Politik und Wissenschaft ist mehr als berechtigt. Nicht nur um potentielle Konflikte zu vermeiden, sondern auch im Interesse einer optimalen Entscheidungsstruktur ist es von grösster Wichtigkeit, «that the two bodies [Politik und Wissenschaft, W.H.] are independent, adequately represented, and engaged in regular, formalised, and transparent dialogue» (Fischbach & Ugen 2018, S. 31). Transparenz würde auch heissen, dass die Protokolle der Sitzungen von EDK-Vorstand und EDK-Plenarversammlung öffentlich gemacht würden.

Inzwischen ist bekannt geworden, dass die Projektleitung an eine externe Institution, nämlich an das vor kurzem gegründete Interdisziplinäre Zentrum für Bildungsforschung (IZB) der Universität Bern, übergehen soll. Ob die unglückliche Vermischung strategischer und operativer Funktionen dadurch tatsächlich behoben wird, ist jedoch fraglich. Skeptisch stimmt die Tatsache, dass die Klärung der Frage, ob bei den mathematischen Grundkompetenzen nicht Mindest-, sondern Regelstandards erfasst wurden, nicht der neuen Projektleitung überlassen wird, die wohl am ehesten in der Lage wäre, den Sachverhalt abzuklären, sondern einem internen Organ – einer «Kommission der EDK» (Medienmitteilung vom 24.5.2019) – übertragen wurde. Die Skepsis verschärft sich, wenn man erfährt, dass sich die Universität Zürich, die von der EDK offenbar für die künftige Projektleitung favorisiert wurde, mit der Begründung vom Auftrag zurückzog, dass die Zuständigkeiten und Kompetenzen nicht zufriedenstellend geklärt werden konnten (vgl. EDK 2019, S. 9). Ob es der Universität Bern besser gelungen ist, der EDK die notwendige Klarheit abzuringen, entzieht sich meiner Kenntnis. Solange das Organisationsreglement über die Durchführung der Überprüfung der Grundkompetenzen (vgl. EDK 2014), mit dem sich die EDK einen übermässigen Einfluss auf operative Projektentscheidungen zusichert, nicht angepasst wird, steht zu befürchten, dass die organisatorischen Probleme trotz Auslagerung der Projektleitung aus dem Generalsekretariat andauern werden.

Anhaltende Ernüchterung

Gesamthaft gesehen, hinterlassen die ersten Durchgänge der «Überprüfung des Erreichens der Grundkompetenzen» für die EDK keinen besonders vorteilhaften Eindruck. Insbesondere die Hauptadressaten der beiden Erhebungen – die Bildungspraxis, die Bildungspolitik und die Bildungsverwaltung – werden mit den Ergebnissen kaum etwas anfangen können. Was soll man mit Daten machen, bei denen nicht einmal klar ist, ob tatsächlich Grundkompetenzen gemessen wurden, deren Gültigkeit und Zuverlässigkeit nicht schlüssig beurteilt werden kann und die nicht den geringsten Hinweis darauf geben, wie der schulische Unterricht verbessert werden kann? Besonders pikant ist, dass auch die Hintergrund- bzw. Kontextvariablen, die erhoben wurden, um Unterschiede in den Schülerleistungen zu erklären – wie das Geschlecht, die soziale Herkunft, der Migrationsstatus oder die zu Hause gesprochene Sprache der Schülerinnen und Schüler – praktisch keine Effekte zeigen, ausser jenen, die (wie im Falle der sozialen Herkunft) aufgrund weit besserer Studien längst bekannt sind. Auch die kantonalen Unterschiede lassen sich mit den Kontextvariablen weder im Falle der Mathematik noch bei den Sprachen erklären.

Nicht einmal bei der Anzahl Lektionen lässt sich ein überzeugender Effekt nachweisen. Intuitiverweise würde man annehmen, dass jene Kantone, in denen über die Gesamtdauer der obligatorischen Schule mehr Mathematiklektionen erteilt werden, die besseren Schülerleistungen aufweisen. Jedoch zeigt eine entsprechende Analyse, die anhand der Stundendotation auf der Sekundarstufe I vorgenommen wurde, nur einen geringen Effekt. Die wirklich interessante Aussage, wonach die Mathematikleistungen mit Massnahmen zur Verbesserung der Unterrichtsqualität «weit stärker beeinflusst werden (können) als mit der Erhöhung der Unterrichtszeit» (Konsortium ÜGK 2019b, S. 77), kann bezeichnenderweise nur hypothetisch formuliert werden, weil die Daten eine verbindliche Aussage nicht zulassen.

Die Ernüchterung angesichts der geringen Aussagekraft der Ergebnisse, die sich regelmässig nach Veröffentlichung der PISA-Studien einstellt, wird noch grösser sein, wenn die Resultate zur Überprüfung der Grundkompetenzen einmal breiter gestreut sein werden, wenn sie es nicht bereits ist. Kann schon mit den PISA-Daten herzlich wenig anfangen, wer daraus Schlüsse für die Verbesserung seines Unterrichts ziehen will, wird es mit den vorliegenden Daten noch weniger tun können. Hinzu kommt das schwerwiegende Problem, dass es kaum gelingen wird, mit den vorhandenen Daten einen Längsschnitt zu begründen, da dies nur möglich wäre, wenn der Massstab zur Bestimmung der Grundkompetenzen unverändert bliebe. Wie aber soll an einem Massstab festgehalten werden, wenn sich herausstellt, dass gar nicht Grundkompetenzen gemessen wurden, sondern Leistungen, die irgendwo zwischen Mindest- und Regelstandards liegen? Was soll man über die Zeit hinweg vergleichen, wenn bei der nächsten Erhebung neu bestimmt werden muss, wo der Schwellenwert der Grundkompetenzen liegt?

Zum Thema Vergleich gehört auch, dass sich die EDK schon früh darauf festlegte, im Rahmen des HarmoS-Konkordats lediglich Grundkompetenzen zu überprüfen, nicht aber das gesamte Leistungsspektrum, also nicht auch die höheren Kompetenzstufen (vgl. EDK 2015, S. 20). Das bedeutet einerseits eine Verschwendung von Ressourcen und andererseits eine weitere Abschottung gegenüber den PISA-Studien, mit deren Daten eine Verknüpfung praktisch unmöglich wird. Bei PISA wird nicht nur dichotomisch danach gefragt, ob ein Schwellenwert erreicht wird oder nicht, sondern das ganze Kompetenzspektrum abgedeckt. Damit lassen sich beispielsweise auch über besonders gute Leistungen Aussagen machen. Weshalb man sich bei der EDK nur dafür interessiert, ob an unseren Schulen das absolute Minimum an Anforderungen erreicht wird, ist sowohl wissenschaftlich wie bildungspolitisch schwer verständlich.

Es bleibt zu klären, ob die Kritik an der Überprüfung der Grundkompetenzen nur auf die Mathematik oder auch auf die Sprachen zutrifft. Obwohl der Schlussbericht zu den beiden Erhebungen den Eindruck erweckt, dass bei der Überprüfung der Lese‑ und Orthografiekompetenz Fehler, die man bei der Mathematik beging, korrigiert wurden (vgl. EDK 2019, S. 22ff.), ist schwer zu beurteilen, ob dem tatsächlich so ist. Leider steht zu den Sprachen kein Audit-Bericht zur Verfügung, der wohl deshalb nicht eingeholt wurde, weil die Ergebnisse eher den Erwartungen entsprachen. Es wäre jedoch fatal, aus der Tatsache, dass die Resultate bei der Schulsprache wunschgemäss ausfielen, den Schluss zu ziehen, dass die Datenqualität besser ist. Zu denken geben muss insbesondere die Diskrepanz zu den PISA-Studien, die in der Schweiz über all die Jahre hinweg einen Anteil von durchschnittlich 17% Jugendlichen ausweisen, die selbst einfache Texte nicht korrekt lesen oder interpretieren können.

Allerdings fällt es im Falle der Lesekompetenz – unter anderem aus den zuvor genannten Gründen – schwer, Vergleiche zwischen den beiden Studien anzustellen. Bei der Überprüfung der Grundkompetenzen scheinen ausschliesslich so genannte kontinuierliche Texte verwendet worden zu sein (vgl. Konsortium ÜGK 2019a, S. 20ff.), während bei den PISA-Studien auch nichtkontinuierliche Texte, für deren Bearbeitung Informationen aus Bildern, Grafiken oder Darstellungen beigezogen werden müssen, zum Einsatz kommen. Zudem ist nicht klar, wie weit der nachträglich gesetzte Schwellenwert bei der Überprüfung der Schulsprache mit dem Niveau 1 der PISA-Studien zur Lesekompetenz übereinstimmt. Solange wir diesbezüglich keine belastbaren Informationen haben, ist eine abschliessende Beurteilung der methodischen Qualität der Überprüfung der sprachlichen Grundkompetenzen nicht möglich. Spätestens im kommenden Dezember, wenn die Ergebnisse der PISA-Erhebung von 2018 vorgestellt werden, wird die Diskussion darüber, wie gross der Anteil von leseinkompetenten Jugendlichen in der Schweiz ist, jedoch weitergehen.

Literatur

Ambühl, Hans (2016): «Das ist ganz normale, unaufgeregte Systemarbeit.» Doris Fischer und Heinz Weber im Interview mit Hans Ambühl und Vera Husfeldt. In: Bildung Schweiz. Zeitschrift des LCH (161), Heft 2, S. 16-18. Download: https://www.lch.ch/fileadmin/files/documents/BILDUNG_SCHWEIZ/2016/1602.pdf [04.06.2019]

BFS (2006): Lesen und Rechnen im Alltag. Grundkompetenzen von Erwachsenen in der Schweiz. Neuchâtel: Bundesamt für Statistik. Download: https://alice.ch/fileadmin/Dokumente/Grundkompetenzen/8_ALL_Bericht_CH.pdf [04.06.2019]

EDK (2002): Erklärung der EDK zu den Ergebnissen von «PISA 2000». Bern: Schweizerische Konferenz der kantonalen Erziehungsdirektoren. Download: https://edudoc.ch/record/25641/files/Erkl_Pisa_d.pdf [04.06.2019]

EDK (2003): Aktionsplan «PISA-2000»-Folgemassnahmen. Bern: Schweizerische Konferenz der kantonalen Erziehungsdirektoren. Download: https://edudoc.educa.ch/static/web/arbeiten/pisa2000_aktplan_d.pdf [04.06.2019]

EDK (2004): HARMOS. Zielsetzungen und Konzeption. Juni 2004. Bern: Schweizerische Konferenz der kantonalen Erziehungsdirektoren. Download: https://edudoc.educa.ch/static/web/arbeiten/harmos/weissbuch_d.pdf [04.06.2019]

EDK (2011): Die interkantonale Vereinbarung über die Harmonisierung der obligatorischen Schule (HarmoS-Konkordat) vom 14. Juni 2007. Kommentar, Entstehungsgeschichte, Instrumente. Bern: Schweizerische Konferenz der kantonalen Erziehungsdirektoren. Download: https://edudoc.ch/record/96777/files/harmos-konkordat_d.pdf [04.06.2019]

EDK (2012): Teilnahme der Schweiz an PISA 2015. Bericht zu Handen der Plenarversammlung und Beschlussfassung. Bern und Liestal: Schweizerische Konferenz der kantonalen Erziehungsdirektoren. Download: https://edudoc.ch/record/105012/files/PB_pisa_d.pdf [04.06.2019]

EDK (2014): Organisationsreglement über die Durchführung der Überprüfung des Erreichens der Grundkompetenzen vom 8. Mai 2014. Bern: Schweizerische Konferenz der kantonalen Erziehungsdirektoren. Download: https://edudoc.ch/record/113128/files/Organisationsregl_UeGK_d.pdf [04.06.2019]

EDK (2015): Bilanz 2015. Harmonisierung der verfassungsmässigen Eckwerte (Art. 62 Abs. 4 BV) für den Bereich der obligatorischen Schule. Bern: Schweizerische Konferenz der kantonalen Erziehungsdirektoren. Download: https://edudoc.educa.ch/static/web/arbeiten/harmos/bilanz2015_bericht_d.pdf [04.06.2019]

EDK (2019): Überprüfung des Erreichens der Grundkompetenzen. Bericht zu den Erhebungen 2016 und 2017. Bern: Schweizerische Konferenz der kantonalen Erziehungsdirektoren. Download: https://edudoc.ch/record/204069/files/201905_bericht_Erhebungen_ugk_2016_2017_d.pdf [04.06.2019]

Fischbach, Antoine & Sonja Ugen (2018): ÜGK/COFO Mathematics 2016 Audit Report. Commissioned by EDK/CDIP upon the Request of KOSTA HarmoS. Luxembourg: Luxembourg Centre for Educational Testing. Download: https://edudoc.ch/record/204067/files/UeGK_Audit_Report_230218.pdf [04.06.2019]

Klieme, Eckhard, Hermann Avenarius, Werner Blum, Peter Döbrich, Hans Gruber, Manfred Prenzel, Kristina Reiss, Kurt Riquarts, Jürgen Rost, Heinz-Elmar Tenorth & Helmut J. Vollmer (2003): Zur Entwicklung nationaler Bildungsstandards. Eine Expertise. Bonn: Bundesministerium für Bildung und Forschung. Download: https://edudoc.ch/record/33468/files/develop_standards_nat_form_d.pdf [04.06.2019]

Konsortium PISA.ch (2018): PISA 2015. Schülerinnen und Schüler der Schweiz im internationalen Vergleich. Bern: Staatssekretariat für Bildung, Forschung und Innovation und Schweizerische Konferenz der kantonalen Erziehungsdirektoren. Download: https://pisa.educa.ch/sites/default/files/uploads/2018/11/pisa2015_nationaler-bericht_d.pdf [04.06.2019]

Konsortium ÜGK (2019a): Überprüfung der Grundkompetenzen. Nationaler Bericht der ÜGK 2017: Sprachen 8. Schuljahr. Bern und Genf: Schweizerische Konferenz der kantonalen Erziehungsdirektoren und Service de la recherche en éducation. Download: https://edudoc.ch/record/204072/files/UGK_2017_Completo_DE.pdf [04.06.2019]

Konsortium ÜGK (2019b): Überprüfung der Grundkompetenzen. Nationaler Bericht der ÜGK 2016: Mathematik 11. Schuljahr. Bern und Genf: Schweizerische Konferenz der kantonalen Erziehungsdirektoren und Service de la recherche en éducation. Download: https://edudoc.ch/record/204075/files/UGK_2016_Completo_DE.pdf [04.06.2019]

Medienmitteilung vom 24.5.2019: Grundkompetenzen Sprachen und Mathematik: erste schweizweite Erhebungen abgeschlossen. Bern: Schweizerische Konferenz der kantonalen Erziehungsdirektoren. Download: https://edudoc.educa.ch/static/web/aktuell/medienmitt/grundkomp_mm_sprachen_math_d.pdf [04.06.2019]

Ramseier, Erich, Urs Moser, Jean Moreau & Jean-Philippe Antonietti (2008): Schlussbericht der HarmoS-Methodologiegruppe. Bern: Schweizerische Konferenz der kantonalen Erziehungsdirektoren. Download: http://www.lehrplanforschung.ch/wp-content/uploads/2011/06/Methodologie-Schlussbericht-_HarmoS11.pdf [04.06.2019]

Related articles

Der erste Beitrag aus dem Blog von Diane Ravitch: Der Sinn der öffentlichen Schule

John Merrow ist ein US-amerikanischer Rundfunkjournalist, der in den 70er Jahren über Bildungsfragen berichtete. Er war der Ausbildungskorrespondent für das PBS NewsHour-Programm. In einem Beitrag im «Diane Ravitch’s blog» macht er sich Gedanken über den Sinn öffentlicher Schulen. Ein Sinn, der durch vierzig Jahre standardisierter Tests als Maßstab für den Schulerfolg, völlig korrumpiert wurde.

Das ist ein Ober schistreck

Für einmal wagt sich unser Condorcet-Autor, Alain Pichard, in die Elternperspektive. In seinem Büro hängt ein Bild seines Sohnes. Und mit diesem hat es seine Bewandnis. Die Geschichte einer sonderbaren Evaluation!

1 Kommentar

  1. Der gleiche Fehler, nämlich das Verwechseln von Basisstandards und Regelstandards, dürfte auch bei der Festlegung der basalen Kompetenzen, welche Maturandinnen und Maturanden Studierfähigkeit bescheinigen sollen, passiert sein, und zwar wiederum im Fach Mathematik. Sollte es in den kommenden Jahren (vor 2025 ist nicht damit zu rechnen) systematische Untersuchungen geben, sage ich jetzt schon voraus, dass mindestens die Hälfte aller Maturandinnen und Maturanden die basalen Kompetenzen im Fach Mathematik nicht erfüllen werden und somit als studierunfähig zu gelten haben. Das Gremium, welches dann damit betraut werden wird, die Gründe dafür zu eruieren, wird wiederum zum Schluss kommen, dass bei der Festlegung der basalen Kompetenzen das Wünschbare mit dem Machbaren verwechselt wurde, was wiederum damit zusammenhängt, dass der Auftrag, eine solche Festlegung durchzuführen, völlig unterschätzt wurde und wissenschaftlichen Ansprüchen nicht zu genügen vermag.

Schreibe einen Kommentar zu Michael Weiss Antworten abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.