[ HoPo-WWW ]

Evaluation


Zwei Argumente, warum eine Evaluation aus Sicht der Wettbewerb-BefürworterInnen nötig ist, sind bereits dargestellt. Erstens: Für eine leistungsbezogene Mittelvergabe nutzen alle Parameter wenig, wenn die entsprechende Datengrundlage fehlt. In den Lehrberichten sehen die Ministerien wohl nicht zuletzt deshalb gerne Zahlen und Statistiken. Die HRG-Begründung nennt das Motiv ganz offen: Die Ergebnisse der Lehrevaluation solle Grundlagen schaffen für die "staatliche Hochschulfinanzierung und hochschulinterne Mittelverteilung nach erfolgsorientierten Kriterien".

Zweitens ist Transparenz Voraussetzung für einen funktionierenden Wettbewerb: "Leistungstransparenz bringt den Wettbewerb um Reputation in Gang. Und der Wettbewerb um Reputation zieht andere Formen des Wettbewerbs nach sich", erklärt der Wissenschaftsrat. Die MarktteilnehmerInnen können sich nur dann rational entscheiden, wenn ihnen die nötigen Informationen vorliegen – weiß die Schülerin nicht, daß die Politikwissenschaft in Marburg die beste weit und breit ist, schreibt sie sich im heimischen Bamberg ein – und bekommt später entgegen jeder Vernunft vielleicht einen Job. Genau so etwas will der Wissenschaftsrat verhindern: "Bei den Studenten muß das Interesse, an einem möglichst guten und angesehenen Fachbereich zu studieren, bestimmendes Motiv bei der Wahl der Hochschule sein. Dies wird insbesondere dann der Fall sein, wenn der Arbeitsmarkt das Studium an solchen Fachbereichen honoriert. Studenten und Arbeitsmarkt können sich so nur verhalten, wenn im Hochschulbereich ein hohes Maß an Leistungstransparenz gegeben ist." Ranking-Listen als Ergebnis der Evaluation machen schwarz auf weiß klar, der Gedanke, alle Hochschulen böten die gleiche Qualität, ist eine "noch immer [...] von der Zentralstelle für die Vergabe von Studienplätzen (ZVS) genährte Illusion" (Müller-Böling). Evaluation fördert also die Profilbildung. Diese Bewußtseinsarbeit ist aus der Perspektive der MarktbefürworterInnen dringend nötig: Noch immer schreiben sich 70 Prozent der Studierenden in einer Hochschule im Umkreis von hundert Kilometer von ihren Elternhaus entfernt ein.

Das Hochschulrahmengesetz verspricht sich von der Evaluation der Lehre zwei weitere Dinge: Qualitätssicherung und die "Fortentwicklung von Inhalten und Formen der Lehre im Rahmen der Studienreform". Dazu ist eine fundierte Selbstvergewisserung der Hochschulen notwendig über den Standard in Lehre, Forschung und Management. HochschullehrerInnen und StudentInnen, Hochschulen und Regierungen müssen im Gespräch miteinander über Verbesserungen nachdenken – was keineswegs selbstverständlich ist: Jahrelang hätten sich ProfessorInnen weder untereinander noch mit StudentInnen über Studium und Lehre unterhalten, berichtet beispielsweise der Hamburger Literaturwissenschaftler Eberhard Lämmert ("Bei Evaluationen kommen..."). Mancherorts versuchen Runde Tische, diese Aufgabe zu übernehmen.

Eine Evaluation in diesem Sinne scheint in der Tat eine geeignete Grundlage zu sein, um nötige Veränderungen zu erkennen. Voraussetzung dafür ist, daß diese Bestandsaufnahme und Debatte ehrlich geführt wird. Genau das aber ist fraglich, wenn den Beteiligten bewußt ist, daß allzu kritische Töne möglicherweise negative Folgen für sie haben werden – das verführt zu einem strategischen Verhalten. (So geben StudentInnen, die von Meinungsforschungsinstituten für Rankings in Illustrierten über die Lage am eigenen Fachbereich befragt werden, hinter vorgehaltener Hand immer öfter zu, die Situation besser darzustellen als sie ist - in der Hoffnung, ein guter Platz in der Liste werde sich mit zusätzlichen Mitteln für den Fachbereich auszahlen.) Denn es ist kein Geheimnis mehr, daß diese Ergebnisse veröffentlicht werden sollen und von ihnen die Mittelverteilung abhängen kann.

Wolff-Dietrich Webler, der an der Universität Bielefeld 1992 in einem vom damaligen Bundesministerium für Bildung und Wissenschaft geförderten Drittmittelprojekt die "Entwicklung und Erprobung von konsensfähigen Parametern für die Selbstevaluation von Fachbereichen" als Grundlage für Lehrberichte erforscht hat, sieht die Furcht vor einem schlechten Image ebenfalls. Sein Vorschlag: Die Kernergebnisse sollten dennoch bekannt gemacht werden, eine umfassende Veröffentlichung dann beim zweiten Bericht die Regel sein – nach der "erstmaligen Aufklärung der Situation und entsprechender Gelegenheit, 'das eigene Haus in Ordnung zu bringen'". Hätte die Evaluation tatsächlich zur Folge, daß die wesentlichen Probleme der Fachbereiche in einem Jahr gelöst sind – sie wäre ein Erfolg. Doch diese Perspektive scheint ein wenig zu optimistisch.

Eine weitere Funktion der Evaluation im neuen Steuerungskonzept nennt die Hessische Hochschulstrukturkommission: Die Steuerungseffekte, die sich mit der leistungsbezogenen Mittelvergabe ergeben, müßten ständig beobachtet werden: "Die stärkere Akzentuierung von Wettbewerb als Steuerungsprinzip im Hochschulsystem ist ohne die Koppelung an evaluative Verfahren nicht verantwortbar." Die Evaluation soll mögliche Fehlsteuerungen erkennen.

Wie bei den Globalhaushalten und der leistungsbezogenen Mittelvergabe gab es auf Länderebene schon vor der HRG-Novelle eine "umfassende Erprobung" der Evaluation, wie Wolff-Dietrich Webler zusammengetragen hat. In Hessen forderte noch während der Erprobung des Lehrbericht-Instrumentariums an universitären Fachbereichen (Sozialwesen, Architektur sowie Stadt- und Landschaftsplanung an der Gesamthochschule Kassel) die Landesrektorenkonferenz der Fachhochschulen entsprechende Versuche. Das Hessische Ministerium für Wissenschaft und Kunst finanzierte darauf hin Projekte an fünf Fachbereichen (Gießen-Friedberg: Elektrotechnik I und Technisches Gesundheitswesen; Wiesbaden: Weinbau- und Getränketechnik; Frankfurt a.M.: Bauingenieurwesen; Darmstadt: Information und Dokumentation - WEBLER). In Niedersachsen wurde gar eine Zentrale Evaluationsagentur (Zeva) gegründet, die die landesweite Evaluation der Studiengänge koordiniert.

Evaluation ist, wie dargestellt, oft mehr als populäre und oft Rankings. Dennoch passen auch diese Tabellen ins bildungspolitische Konzept: "Vielfältige Initiativen sind erwünscht", rief der Wissenschaftsrat. Insbesondere die Fachöffentlichkeit und Fachzeitschriften seien gefragt. "Aber auch die Wissenschaftsreferate der Presse und anderer Medien können dabei eine wichtige Rolle spielen." Daß die Methoden, die zu solchen Listen führen, oft fragwürdig sind, wird in Kauf genommen – wichtig ist zunächst, daß es sie überhaupt gibt. Zeigen sie doch anschaulich, daß die Hochschulen in Deutschland (angeblich) nicht mehr wie bislang ein relativ einheitliches Niveau aufweisen. Und noch wichtiger: Ob fundiert oder nicht, StudienanfängerInnen beginnen, die Wahl der Hochschule von solchen Tabellen abhängig zu machen, wie Erfahrungen an der Marburger Philipps-Universität mit einem Ranking der Illustrierten Focus zeigen. (Nach dem ersten Platz im Ranking stieg die Zahl der ErstsemesterInnen am Fachbereich Geschichte deutlich, berichteten FachschafterInnen.)

Angesichts der konstitutiven Bedeutung von Transparenz für den Wettbewerb sei es folgerichtig, "die Initiative zu ergreifen und einen Anfang zu machen", forderte der Wissenschaftsrat 1985. "Umstrittene Beurteilungen und Einstufungen werden zu einer Diskussion führen, die zu einer Korrektur im Einzelfall führen kann und zu einer Verbesserung der Methoden führen sollte. Wichtig ist, daß einzelne Hochschulen mit der Herstellung von Transparenz beginnen. Je weiter der Prozeß fortschreitet, um so nachdrücklicher wird der Anreiz sein, sich nicht auszuschließen" – mit anderen Worten: Hauptsache erst mal machen.

Daß im übrigen die Evaluation und eine an ihre Ergebnisse gekoppelte Mittelvergabe zu einer inhaltlichen, horizontalen Vielfalt führt, ist nicht ausgemacht. Der Flensburger Bildungsökonome Harry Maier gibt zu bedenken: "Anstatt einer Vielfalt von Lehrmeinungen gäbe es eine Uniformierung des Studiums, keine Suche nach Neuem wäre zu erwarten, sondern Anpassung an die Evaluierungskriterien, und anstelle neue Wege zu gehen, blühte eine bürokratische Berichterstattung auf." Berichte über eine Leistung würden wichtiger als die Leistung selbst. "Daher ist fraglich, ob eine solche überregionale Evaluierung überhaupt für das Bildungsmanagement hilfreich sein kann."

Torsten Bultmann spitzt das zu: Der Druck richte sich besonders gegen alternative Reformstudiengänge, die mit dem plausiblen Argument zur Disposition gestellt würden, solchermaßen akademisch Qualifizierte seien gegenüber denen der etablierten, effizienztechnisch erfolgreichen Fachbereichen nicht konkurrenzfähig. "Damit werden zugleich potentielle Quellen sozialökologisch orientierter Wissenschaftsentwicklungen zugeschüttet. Schärfer formuliert: Die Möglichkeiten ökologisch verantwortlicher Wissenschaft und der Grad einer hochschulinternen Durchsetzung von Marktelementen verhalten sich umgekehrt proportional zueinander."

Die Evaluation soll auch die Forschung einbeziehen. Mit der gutachtenbasierten Vergabe von Drittmitteln gibt es dort bereits Kriterien und Anreizmechanismen, so daß dieser Aspekt in der aktuellen Diskussion wenig Raum einnimmt.


Lesetips

Weiter: Stärkung der Hochschulleitungen
Michael Bayer, 27. Mai 2001