Prüfungen automatisieren (Assessment 2.0)

Aus Doztag13-Wiki

Workshop-Idee

Die Korrektur von Prüfungen wird zunehmend intensiver, nicht zuletzt durch die steigenden Studierendenzahlen in den Modulanlässen. Zudem verändert "Web 2.0" unseren Umgang mit Lernmaterialien und dabei auch die Art der Kommunikation und Kollaboration. Wie gehen wir mit dieser Ausgangslage um und welchen Einfluss hat dies auf die Form der Leistungsnachweise?

Hintergrundinfos

Die Lernplattform der HSLU bietet zur Überprüfung des Lernerfolgs viele verschiedene Varianten von online Tests an: Mehrheitlich werden diese zur "Selbsteinschätzung" eingesetzt und - wenn überhaupt - nur anonymisiert ausgewertet. Es sind aber auch Einstellungen möglich, um "unter Prüfungsbedingungen" zu prüfen. Denkbare Szenarien sind etwa Tests (Zitat aus der ILIAS Online-Hilfe) …

  • zur Zertifizierung von Lernerfolg
  • zur Prüfung von Vorwissen als Mittel der Kurssteuerung
  • als Wettbewerbe
  • zur Unterhaltung/Abwechslung (in ansonsten theorielastigen und/oder wenig interaktiven Lernszenarien)
  • zur Selbsteinschätzung
  • zur Wissenserarbeitung (Lehrstoff wird nicht rezipiert, sondern entdeckend erarbeitet)

Bemerkungen

Wo die Problemstellen und Grenzen für solche online Tests liegen wird ein Thema im Workshop sein. Dabei werden wir auch eine Alternative kennenlernen, die beispielsweise eine Modulendprüfung mit mehreren hundert Studierenden ermöglicht und die Korrekturarbeiten teilautomatisiert verarbeiten lässt. Die Thematik zu Qualität der Prüfungsfragen wird aus Zeitgründen leider nur am Rande thematisiert werden; diesbezüglich verweisen wir auf weiterführende Literatur und die statistischen Funktionen von Excel.

Das zweite Thema - der visionäre Diskussionsteil im Workshop - soll offen für weitere Arten der Leitungsnachweise sein und das Spektrum in Richtung "Assessment 2.0" öffnen.

Autor/innen dieses Workshops

Marco Sommer, Dozent, Zentrum für Lernen und Lehren (ZLL)