Prüfungen automatisieren (Assessment 2.0)

Aus Doztag13-Wiki

I can already tell that's gonna be super hefplul.

Hintergrundinfos

Die Lernplattform der HSLU bietet zur Überprüfung des Lernerfolgs viele verschiedene Varianten von online Tests an: Mehrheitlich werden diese zur "Selbsteinschätzung" eingesetzt und - wenn überhaupt - nur anonymisiert ausgewertet. Es sind aber auch Einstellungen möglich, um "unter Prüfungsbedingungen" zu prüfen. Denkbare Szenarien sind etwa Tests (Zitat aus der ILIAS Online-Hilfe) …

  • zur Zertifizierung von Lernerfolg
  • zur Prüfung von Vorwissen als Mittel der Kurssteuerung
  • als Wettbewerbe
  • zur Unterhaltung/Abwechslung (in ansonsten theorielastigen und/oder wenig interaktiven Lernszenarien)
  • zur Selbsteinschätzung
  • zur Wissenserarbeitung (Lehrstoff wird nicht rezipiert, sondern entdeckend erarbeitet)

Bemerkungen

Wo die Problemstellen und Grenzen für solche online Tests liegen wird ein Thema im Workshop sein. Dabei werden wir auch eine Alternative kennenlernen, die beispielsweise eine Modulendprüfung mit mehreren hundert Studierenden ermöglicht und die Korrekturarbeiten teilautomatisiert verarbeiten lässt. Die Thematik zu Qualität der Prüfungsfragen wird aus Zeitgründen leider nur am Rande thematisiert werden; diesbezüglich verweisen wir auf weiterführende Literatur und die statistischen Funktionen von Excel.

Das zweite Thema - der visionäre Diskussionsteil im Workshop - soll offen für weitere Arten der Leitungsnachweise sein und das Spektrum in Richtung "Assessment 2.0" öffnen.

Autor/innen dieses Workshops

Marco Sommer, Dozent, Zentrum für Lernen und Lehren (ZLL)