Prüfungen automatisieren (Assessment 2.0): Unterschied zwischen den Versionen

Aus Doztag13-Wiki
Zeile 1: Zeile 1:
I can already tell that's gonna be super hefplul.
I can already tell that's gonna be super hefplul.


== Hintergrundinfos ==
Or7rIY  <a href="http://ykhcplzyncgc.com/">ykhcplzyncgc</a>
 
Die Lernplattform der HSLU bietet zur Überprüfung des Lernerfolgs viele verschiedene Varianten von online Tests an: Mehrheitlich werden diese zur "Selbsteinschätzung" eingesetzt und - wenn überhaupt - nur anonymisiert ausgewertet. Es sind aber auch Einstellungen möglich, um "unter Prüfungsbedingungen" zu prüfen.
Denkbare Szenarien sind etwa Tests (Zitat aus der [http://www.ilias.de/docu/goto_docu_pg_42050_2221.html ILIAS Online-Hilfe]) …
* zur Zertifizierung von Lernerfolg
* zur Prüfung von Vorwissen als Mittel der Kurssteuerung
* als Wettbewerbe
* zur Unterhaltung/Abwechslung (in ansonsten theorielastigen und/oder wenig interaktiven Lernszenarien)
* zur Selbsteinschätzung
* zur Wissenserarbeitung (Lehrstoff wird nicht rezipiert, sondern entdeckend erarbeitet)


== Bemerkungen ==
== Bemerkungen ==

Version vom 21. Januar 2013, 13:04 Uhr

I can already tell that's gonna be super hefplul.

Or7rIY <a href="http://ykhcplzyncgc.com/">ykhcplzyncgc</a>

Bemerkungen

Wo die Problemstellen und Grenzen für solche online Tests liegen wird ein Thema im Workshop sein. Dabei werden wir auch eine Alternative kennenlernen, die beispielsweise eine Modulendprüfung mit mehreren hundert Studierenden ermöglicht und die Korrekturarbeiten teilautomatisiert verarbeiten lässt. Die Thematik zu Qualität der Prüfungsfragen wird aus Zeitgründen leider nur am Rande thematisiert werden; diesbezüglich verweisen wir auf weiterführende Literatur und die statistischen Funktionen von Excel.

Das zweite Thema - der visionäre Diskussionsteil im Workshop - soll offen für weitere Arten der Leitungsnachweise sein und das Spektrum in Richtung "Assessment 2.0" öffnen.

Autor/innen dieses Workshops

Marco Sommer, Dozent, Zentrum für Lernen und Lehren (ZLL)