E-Learning

Aus THM-Wiki
Wechseln zu: Navigation, Suche
Kurs
Kursname E-Learning (SM2500)
Kurstyp Online-Projektkurs
Dozent Prof. Dr.Klaus Quibeldey-Cirkel
Semester SoSe 2020
Studiengang Social Media Systems


Kursbeschreibung

Das Bachelor-Modul E-Learning (SM2500) im Studiengang Social Media Systems führt in die lernpsychologischen, didaktischen und technischen Grundlagen medialer Lehr- und Lernumgebungen ein. Es vermittelt das Wissen und die Kompetenz, um Selbstlernmedien zu gestalten, mobile Lerneinheiten zu entwickeln und Lehr-/Lerntools zu evaluieren.

Kursorganisation

Wegen der Corona-Pandemie und weil das Modul dafür prädestiniert ist (nomen est omen), findet der Kurs E-Learning ausschließlich im Web statt. Als Kommunikations- und Kollaborations-Tools dienen das Webkonferenzsystem "BigBlueButton" (BBB) und dieses Wiki. Die Koordination erfolgt im Kursraum und in den Kursforen der Projektgruppen auf der Lernplattform Moodle.

Kurs-Links

BBB-Webinare

BigBlueButton™ (BBB) ist ein Open-Source-Webkonferenzsystem, mit dem virtuelle Konferenz- oder Klassenräume erstellt werden können. Jede Projektgruppe kann eigene BBB-Räume einrichten und für die Online-Kollaboration frei nutzen.

Die BBB-Features für die Online-Kollaboration sind:

  • Audio- und Videochats,
  • einen öffentlichen Textchat zwischen allen,
  • private Textchats zwischen einzelnen Konferenzteilnehmenden,
  • gemeinsame Notizen, die von den Konferenzteilnehmenden kollaborativ verfasst werden können,
  • die Freigabe von Präsentationen und anderen Dokumenten,
  • einfache Umfragewerkzeuge,
  • ein gemeinsames Whiteboard und
  • Bildschirmfreigabe für einzelne Konferenzteilnehmenden.

Während des Semesters finden wöchentliche Webinare statt:

  • donnerstags im 2. Block: Plenum
  • mittwochs im 5. Block: Projektgruppen
  • Jour fixe vereinbart in den Projektgruppen

Projektgruppen

Die Projektgruppen haben dedizierte Aufträge und sind wie folgt nummeriert:

  1. UX-Evaluation zweier Lernkartei-Plattformen mit Leitner-System: Quizlet vs. arsnova.cards
  2. UX-Evaluation zweier gamifizierter Quiz-Apps: Kahoot! vs. arsnova.click
  3. UX-Evaluation zweier Audience-Response-Systeme mit digitalem Front Channel: Pingo vs. ARSnova
  4. UX-Evaluation zweier Audience-Response-Systeme mit digitalem Back Channel: Slido vs. frag.jetzt

(Einteilung der Audience-Response-Systeme in Front- und Back-Channel-Systeme nach Martin Ebner)

Projektauftrag

UX-Evaluation von Lehr-/Lerntools

Die Projektgruppen sollen eigenständig webbasierte Lehr-/Lerntools kennenlernen und praktisch erproben, How-To-Videos zu den Use Cases der Tools erstellen und mit drei Testpersonen (jeweils eine Person aus den anderen drei Gruppen) die Tools mithilfe der UX-Testmethode "Lautes Denken" evaluieren. Dabei ist ein kommerzielles Produkt mit einem Open-Source-Produkt des Fachbereichs MNI hinsichtlich Usability und User Experience zu vergleichen.

Zusätzlich werden die Testpersonen mit dem drei standardisierten Fragebögen AttrakDiff, VisAWI und UEQ zur Usability & User Experience der Tools befragt, siehe die Webinar-Aufzeichnung. Die Ergebnisse sollen für die Weiterentwicklung der Open-Source-Tools als Issues im THM-GitLab aufbereitet werden.

UX-Testmethode: "Lautes Denken"

Die Methode Lautes Denken ist ein nutzerbasiertes Verfahren. Hierbei werden die Testpersonen gebeten, ihre Gedanken bei der Bewältigung der vorgegebenen Aufgaben zu verbalisieren. Durch Offenlegung von Gefühlen und Absichten der Testpersonen, können deren kognitiven Prozesse sichtbar gemacht werden. So bietet sich für den Beobachter die Möglichkeit, Rückschlüsse auf die Ursachen von Bedienproblemen zu ziehen.

Während der Durchführung muss die Testperson zunächst eine Einweisung in die Methode erhalten und sie in einem Probelauf ausprobieren. Während des eigentlichen Tests muss dann der Moderator oder die Moderatorin darauf achten, dass die Testperson ihre Gedanken fortwährend verbalisiert und sie gegebenenfalls daran erinnern. Auch Nachfragen durch die Moderatorin oder den Moderator sind möglich.

Hinweise für die Optimierung der Nutzungsqualität können identifiziert werden, insbesondere hinsichtlich Effizienz und Zufriedenstellung in Bezug auf eine intuitive Bedienbarkeit. Die Methode kann ohne zusätzlichen Aufwand während eines Usability-Tests angewandt werden. Im Gegensatz zu einer Befragung, kann die Testperson nicht über ihre Aussagen nachdenken, so erhält man unverfälschte und direkte Einblicke.

Als Grundlage und für die Verfahrensschritte wird das Dokument Die Methode "Lautes Denken" von Uwe Frommann verwendet. Der Autor bezieht sich zwar auf die Evaluation einer digitalen Lerneinheit, die einzelnen Schritte können aber problemlos auf die Evaluation von Lehr-/Lerntools angewandt werden.

Benotung

Die Gruppenleistung setzt sich aus folgenden Teilleistungen der Gruppe zusammen (in Klammern die Gewichtung):

  • Vorstellung der Use Cases der beiden Lehr-/Lerntools in Form eines Webinars (20 %)
  • How-To-Videos zu den beiden Tools (je 20 %)
  • Testbericht im THM-Wiki über die UX-Evaluation mit drei Testpersonen (20 %)
  • Abschluss-Webinar zum Projektauftrag (20 %)

Als Einzelleistung sind folgende Karteien, gebündelt in einem Repetitorium, auf THM.cards zu erstellen:

  1. eine Lernkartei zu einem komplexen Kernthema des gewählten SMS-Moduls mit mindestens fünf Lernkarten
  2. ein Glossar mit mindesten zwanzig Fachbegriffen zu allen Lerninhalten des Moduls laut Modulbeschreibung
  3. eine Quizkartei mit mindestens zehn MC-Fragen mit je vier Antwortoptionen zu allen Lerninhalten des Moduls laut Modulbeschreibung
  4. eine Prüfungskartei mit mindestens zehn Prüfungsfragen (offene Fragen) zu allen Lerninhalten des Moduls laut Modulbeschreibung

Die Einzelleistung wird anhand der Qualität des Repetitoriums bewertet (in Klammern die Gewichtung):

  • Formale Korrektheit der Karten: Rechtschreibung, Interpunktion, Grammatik und Stil (20 %)
  • Inhaltliche Korrektheit der Karten (20 %)
  • Mediale Aufmachung des Repetitoriums auf THM.cards in Anlehnung an die Modulbeschreibung (10 %)
  • Mediale Gestaltung und Formatierung der Karten (10 %)
  • Verständlichkeit und Lernförderlichkeit des Repetitoriums (20 %)
  • Relevanz und Eignung der Lernkartei als Vorbereitung auf das gewählte Kernthema für die Modulprüfung (10 %)
  • Relevanz und Eignung des Glossars, der Quiz- und Prüfungskarteien als Vorbereitung auf die Modulprüfung (10 %)


In der Summe geht die Gruppenleistung mit 60 % und die Einzelleistung mit 40 % in die Kursnote ein.

Zusätzlich können bis zu 10 Bonusprozentpunkte erworben werden. Die Bonusaufgabe ist die UX-Evaluation der Online-Kurse von LinkedIn vs. Linux.cards zur Vorbereitung auf die Linux-Zertifizierung LPIC-1.

Projektdokumentation

Projektplanung der Gruppen

Projektgruppe 1 Projektgruppe 2 Projektgruppe 3 Projektgruppe 4
Kanban-Board Kanban-Board Kanban-Board Kanban-Board

Artefakte der Projektgruppen

Projektgruppe 1 Projektgruppe 2 Projektgruppe 3 Projektgruppe 4
Tool-Webinar "Quizlet vs. arsnova.cards" Tool-Webinar "Kahoot! vs. arsnova.click" Tool-Webinar "Pingo vs. ARSnova" Tool-Webinar "Slido vs. frag.jetzt"
Link zum How-To-Video über Quizlet Link zum How-To-Video über Kahoot! Link zum How-To-Video über Pingo Link zum How-To-Video über Slido
Link zum How-To-Video über arsnova.cards Link zum How-To-Video über arsnova.click Link zum How-To-Video über ARSnova Link zum How-To-Video über frag.jetzt
Testbericht Testbericht Testbericht Testbericht
Link zum Abschluss-Webinar Link zum Abschluss-Webinar Link zum Abschluss-Webinar Link zum Abschluss-Webinar

Gliederung des Testberichts

Die Gliederung des Testberichts soll in Anlehnung an den Artikel von Uwe Frommann: Die Methode "Lautes Denken" erfolgen. Zusätzlich werden die Online-Befragungen mit aufgenommen und Usability Tweaks für das Open-Source-Tool empfohlen.

Hinweis: Gehen Sie auf "Bearbeiten" und kopieren Sie den Quelltest auf Ihre Wikiseite.


Management Summary

  1. Einleitung: Die Methode "Lautes Denken"
  2. Ablauf
  3. Durchführung
    1. Einstieg
    2. Beobachtung
    3. Anschlussbefragung
      1. Zum Design
      2. Zur Bedienung
      3. Zur Verständlichkeit
    4. Auswertung
  4. Online-Befragung mit AttrakDiff und VisAWI
    1. Durchführung
    2. Diagramme
    3. Auswertung

  5. Gewonnene Erkenntnisse
    1. Usability Tweaks
    2. Tool-Empfehlung

Literatur

Glossar


Termine

Datum Aufgabe / Thema
23. April, 2. Block Plenum-Webinar "Orga & Einführung"
29. April, 5. Block Plenum-Webinar "Gruppenbildung"
30. April, 2. Block Plenum-Webinar "E-Kollaboration"
6. Mai, 5. Block Plenum-Webinar "THM.cards"
7. Mai, 2. Block Plenum-Webinar "Webinare mit BBB"
14. Mai, 2. Block Plenum-Webinar "UI/UX-Fragebögen"
19. Mai, 5. Block Tool-Webinar Gruppe 1
20. Mai, 5. Block Tool-Webinar Gruppe 2
26. Mai, 5. Block Tool-Webinar Gruppe 3
27. Mai, 5. Block Tool-Webinar Gruppe 4
28. Mai, 2. Block Plenum-Webinar "Screencasting mit OBS Studio & OpenShot Video Recorder"
18. Juni, 2. Block Plenum-Webinar: "Unterweisung der Probanden" (Vorführung der How-To-Videos in Break-out-Räumen)
25. Juni, 2. Block Plenum-Webinar: "Constructive Alignment", Evaluation
KW26 - KW27 UX-Evaluationen in den Gruppen
7. Juli Testberichte im Wiki
8. Juli, 5. Block Abschluss-Webinar zum Projektauftrag der Gruppe 1
9. Juli, 2. Block Abschluss-Webinar zum Projektauftrag der Gruppe 2
15. Juli, 5. Block Abschluss-Webinar zum Projektauftrag der Gruppe 3
16. Juli, 2. Block Abschluss-Webinar zum Projektauftrag der Gruppe 4 und Bonus-Quiz
20. September Abgabe der Modul-Repetitorien (Einzelleistung) und der Bonusaufgabe

Kursliteratur

  • Biggs, J.; Tang, C.: Teaching for Quality Learning at University. McGraw-Hill and Open University Press