E-Learning

Aus THM-Wiki
Wechseln zu: Navigation, Suche
Kurs
Kursname E-Learning (SM2500)
Kurstyp Online-Projektkurs
Dozent Prof. Dr.Klaus Quibeldey-Cirkel
Semester SoSe 2021
Studiengang Social Media Systems


Kursbeschreibung

Das Bachelor-Modul E-Learning (SM2500) im Studiengang Social Media Systems führt in die lernpsychologischen, didaktischen und technischen Grundlagen medialer Lehr- und Lernumgebungen ein. Es vermittelt das Wissen und die Kompetenz, um Selbstlernmedien zu gestalten, mobile Lerneinheiten zu entwickeln und Lehr-/Lerntools zu evaluieren.

Kursorganisation

Wegen der Corona-Pandemie und weil das Modul dafür prädestiniert ist (nomen est omen), findet der Kurs E-Learning ausschließlich im Web statt. Als Kommunikations- und Kollaborations-Tools dienen das Webkonferenzsystem "BigBlueButton" (BBB) und dieses Wiki. Die Koordination erfolgt im Kursraum und in den Kursforen der Projektgruppen auf der Lernplattform Moodle.

Kurs-Links

BBB-Seminare

BigBlueButton™ (BBB) ist ein Open-Source-Webkonferenzsystem, mit dem virtuelle Konferenz- oder Klassenräume erstellt werden können. Jede Projektgruppe kann eigene BBB-Räume einrichten und für die Online-Kollaboration frei nutzen.

Die BBB-Features für die Online-Kollaboration sind:

  • Audio- und Videochats,
  • einen öffentlichen Textchat zwischen allen,
  • private Textchats zwischen einzelnen Konferenzteilnehmenden,
  • gemeinsame Notizen, die von den Konferenzteilnehmenden kollaborativ verfasst werden können,
  • die Freigabe von Präsentationen und anderen Dokumenten,
  • einfache Umfragewerkzeuge,
  • ein gemeinsames Whiteboard und
  • Bildschirmfreigabe für einzelne Konferenzteilnehmenden.

Projektgruppen

Die Projektgruppen haben dedizierte Aufträge und sind wie folgt nummeriert:

  1. UX-Evaluation zweier Lernkartei-Plattformen mit Leitner-System: Anki vs. arsnova.cards
  2. UX-Evaluation zweier gamifizierter Quiz-Apps: Socrative! vs. arsnova.click
  3. UX-Evaluation zweier Audience-Response-Systeme mit Front Channel: Tweedback vs. ARSnova
  4. UX-Evaluation zweier Audience-Response-Systeme mit Back Channel: Slido vs. frag.jetzt

(Einteilung der Audience-Response-Systeme in Front- und Back-Channel-Systeme nach Martin Ebner)

Projektauftrag

UX-Evaluation von frag.jetzt

Die Projektgruppen sollen eigenständig webbasierte Lehr-/Lerntools kennenlernen, praktisch erproben und mit drei kursfremden Testpersonen frag.jetzt mithilfe der UX-Testmethode "Lautes Denken" evaluieren.

Zusätzlich werden die Testpersonen mit dem drei standardisierten Fragebögen AttrakDiff, VisAWI und UEQ zur Usability & User Experience der Tools befragt. Die Ergebnisse sollen für die Weiterentwicklung des Open-Source-Tools als Issues im THM-GitLab aufbereitet werden.

UX-Testmethode: "Lautes Denken"

Die Methode Lautes Denken ist ein nutzerbasiertes Verfahren. Hierbei werden die Testpersonen gebeten, ihre Gedanken bei der Bewältigung der vorgegebenen Aufgaben zu verbalisieren. Durch Offenlegung von Gefühlen und Absichten der Testpersonen, können deren kognitiven Prozesse sichtbar gemacht werden. So bietet sich für den Beobachter die Möglichkeit, Rückschlüsse auf die Ursachen von Bedienproblemen zu ziehen.

Während der Durchführung muss die Testperson zunächst eine Einweisung in die Methode erhalten und sie in einem Probelauf ausprobieren. Während des eigentlichen Tests muss dann der Moderator oder die Moderatorin darauf achten, dass die Testperson ihre Gedanken fortwährend verbalisiert und sie gegebenenfalls daran erinnern. Auch Nachfragen durch die Moderatorin oder den Moderator sind möglich.

Hinweise für die Optimierung der Nutzungsqualität können identifiziert werden, insbesondere hinsichtlich Effizienz und Zufriedenstellung in Bezug auf eine intuitive Bedienbarkeit. Die Methode kann ohne zusätzlichen Aufwand während eines Usability-Tests angewandt werden. Im Gegensatz zu einer Befragung, kann die Testperson nicht über ihre Aussagen nachdenken, so erhält man unverfälschte und direkte Einblicke.

Als Grundlage und für die Verfahrensschritte wird das Dokument Die Methode "Lautes Denken" von Uwe Frommann verwendet. Der Autor bezieht sich zwar auf die Evaluation einer digitalen Lerneinheit, die einzelnen Schritte können aber problemlos auf die Evaluation von Lehr-/Lerntools angewandt werden.

Benotung

Die Gruppenleistung setzt sich aus folgenden Teilleistungen der Gruppe zusammen (in Klammern die Gewichtung):

  • Vorstellung der Use Cases der beiden Lehr-/Lerntools in Form eines Online-Seminars, organisiert in einem Moodle-Kurs (50 %)
  • Testbericht als PDF über die UX-Evaluation von frag.jetzt (50 %)

Einzelleistung: SMS-Repetitorium auf THM.cards

  • eine Lernkartei zu einem Kernthema des gewählten SMS-Moduls mit mindestens drei Lernkarten
  • ein Glossar mit mindesten zehn Fachbegriffen zu den Lerninhalten des Moduls laut Modulbeschreibung
  • eine MC-Quiz-Kartei mit mindestens zehn MC-Fragen mit je vier Antwortoptionen zu den Lerninhalten des Moduls laut Modulbeschreibung

Die Einzelleistung wird anhand der Qualität des Repetitoriums bewertet (in Klammern die Gewichtung):

  • Formale Korrektheit der Karten: Rechtschreibung, Interpunktion, Grammatik und Stil (20 %)
  • Mediale Aufmachung des Repetitoriums auf THM.cards in Anlehnung an die Modulbeschreibung (30 %)
  • Mediale Gestaltung und Formatierung der Karten (30 %)
  • Verständlichkeit und Lernförderlichkeit des Repetitoriums (20 %)

In der Summe geht die Gruppenleistungen mit 60 % und die Einzelleistung mit 40 % in die Kursnote ein.

Zusätzlich können bis zu 10 Bonusprozentpunkte in einem Online-Abschlusstest erworben werden.

Projektdokumentation

Gliederung des Testberichts

Die Gliederung des Testberichts soll in Anlehnung an den Artikel von Uwe Frommann: Die Methode "Lautes Denken" erfolgen. Zusätzlich werden die Online-Befragungen mit aufgenommen und Usability Tweaks für das Open-Source-Tool empfohlen.


Management Summary

  1. Einleitung: Die Methode "Lautes Denken"
  2. Ablauf
  3. Durchführung
    1. Einstieg
    2. Beobachtung
    3. Anschlussbefragung
      1. Zum Design
      2. Zur Bedienung
      3. Zur Verständlichkeit
    4. Auswertung
  4. Online-Befragung mit AttrakDiff, VisAWI und UEQ
    1. Durchführung
    2. Diagramme
    3. Auswertung

  5. Gewonnene Erkenntnisse
    1. Usability Tweaks
    2. Tool-Empfehlung

Literatur

Glossar


Termine

Datum Aufgabe / Thema
9. April, 3. Block Plenum: "Orga & Einführung"
16. April, 3. Block Plenum: "Gruppenbildung & E-Kollaboration"
23. April, 3. Block Plenum: "Moodle & BigBlueButton"
30. April, 4. Block Plenum: "Constructive Alignment nach Biggs & Lernziel-Taxonomie nach Bloom"
7. Mai, 3. Block Plenum: "Erstellen von Lernkarteien auf THM.cards"
14. Mai, 3. Block Plenum: "Konzeption der Tool-Seminare in BBB"
21. Mai, 3. Block Tool-Seminar Gruppe A: Anki vs. arsnova.cards
21. Mai, 4. Block Tool-Seminar Gruppe B: Socrative vs. arsnova.click
28. Mai, 3. Block Tool-Seminar Gruppe C: Tweedback vs. ARSnova
28. Mai, 4. Block Tool-Seminar Gruppe D: Slido vs. frag.jetzt
11. Juni, 3. Block Plenum: "Screencasting mit OBS Studio & OpenShot Video Recorder" & UML-Aktivitätsdiagramm "Bonus-Option in frag.jetzt" für das How-To-Video der Einzelaufgabe
18. Juni, 3. Block Plenum: "UI/UX-Fragebögen"
25. Juni, 3. Block Bonus-Abschlusstest
KW26 - KW27 UX-Evaluationen in den Gruppen
31. Juli Testberichte mit verlinkten Aufzeichnungen im Wiki (Gruppenleistung)
31. August Abgabe der Modul-Repetitorien und How-to-Videos (Einzelleistung), Ende der Bonus-Lernphase

Kursliteratur

  • Biggs, J.; Tang, C.: Teaching for Quality Learning at University. McGraw-Hill and Open University Press