@@ -20,11 +20,13 @@ Bei der Entwicklung wurde in zwei Gruppen vorgegangen. Während sich die eine Gr
**Dozentenansicht**<p>
Der Dozent erhält eine Lampe, welche rot aufleutet, sobal ein Student eine Frage durch das Heben der Hand signalisiert. Bewegt sich der Dozent auf sein Dashboard zu um zu lesen wer eine Frage hat und wo sich diese Person gerade befindet (Online oder Gruppenarbeitsraum) erkennt ein Sensor dass der Dozent die Frage erkannt hat. Daraufhin wird das Lichtsignal wieder auf grün gesetzt und das Dashboard, welches online zur Verfügung steht geupdatet.
Für die Umsetzung wurde zunächst der Raspberry Pi 4 eingerichtet. Es wurde anschließend ein Python Skript (professor_view.py) entwickelt, welches das Daraufzugehen des Dozenten erkennt. Dies wird mittels Ultraschallesensor erreicht, welcher bis zu einem gewissen Schwellenwert erkennt, ob sich eine Person vor dem Display befindet oder nicht. Wird der Professor vor dem Bildschirm erkannt und es gibt eine offene Frage, wird das Dashboard geupdatet, sodass für die Remote Studis erkennbar ist, dass die Notwendigkeit zur Klärung einer Frage erkannt wurde. Durch das Skript werden ebenfalls die Lampen Lampen wieder auf grün gesetzt, sobald der Dozent die Frage auf dem Dashboard erkannt hat.
Für die Umsetzung wurde zunächst der Raspberry Pi 4 eingerichtet. Es wurde anschließend ein Python Skript (professor_view.py) entwickelt, welches das Daraufzugehen des Dozenten erkennt. Dies wird mittels Ultraschallesensor erreicht, welcher bis zu einem gewissen Schwellenwert erkennt, ob sich eine Person vor dem Display befindet oder nicht. Wird der Professor vor dem Bildschirm erkannt und es gibt eine offene Frage, wird das Dashboard geupdatet, sodass für die Remote Studis erkennbar ist, dass die Notwendigkeit zur Klärung einer Frage erkannt wurde. Durch das Skript werden ebenfalls die Lampen wieder auf grün gesetzt, sobald der Dozent die Frage auf dem Dashboard erkannt hat.
Der Raspberry Pi 4 dient ebenfalls für die Darstellung des Dashboards.
Auf der Seite der Studenten wird zwischen Studenten vor Ort in Gruppenarbeitsräumen und Studenten in einer Online Konferenz unterschieden. Der Prototyp kombiniert alle drei Ansichten und ermöglicht eine strukturierte Abarbeitung der offenen Fragen im hybriden Unterricht.
Bei den Studenten Online wird in der Konferenz oder in Online Gruppenarbeitsräumen das Heben der Hand erkannt. Für den vorliegenden Prototypen wurde dies durch einen in der Hand befindlichen QR Code simluliert, welcher durch die Kamera des Laptops des Studenten erkannt und gelesne wird. Aufgrund der im QR Code gespeicherten Informationen wird über einen Webhook ein Eintrag im Dashboard des Dozenten gemacht und die Lichtsignale entsprechend gesteuert.