
ALS
Ambient Learning Spaces
Sitemap
ALS-Lernapplikationen
Aktuell integrierte ALS-Lernanwendungen
Die InteractiveWall (IW) stellt Kindern, Jugendlichen und Erwachsenen einen neuen Ort für soziale Kooperation, spielerisches, exploratives und inzidentelles Lernen zur Verfügung. Die Hypermedia-Plattform ermöglicht mit neuartigen Schnittstellen (Multitouch-Bildschirmen) eine Lernumgebung für den kontextualisierten, personalisierten, semantisch reichhaltigen und gerätespezifischen Zugriff auf Multimediaobjekte und der Interaktion mit diesen.
Die Einstellungen und die Verwaltung wie auch das Hochladen von Inhalten für alle Applikationen erfolgen über die webbasierte Schnittstelle ALS-Portal, die über einen Browser erreichbar ist.
TextToPreventDrupalStrip Video der IW am Carl-Jacob-Burckardt-Gymnasium (von 2013).
Die MediaGallery ist eine Software, die eine übersichtliche und einfache Verwaltung und Präsentation von Videos und Bildern, insbesondere im Kontext der InteractiveWall, ermöglicht. Die Menge der in einer Mediengalerie enthaltenen Medien kann statischer oder über Tagging auch dynamischer Natur sein.
TimeLine ermöglicht das Erstellen eines horizontal verlaufenden Zeitstrahls, in dem vertikal übereinander mehrere Bereiche angezeigt werden können. Die Medien (Fotos, Sound und Videos) werden entweder aus der semantisch annotierten ALS-Datenbank entnommen, oder aber aus anderen semantisch strukturierten Datenbanken, die mit der TimeLine verbunden sind.
Neue Inhalte können über das ALS-Portal in die ALS-Datenbank eingegeben werden. Jede Zeitleiste kann benannt und ihr beliebig viele Ereignisse zugeordnet werden. Einem Ereignis wird ein passender Name, eine Beschreibung, einige Tags, sowie ein Datum oder ein Zeitraum zugewiesen. Das Framework NEMO verknüpft dieses Ereignis mit entsprechenden Medien.
SemCor dient der interaktiven Visualisierung und spielerischen Erkundung von Informationen im Semantic Web. In einem sich selbst erweiternden Force-Directed-Graphen können verschiedene Themengebiete selbstständig erkundet werden. Informationspunkte werden als Knoten und ihre Korrelation als Kanten dargestellt. Die Informationen und Medien können aus der semantisch annotierten ALS-Datenbank oder aber aus anderen semantisch strukturierten Datenbanken entnommen werden. Beispielhaft wurde dies mit der Nutzung der DBpedia umgesetzt.
HyperVid ist ein webbasiertes Hyper-Media-System, mit dem selbst erstellte Videofragmente zu einem Video in Hyperstruktur verlinkt werden können. Die erstellten Hyper-Videos können anschließend web-basiert betrachtet werden.HyperVid fördert vernetztes Denken, multiple Perspektiven (alternative Wahrnehmungen) und unterstützt gemeinsames Lernen mit zeitbasierten Multimedien.
InteractiveTable (ITable) ist eine Applikation zur Erstellung von interaktiven Präsentationen oder Lernspielen auf Multitouch-Tischen. InteractiveTable Mitz InteractiveTable können Objekte (Fiducials) erkannt werden. Um sehr einfach beliebige Inhalte mit unterschiedlichen Medien mittels Fiducials auf einem Multitouch-Tisch anzeigen zu lassen, wurde im Rahmen von ALS für InteractiveTable die Applikation ObjectRecognizer entwickelt.
ObjectRecognizer ermöglicht physische Objekte, die auf einen Multitouch-Tisch gestellt werden, einzuscannen. Werden diese Objekte anschließend wieder auf den Multitouch-Tisch gestellt, so werden diese wiedererkannt und Medien, die dem Objekt zuvor zugeordnet wurden, können interaktiv auf dem Multitouch-Tisch präsentiert werden.
Ein Fiducial (hier ein hölzerner Elch) wird auf dem Multitouch-Tisch erkannt. Um ihn herum bilden sich diverse Interaktionsmöglichkeiten.
MoLES (Mobile Learning Exploration System) ist eine internet-basierte Lernumgebung, die das Lernen an außerschulischen Lernorten unterstützt. Mit MoLES können am webbasierten ALS-Portal Aufgaben erstellt werden, die anschließend auf Exkursionen mit der Smartphon-App MoLES aufgerufen und beantwortet werden. Dabei werden Medien (Texte, Fotos, Tonaufnahmen, Videos oder 3D-Objekte) erzeugt, die semiautomatisch semantisch annotiert werden, und anschließend durch die automatische Ablage im NEMO-Framework in allen ALS-Applikationen weiterverwendet werden können.
Mit InfoGrid können im ALS-Portal, webbasiert am PC oder Tablet, digitale Texte, Fotos, Videos oder 3D-Objekte hinterlegt werden, die dann in Form von Augmented Reality (AR) von mobilen Geräten, wie Smartphones oder Tablets, angezeigt werden können. Auslöser für die Anzeige sind Fotos (sogenannte Targets), beispielsweise von Bildern oder real physischen Objekten, die via Bilderkennung über die Kamera des Mobilgeräts erfasst werden.
Mit der Nutzung von InfoGrid können, je nach Freigabemodalität, die von Schüler:innen oder von Museen geschaffenen interaktiven Anreicherungen in unterschiedlichen Formen von Augmented Reality betrachtet werden. Die InfoGrid-App kann kostenlos aus dem Google Play Store oder dem Apple App Store heruntergeladen und auf dem Smartphone oder Tablet installiert werden.
Auswahl nicht integrierter ALS-Forschungssysteme
ActeMotion ermöglicht zunächst das Einstellen von Medien und das Bestimmen von erkennbaren Gesten, web-basiert im Browser. Anschließend ist es möglich, während einer Aufführung, diese Körpergesten durch das digitale System (einen PC, der die Daten einer Kinect 2 registriert) erkennen zu lassen und daraufhin Medien oder visuelle Effekte wiederzugeben.
Neben einem PC, einem Beamer und/oder Lautsprecher wird auch die mit einer 3D-Kamera ausgestattete Kinect benötigt. ActeMotion kann zusätzlich mit am Körper getragenen Smartphons verbunden werden. Mit den Smartphones können weitere Körpergesten, wie etwa eine Rotation um die eigene Körperachse, erkannt werden.
Werden Tangibles (berührbare Minicomputer wie unsere Tangicons) zusammen mit einem Multitouch-Bildschirm einer InteractiveWall verwendet, so kommt es hier zu einer geräteübergreifenden Interaktion (Cross-Device-Interaction kurz XDI genannt). Alternativ für die Tangicons, die jetzt über einen Browser und WLAN verfügen, können mit unseren Lernapplikationen AlgoFrogs, SpelLit und CollMath auch Smartphones oder Tablets verwendet werden.
Mit dem Lernspiel AlgoFrogs können die Kinder in der Vorschule oder Grundschule gemeinsam algorithmisches Denken ausbilden. Grobmotorische und feinmotorische Bewegungen im physikalischen Raum nehmen bei dem Lernspiel eine wichtige Rolle ein.
Da das Lernspiel ab der Version 3 browserbasiert realisiert wurde, können, wie auf dem Bild hier zu sehen ist, auch Smartphones oder Tablets verwendet werden, wobei die einzelnen Geräte allerdings ihre räumliche Lage zueinander nicht von alleine erkennen, wie es mit den Tangicons der Fall ist. Das Besondere dieser Lernapplikationen besteht darin, dass die Kinder selbstständig miteinander Lernen, ohne zu sitzen und dass die Lehrkräfte (bezogen auf AlgoFrogs auch mit Kindern) neue Spielsequenzen mit dem jeweils dazugehörigen GameCreator erzeugen können.
Neben InfoGrid existierte prototypisch auch InfoGrid4Glass. InfoGrid4Glass unterscheidet sich vom InfoGrid, das für Smartphones und Tablets entwickelt wurde, durch die Verwendung der Schnittstelle GoogleGlass, einem Wearable in Form einer Datenbrille. Datenbrillen eignen sich hervorragend für ambiente Lernumgebungen. Da sich jedoch Datenbrillen noch nicht als Consumer-Produkte auf dem freien Markt durchgesetzt haben, wurde die Weiterentwicklung von InfoGrid4Glass nicht in die ausgelieferten Systeme integriert.
2019 wurde die Lernapplikation MysteryGames entwickelt. Im ALS-GameGreator können eine beliebige Anzahl von Mysteries zu beliebigen fachlichen oder überfachlichen Themen auf einfache Weise erzeugt werden. Diese können anschließend von 3-4 Personen gemeinsam an einem Multitouch-Tisch gespielt werden.
Jedes MysteryGame unterstützt dabei, globale Zusammenhänge zu verstehen und komplexe Wirkungsgefüge hinter einfach erscheinenden Handlungen zu erkennen.
Das hier dargestellte Mystery zum Bienensterben wurde im ALS-GameCreator am Museum für Natur und Umwelt durch dort arbeitende Personen selbst erstellt. Das Bild zeigt, wie es anschließend auf dem Multitouch-Tisch des Museums von Besuchern gespielt wird.
Für den Multitouch-Tisch PixelSense/Surface von Microsoft wurden ab 2010 zwei Lernspiele für das Museum für Natur und Umwelt in Lübeck entwickelt. Die Simulationen, wie etwa die Ostseesimulation zur Rettung der Ostsee vor umweltschädlichen Einflüssen, fördern vernetztes Denken und unterstützen das gemeinsame Lösen komplexer Probleme.
TextToPreventDrupalStrip Video des Lernspiels "Rettet die Ostsee" im Museum für Natur und Umwelt.
SpelLit unterstützt das Erlernen von Lesen und Schreiben im Vorschul- und beginnendem Grundschulalter. Das Lernspiel kann gemeinsam von drei bis sechs Kindern gespielt werden. In einer früheren Version (SpelLit 2.1) wird mit Laptop, Tablet und Sifteo -Cubes ein spielerischer, körper- und raumbezogener gemeinsamer Interaktionsraum geschaffen (siehe Bild oben).
Für ALS-Lernmedien, die wir primär durch kleine Objekte steuern, entwickelten wir spezifische sogenannte Tangibles. Diese Tangibles, die einen kleinen Computer enthalten, nennen wir Tangicons. Diese, mittels Webtechnologie mit NEMO verbundene Miniaturcomputer, sind mit Touchbildschirmen, Lagesensoren und magnetischen Sensoren ausgestattet. Da diese so auf dem Markt zurzeit nicht käuflich erwerbbar sind, können alternativ auch kleine Mobilgeräte verwendet werden.
Die ersten Tangicons bestanden auf Holzwürfeln. Deren Lage im Raum und Ausrichtung wurde via Bilderkennung erkannt. Die zweite Generation bestand aus Kunststoff mit eingebetteten Mikrocontrollern und diversen Sensoren, sowie einem Funkmodul.
Für die dritte Generation, die erstmals in Verbindung mit einem Bildschirm arbeitete, wurden Sifteo Cubes verwendet.
Bekleidung und Schmuck (Fashion) sind Ausdruck kultureller Codes und Trends. Werden in Fashion elektronische Bauteile integriert, so entsteht Smart Fashion. Unter elektronischen Bauteilen verstehen wir kleine, zur Kommunikation fähige Microcomputer, Sensoren und Aktoren. SmartFashion ist eine Applikation für interaktive Bekleidung oder Schmuck, mit der auf einfache Weise Kommunikationsverbindungen zu anderen ALS-Applikationen via NEMO hergestellt werden kann. Eine frühe Form der Realisierung von Cross-Device-Interaction zwischen Smartphones und Bekleidung wurde bereits mit WeWrite realisiert.
TextToPreventDrupalStrip Video der Schüler des Carl-Jacob-Burckhardt-Gymnasiums, die interktive Shirts produzieren
Für SmartPainting wird ähnliche Technologie wie bei SmartFashion oder SmartPlushies verwendet, allerdings um selbst gemalte Bilder interaktiv mittels Web-Technologie steuerbar zu gestalten.
Ein Plushie ist ein kleines Plüschtier oder Plüschphantasiewesen aus Stoff. Wenn in ein solches nicht nur kleine Mikrokontroller, Batterien, Druckschalter, Summer oder LEDs integriert werden, sondern auch eine Funkverbindung, so nennen wir dies SmartPlushie. SmartPlushie ist eine Applikation, mit der eine Verbindung zwischen SmartPlushies und NEMO oder anderen ALS-Lernapplikationen hergestellt werden kann. Hierbei wird die gleiche Technologie wie bei SmartFashion verwendet, allerdings um kleine Plüschtiere interaktiv steuerbar zu gestalten.