ALS

Ambient Learning Spaces

Sitemap

ALS-Lernapplikationen

Aktuell integrierte ALS-Lernanwendungen

InteractiveWall-Icon

InteractiveWall-Interaktion
Jugendliche beim Interagieren mit der InteractiveWall

Die InteractiveWall (IW) stellt Kindern, Jugendlichen und Erwachsenen einen neuen Ort für soziale Kooperation, spielerisches, exploratives und inzidentelles Lernen zur Verfügung. Die Hypermedia-Plattform ermöglicht mit neuartigen Schnittstellen (Multitouch-Bildschirmen) eine Lernumgebung für den kontextualisierten, personalisierten, semantisch reichhaltigen und gerätespezifischen Zugriff auf Multimediaobjekte und der Interaktion mit diesen.

Die Einstellungen und die Verwaltung wie auch das Hochladen von Inhalten für alle Applikationen erfolgen über die webbasierte Schnittstelle ALS-Portal, die über einen Browser erreichbar ist.

Das folgende Video zeigt die IW am Carl-Jacob-Burckhardt-Gymnasium in Lübeck in der Version 2.3 (von 2013). Link zum Video.

InteractiveWall-Screenshot
Screenshot einer InteractiveWall im Kontext einer Schule

MediaGallery-Icon

MediaGallery-Screenshot
Screenshot einer MediaGallery mit Medien, die von Schülern des Carl-Jacob-Burckhardt-Gymnasiums mit MoLES erstellt wurden.

Die MediaGallery ist eine Software, die eine übersichtliche und einfache Verwaltung und Präsentation von Videos und Bildern, insbesondere im Kontext der InteractiveWall, ermöglicht. Die Menge der in einer Mediengalerie enthaltenen Medien kann statischer oder über Tagging auch dynamischer Natur sein.

TimeLine-Icon

TimeLine-Kniefall-in-Warschau
Screenshot einer TimeLine über Günter Grass

TimeLine ermöglicht das Erstellen eines horizontal verlaufenden Zeitstrahls, in dem vertikal übereinander mehrere Bereiche angezeigt werden können. Die Medien (Fotos, Sound und Videos) werden entweder aus der semantisch annotierten ALS-Datenbank entnommen, oder aber aus anderen semantisch strukturierten Datenbanken, die mit der TimeLine verbunden sind.

Neue Inhalte können über das ALS-Portal in die ALS-Datenbank eingegeben werden. Jede Zeitleiste kann benannt und ihr beliebig viele Ereignisse zugeordnet werden. Einem Ereignis wird ein passender Name, eine Beschreibung, einige Tags, sowie ein Datum oder ein Zeitraum zugewiesen. Das Framework NEMO verknüpft dieses Ereignis mit entsprechenden Medien.

SemCor-Icon

SemCor-Screenshot
Screenshot eines SemCor-Netzes

SemCor dient der interaktiven Visualisierung und spielerischen Erkundung von Informationen im Semantic Web. In einem sich selbst erweiternden Force-Directed-Graphen können verschiedene Themengebiete selbstständig erkundet werden. Informationspunkte werden als Knoten und ihre Korrelation als Kanten dargestellt. Die Informationen und Medien können aus der semantisch annotierten ALS-Datenbank oder aber aus anderen semantisch strukturierten Datenbanken entnommen werden. Beispielhaft wurde dies mit der Nutzung der DBpedia umgesetzt.

HyperVid-Icon

HyperVid-CJB
Standbild eines HyperVid-Projektes mit entsprechenden HyperLinks eingebettet in das HyperVid-Video

HyperVid ist ein webbasiertes Hyper-Media-System, mit dem selbst erstellte Videofragmente zu einem Video in Hyperstruktur verlinkt werden können. Die erstellten Hyper-Videos können anschließend web-basiert betrachtet werden.HyperVid fördert vernetztes Denken, multiple Perspektiven (alternative Wahrnehmungen) und unterstützt gemeinsames Lernen mit zeitbasierten Multimedien.

InteractiveTable-Icon

InteractiveTable (ITable) ist eine Applikation zur Erstellung von interaktiven Präsentationen oder Lernspielen auf Multitouch-Tischen. InteractiveTable  Mitz InteractiveTable  können Objekte (Fiducials) erkannt werden. Um sehr einfach beliebige Inhalte mit unterschiedlichen Medien mittels Fiducials auf einem Multitouch-Tisch anzeigen zu lassen, wurde im Rahmen von ALS für InteractiveTable die Applikation ObjectRecognizer entwickelt.

ObjectRecognizer ermöglicht physische Objekte, die auf einen Multitouch-Tisch gestellt werden, einzuscannen. Werden diese Objekte anschließend wieder auf den Multitouch-Tisch gestellt, so werden diese wiedererkannt und Medien, die dem Objekt zuvor zugeordnet wurden, können interaktiv auf dem Multitouch-Tisch präsentiert werden.

InteractiveTable-Usage
Interaktion eines Schülers mit dem InteractiveTable

Ein Fiducial (hier ein hölzerner Elch) wird auf dem Multitouch-Tisch erkannt. Um ihn herum bilden sich diverse Interaktionsmöglichkeiten.

MoLES-Icon

MoLES-Interaktion
MoLES in der Anwendung in einer Partner-Schule.

MoLES  (Mobile Learning Exploration System) ist eine internet-basierte Lernumgebung, die das Lernen an außerschulischen Lernorten unterstützt. Mit MoLES können am webbasierten ALS-Portal Aufgaben erstellt werden, die anschließend auf Exkursionen mit der Smartphon-App MoLES aufgerufen und beantwortet werden. Dabei werden Medien (Texte, Fotos, Tonaufnahmen, Videos oder 3D-Objekte) erzeugt, die semiautomatisch semantisch annotiert werden, und anschließend durch die automatische Ablage im NEMO-Framework in allen ALS-Applikationen weiterverwendet werden können.

InfoGrid-Icon

InfoGrid-Interaktion
Die Einbindung von InfoGrid in das ALS-Portal (links) und eine tatsächliche Anwendung mit dem InfoGrid-Effekt (rechts).

Mit InfoGrid können im ALS-Portal, webbasiert am PC oder Tablet, digitale Texte, Fotos, Videos oder 3D-Objekte hinterlegt werden, die dann in Form von Augmented Reality (AR) von mobilen Geräten, wie Smartphones oder Tablets, angezeigt werden können. Auslöser für die Anzeige sind Fotos (sogenannte Targets), beispielsweise von Bildern oder real physischen Objekten, die via Bilderkennung über die Kamera des Mobilgeräts erfasst werden.

Mit der Nutzung von InfoGrid können, je nach Freigabemodalität, die von Schüler:innen oder von Museen geschaffenen interaktiven Anreicherungen in unterschiedlichen Formen von Augmented Reality betrachtet werden. Die InfoGrid-App kann kostenlos aus dem Google Play Store oder dem Apple App Store heruntergeladen und auf dem Smartphone oder Tablet installiert werden.

Auswahl nicht integrierter ALS-Forschungssysteme

Act-e-Motion-Icon

Act-e-Motion-Performance
Schüler bei einer Performance mit ActeMotion

Act­eMotion ermöglicht zunächst das Einstellen von Medien und das Bestimmen von erkennbaren Gesten, web-basiert im Browser. Anschließend ist es möglich, während einer Aufführung, diese Körpergesten durch das digitale System (einen PC, der die Daten einer Kinect 2 registriert) erkennen zu lassen und daraufhin Medien oder visuelle Effekte wiederzugeben.

Neben einem PC, einem Beamer und/oder Lautsprecher wird auch die mit einer 3D-Kamera ausgestattete Kinect benötigt. ActeMotion kann zusätzlich mit am Körper getragenen Smartphons verbunden werden. Mit den Smartphones können weitere Körpergesten, wie etwa eine Rotation um die eigene Körperachse, erkannt werden.

Act-e-Motion-Performance-GPS
Interaktive Performance "Think Gobal Act Local" von Schülern des Carl-Jacob-Burckhardt-Gymnasiums mit Hilfe von ActeMotion

AlgoFrogs-Icon

Werden Tangibles (berührbare Minicomputer wie unsere Tangicons) zusammen mit einem Multitouch-Bildschirm einer InteractiveWall verwendet, so kommt es hier zu einer geräteübergreifenden Interaktion (Cross-Device-Interaction kurz XDI genannt). Alternativ für die Tangicons, die jetzt über einen Browser und WLAN verfügen, können mit unseren Lernapplikationen AlgoFrogs, SpelLit und CollMath auch Smartphones oder Tablets verwendet werden.

Mit dem Lernspiel AlgoFrogs können die Kinder in der Vorschule oder Grundschule gemeinsam algorithmisches Denken ausbilden. Grobmotorische und feinmotorische Bewegungen im physikalischen Raum nehmen bei dem Lernspiel eine wichtige Rolle ein.

AlgoFrogs-Interaktion
Auch mit Tablets, Smartphones und Smartwatches kann die InteractiveWall kommunizieren

Da das Lernspiel ab der Version 3 browserbasiert realisiert wurde, können, wie auf dem Bild hier zu sehen ist, auch Smartphones oder Tablets verwendet werden, wobei die einzelnen Geräte allerdings ihre räumliche Lage zueinander nicht von alleine erkennen, wie es mit den Tangicons der Fall ist. Das Besondere dieser Lernapplikationen besteht darin, dass die Kinder selbstständig miteinander Lernen, ohne zu sitzen und dass die Lehrkräfte (bezogen auf AlgoFrogs auch mit Kindern) neue Spielsequenzen mit dem jeweils dazugehörigen GameCreator erzeugen können.

InfoGrid4Glass-Icon

InfoGrid4Glass-Interaktion
InfoGrid4Glass in der Anwendung.

Neben InfoGrid existierte prototypisch auch InfoGrid4Glass. InfoGrid4Glass unterscheidet sich vom InfoGrid, das für Smartphones und Tablets entwickelt wurde, durch die Verwendung der Schnittstelle GoogleGlass, einem Wearable in Form einer Datenbrille. Datenbrillen eignen sich hervorragend für ambiente Lernumgebungen. Da sich jedoch Datenbrillen noch nicht als Consumer-Produkte auf dem freien Markt durchgesetzt haben, wurde die Weiterentwicklung von InfoGrid4Glass nicht in die ausgelieferten Systeme integriert.

MysteryGame-Icon

2019 wurde die Lernapplikation MysteryGames entwickelt. Im ALS-GameGreator können eine beliebige Anzahl von Mysteries zu beliebigen fachlichen oder überfachlichen Themen auf einfache Weise erzeugt werden. Diese können anschließend von 3-4 Personen gemeinsam an einem Multitouch-Tisch gespielt werden.

Jedes MysteryGame unterstützt dabei, globale Zusammenhänge zu verstehen und komplexe Wirkungsgefüge hinter einfach erscheinenden Handlungen zu erkennen.

MysteryGame-Interaktion
Schüler beim Spielen eines MysteryGames

Das hier dargestellte Mystery zum Bienensterben wurde im ALS-GameCreator am Museum für Natur und Umwelt durch dort arbeitende Personen selbst erstellt. Das Bild zeigt, wie es anschließend auf dem Multitouch-Tisch des Museums von Besuchern gespielt wird.

Für den Multitouch-Tisch PixelSense/Surface von Microsoft wurden ab 2010 zwei Lernspiele für das Museum für Natur und Umwelt in Lübeck entwickelt. Die Simulationen, wie etwa die Ostseesimulation zur Rettung der Ostsee vor umweltschädlichen Einflüssen, fördern vernetztes Denken und unterstützen das gemeinsame Lösen komplexer Probleme.

Das folgende Video zeigt Besucher des Museums für Natur und Umwelt beim spielenSpielen des Lernspiels "Rettet die Ostsee" auf einem Multitouch-Tisch: Link zum Video.

MysteryGame-Interaktion
Das Spiel "Rettet die Ostsee" auf einem Multitouch-Tisch

SpelLit-Icon

SpelLit-Interaktion
Schüler beim Lernen von Lesen und Schreiben mit SpelLit.

SpelLit unterstützt das Erlernen von Lesen und Schreiben im Vorschul- und beginnendem Grundschulalter. Das Lernspiel kann gemeinsam von drei bis sechs Kindern gespielt werden. In einer früheren Version (SpelLit 2.1) wird mit Laptop, Tablet und Sifteo -Cubes ein spielerischer, körper- und raumbezogener gemeinsamer Interaktionsraum geschaffen (siehe Bild oben). Das folgende Video zeigt Kinder im ersten Jahrgang an einer Grundschule in Lübeck-Moisling, wie sie mit den Sifteo-Cubes und SpelLit 2.1 gemeinsam lesen und schreiben lernen: Link zum Video.

SpelLit-Interaktion-2
Kinder beim Miteinanderlernen mit SpelLit.

Tangicons-Icon

Für ALS-Lernmedien, die wir primär durch kleine Objekte steuern, entwickelten wir spezifische sogenannte Tangibles. Diese Tangibles, die einen kleinen Computer enthalten, nennen wir Tangicons. Diese, mittels Webtechnologie mit NEMO verbundene Miniaturcomputer, sind mit Touchbildschirmen, Lagesensoren und magnetischen Sensoren ausgestattet. Da diese so auf dem Markt zurzeit nicht käuflich erwerbbar sind, können alternativ auch kleine Mobilgeräte verwendet werden.

Tangicons-Interaktion
Die Abbildung zeigt die 3.Generation der Tangicons im Einsatz mit zwei Lernspielen, bei denen Sifteo Cubes verwendet wurden.

Die ersten Tangicons bestanden auf Holzwürfeln. Deren Lage im Raum und Ausrichtung wurde via Bilderkennung erkannt. Die zweite Generation bestand aus Kunststoff mit eingebetteten Mikrocontrollern und diversen Sensoren, sowie einem Funkmodul.
Für die dritte Generation, die erstmals in Verbindung mit einem Bildschirm arbeitete, wurden Sifteo Cubes verwendet.

Tangicons-Interaktion
Kinder an einer Lübecker Grundschule testen das Miteinander-Lernspiel AlgoFrogs mit der vierten Generation der Tangicons

SmartFashion-Icon

SmartFashion-Interaktion
Schüler des Carl-Jacob-Burckhardt-Gymnasiums führen ein Theaterstück mit interaktiver, selbst programmierter Kleidung auf.

Bekleidung und Schmuck (Fashion) sind Ausdruck kultureller Codes und Trends. Werden in Fashion elektronische Bauteile integriert, so entsteht Smart Fashion. Unter elektronischen Bauteilen verstehen wir kleine, zur Kommunikation fähige Microcomputer, Sensoren und Aktoren. SmartFashion ist eine Applikation für interaktive Bekleidung oder Schmuck, mit der auf einfache Weise Kommunikationsverbindungen zu anderen ALS-Applikationen via NEMO hergestellt werden kann. Das folgende Video zeigt Schüler:innen des Carl-Jacob-Burckhardt-Gymnasium, wie sie für ihre Performance "Digital Fashion" interaktive Shirts produzieren und anschließend eine Performance mit diesen durchführen: Link zum Video. Eine frühe Form der Realisierung von Cross-Device-Interaction zwischen Smartphones und Bekleidung wurde bereits mit WeWrite realisiert.

SmartPainting-Icon

Für SmartPainting wird ähnliche Technologie wie bei SmartFashion oder SmartPlushies verwendet, allerdings um selbst gemalte Bilder interaktiv mittels Web-Technologie steuerbar zu gestalten.

SmartPlushie-Icon

SmartPlushie-Example
Ein SmartPlushie, hier in Form eines Drachen.

Ein Plushie ist ein kleines Plüschtier oder Plüschphantasiewesen aus Stoff. Wenn in ein solches nicht nur kleine Mikrokontroller, Batterien, Druckschalter, Summer oder LEDs integriert werden, sondern auch eine Funkverbindung, so nennen wir dies SmartPlushie. SmartPlushie ist eine Applikation, mit der eine Verbindung zwischen SmartPlushies und NEMO oder anderen ALS-Lernapplikationen hergestellt werden kann. Hierbei wird die gleiche Technologie wie bei SmartFashion verwendet, allerdings um kleine Plüschtiere interaktiv steuerbar zu gestalten.