ETH Zurich :
Computer Science :
Pervasive Computing :
Distributed Systems :
Education :
Student Projects :
Abstract
SiROP-Projekt - High-level Infrastructure Support for Auto-ID Applications (Aspekt Sensorik) (P)Status: Abgeschlossen
Für viele Anwendungen des Pervasive Computing ist die automatische Identifikation (Auto-ID) von Objekten der realen Welt wesentlich. Es ermöglicht das Verknüpfen von Informationen oder Aktionen mit einem Objekt und macht es damit "smart". Smarte Objekte können z.B. Ausstellungsstücke in einem Museum sein, die zum Besucher "sprechen", oder Produkte in der Lieferkette eines Supermarktes, die an der Optimierung von Prozessabläufen beteiligt sind. Eine häufig eingesetzte Auto-ID-Technologie ist die Radio Frequency Identification (RFID), bei der Objekte mit RFID-Transpondern gekennzeichnet werden, die wiederum von RFID-Lesegeräten erfasst werden. Das Ziel dieses Forschungsprojektes ist es, geeignete Modelle, Infrastrukturen und Werkzeuge zur Unterstützung der Entwicklung von Auto-ID-Anwendungen zu finden. Dabei ergeben sich verschiedenen Probleme, die es zu lösen gilt: Die Anzahl der zu verwaltenden Lesegeräte und die damit verbundenen Datenmengen sind in vielen Anwendungen sehr gross. Da die Daten schnell verarbeitet werden müssen, ist eine entsprechende Middleware bzw. Infrastruktur nötig, die die Lesegeräte verwaltet, die empfangenen Daten vorverarbeitet und speichert, und den Anwendungen ein geeignetes Applikationsmodell zur Verfügung stellt. Da sich die Lesegeräte normalerweise an verschiedenen Orten befinden und in besonderen Fällen sogar mobil sein können, soll die Auto-ID-Infrastruktur die Wirklichkeit in einem geeigneten Ortsmodell abbilden und als verteiltes System realisiert sein. Um die Entwicklung von Auto-ID-Anwendungen weiter zu vereinfachen, soll ein visueller Anwendungsbaukasten entwickelt werden, der es Benutzern erlaubt, intuitiv Anwendungen zu entwickeln, ohne über Programmierkenntnisse zu verfügen.
Dies ist ein ETH-SiROP-Projekt.
Student/Bearbeitet von: Mustafa Yücel Contact/Ansprechpartner: Matthias Lampe
|