Show simple item record

AuthorKaufmann, Ulrichdc.contributor.author
Date of accession2016-03-15T06:22:51Zdc.date.accessioned
Available in OPARU since2016-03-15T06:22:51Zdc.date.available
Year of creation2009dc.date.created
AbstractFür autonome, mobile Roboter ist es sehr wichtig, ihre Umwelt möglichst genau zu erfassen und zu erkennen. Hierbei wird die Auswertung von visuellen Sensoren genutzt, um Objekte zu detektieren. Roboter müssen in der Lage sein, die Objekte, die sie manipulieren oder mit denen sie interagieren sollen, zu erkennen. Diese Aufgabe ist bereits in statischen und bekannten Umgebungen für die Roboter eine Herausforderung. Müssen sie ihre Aufgaben in dynamischen und unbekannten Umgebungen ausführen, erhöht sich die Schwierigkeit erheblich. Durch die Autonomie der Roboter müssen weitere Einschränkungen wie zum Beispiel limitierte Rechenzeit oder mindere Bildqualität in Kauf genommen werden. Ebenso sind unbekannte Objekttypen, die verarbeitet werden müssen, keine Seltenheit. Um diesen Anforderungen gerecht zu werden, ist die Grundlage jeglicher Objekterkennung zunächst die Detektion potentiell interessanter Bildbereiche. Ziel dieser Arbeit ist es, ein möglichst universelles echtzeitfähiges Framework für visuelle Aufmerksamkeit zu entwickeln, das von autonomen Robotern verwendet werden kann. Die erforderlichen Eigenschaften wurden in zwei unterschiedlichen Szenarien, den fussballspielenden Robotern und einem Serviceroboterszenario, untersucht und die entwickelten Verfahren darin evaluiert. Entstanden ist ein Aufmerksamkeitsframework, das die oben genannten Schwierigkeiten meistert und die visuelle Aufmerksamkeit sowohl durch den sensorischen Input als auch durch die Kontextinformationen und Statusmeldungen des Roboters geeignet anpasst. Das entwickelte Verfahren kann als Vorverarbeitung für jegliche Objekterkennungs- und Objektklassifikationsmethoden eingesetzt werden.dc.description.abstract
Languagededc.language.iso
PublisherUniversität Ulmdc.publisher
LicenseStandard (Fassung vom 01.10.2008)dc.rights
Link to license texthttps://oparu.uni-ulm.de/xmlui/license_v2dc.rights.uri
KeywordAufmerksamkeitsframeworkdc.subject
Dewey Decimal GroupDDC 004 / Data processing & computer sciencedc.subject.ddc
LCSHImage processingdc.subject.lcsh
LCSHRoboticsdc.subject.lcsh
TitleVisuelles Aufmerksamkeitsframework für Roboter in dynamischen Umgebungendc.title
Resource typeDissertationdc.type
DOIhttp://dx.doi.org/10.18725/OPARU-1718dc.identifier.doi
PPN617329370dc.identifier.ppn
URNhttp://nbn-resolving.de/urn:nbn:de:bsz:289-vts-71691dc.identifier.urn
GNDBildverarbeitungdc.subject.gnd
GNDRobotikdc.subject.gnd
FacultyFakultät für Ingenieurwissenschaften und Informatikuulm.affiliationGeneral
Date of activation2010-01-13T06:52:17Zuulm.freischaltungVTS
Peer reviewneinuulm.peerReview
Shelfmark print versionZ: J-H 13.515; W: W-H 11.949uulm.shelfmark
DCMI TypeTextuulm.typeDCMI
VTS ID7169uulm.vtsID
CategoryPublikationenuulm.category
Bibliographyuulmuulm.bibliographie


Files in this item

Thumbnail

This item appears in the following Collection(s)

Show simple item record