AnyMotion GmbH - Augmented Reality . Arbeiter mit Tablet vor Maschine

Was versteht man unter Augmented Reality?

Mittlerweile hat jeder das Wort Augmented Reality zumindest schon einmal gehört und die meisten können es zumindest igendwie zuordnen. Wenn es jedoch darum geht das Wort “Augmented Reality” genauer zu definieren,  dürften die ersten ins stocken kommen. Einige werden instinktiv ein paar konkrete Beispiele, wie Pokemon Go,  nennen und sagen: “Das ist Augmented Reality”. Doch wie sieht es mit einer formalen Definition aus?

Unter erweiterter Realität (auch englisch augmented reality [ɔːɡˈmɛntɪd ɹiˈælɪti], kurz AR [eɪˈɑː]) versteht man die computergestützte Erweiterung der Realitätswahrnehmung. Diese Information kann alle menschlichen Sinnesmodalitäten ansprechen. Häufig wird jedoch unter erweiterter Realität nur die visuelle Darstellung von Informationen verstanden, also die Ergänzung von Bildern oder Videos mit computergenerierten Zusatzinformationen oder virtuellen Objekten mittels Einblendung/Überlagerung

-Eintrag in Wikipedia

Dies ist die Definition von Wikipedia und entspricht dem Begriff Augmented Reality, wie wir Ihn heute kennen. Aber obwohl diese Definition formal korrekt scheint, lässt Sie doch einige Fragen offen. So stellt sich die Frage ob AR das Verfahren zur Erweiterung der Realitätswahrnehmung ist oder das Produkt ist? Diese Probleme, den Begriff AR zu erklären, gibt es jedoch schon lange. So wurde der eigentliche Begriff “Augmented Reality” 1992 sogar erst von Tom Caudell geschaffen, um den Technikern von bei Boing zu erklären, was seine neue Erfindung eigentlich macht.  Seine Definition sagt in seiner Basis folgendes aus:

Augmented reality is the interaction of superimposed graphics, audio and other sense enhancements over a real-world environment that’s displayed in real-time.

-Tom Caudell

Grundsätzlich hat sich bis heute nichts an dieser Definition geändert, jedoch gibt es viele unterschiedliche Variationen. So benutzten einige Wissenschaftler den Begriff Augmented Reality zum Beispiel nur im Zusammenhang mit sogenannten Head-Mounted-Displays.  Um sich von eine spezifischen Hardware zu lösen, schuf T.Azuma 1997 folgende Definition:

AR are systems that have the following three characteristics:
1) Combines real and virtual
2) Interactive in real time
3) Registered in 3-D

-Ronald T. Azuma

Auffällig ist hier der Punkt 3. Für Ihn sind also sogenannte HUD Systeme in Fliegern, die nur die aktuelle Geschwindigkeit, die Höhe und den Treibstoff anzeigen keine AR-Systeme. Azuma schuf damit einen Definition für Augmented Reality im “engeren” Sinne.  Da dies jedoch alles recht technisch erscheint, gehen wir zur ersten Idee zurück und versuchen AR an einigen Beispielen zu erläutern.

Augmented Reality an Hand von 3 Beispielen

1. Filzstift auf einem Bild

Wenn wir mit einem Filzstift Zusatzinformation in ein Bild malen, leisten wir dasselbe wie die meisten AR-Apps. Jedoch würden kaum einer dieses Beispiel als Augmented Reality bezeichnen. Doch warum ist das so? Als eines  der ersten AR-Beispiel werden Live-Übertragungen von Fußballspielen bezeichnet, wo ein Kommentator Laufwege in das Kamerabild einzeichnet.  Was ist also der Unterschied?

Um das zu klären,  betrachten wir nochmal die Definition von Wikipedia. AR setzt sich demnach aus einem virtuellen Teil ( computergestützte Erweiterung ) und einen realen Teil (Realitätswahrnehmung)  zusammen.  Im Fall mit dem Filzstift sind sowohl das Bild als auch die Zusatzinformationen Teil der realen Welt. Obwohl diese Argumentation in diesem Fall einleuchtend ist, ist dies nicht im jeden Fall so klar.

2. Nachbearbeitung von Filmen und Bildern

Aufgenommene Bilder und Videos werden heutzutage am Rechner nachgearbeitet. Bekannte Programme hierfür sind Photoshop oder After Effects. Sie erlauben es nachträglich ungewollte Dinge zu entfernen oder zusätzliche virtuelle Informationen einzufügen. Jedoch würde kaum jemand diesen Vorgang unter Augmented Reality aufzählen.  Leider ist die Begründung hierfür nicht ganz so schlüssig, wie im ersten Fall.  Folgt man den Gedankengang aus dem ersten Beispiel, dann könnte man sagen, das das Foto bzw der Film mittlerweile eine virtuelle Information ist. Das würde bedeuten das man an dieser Stelle nur zwei virtuelle Elemente miteinander verbindet und daher der “reale” Teil der AR fehlen würde.

Wenn es sich beim Film oder den Fotos jedoch um Realaufnahmen handelt, fällt die Differenzierung zu den sogenannten AR-Apps für Handy’s schwer. Auch hier wird ein Realbild über eine Kamera aufgenommen. Dann wird das Bild  um eine virtuelle Komponente erweitert und dann an den Benutzer weitergeleitet. Einige werden jetzt sagen, das es sich bei AR-Anwendungen, um Live-Bilder handelt. Hier würde der “real time” Begriff aus der Definition von Caudell zum tragen kommen. Jedoch wird bei der Anzeige eines Kamerabildes auf einem Handy das erfasste Bild der Kamera zunächst digital gespeichert und dann erst mit einer minimalen Verzögerung auf eine Fläche gezeichnet, damit der Benutzer es sehen kann.  Es stellt sich also die Frage, ab welcher Verzögerung es nicht mehr “Live” ist.

3. Augmented Reality Apps

Die Zahl der Augmented Reality Apps steigt vor allem in den letzten Monaten rapide an. Beispiele sind Pokemon GO, Layar oder unsere hauseigene AR-Demonstrations App. In diesen Apps sieht der Benutzer gewöhnlich das Kamerabild, welches mit Zusatzinformationen, Modellen oder gar Videos angereichert wird.  Alle würden solche Apps in den AR-Breich einordnen.  Doch wie wir bereits in den vorigen Beispielen erwähnt haben, ist dies formal gesehen vielleicht nicht ganz unproblematisch.

Weitere Beispiele

Für weitere Beispiele sehen Sie sich doch auf unserer Referenzseite zum Thema Augmented Reality um.

Woher kommt Augmented Reality?

Die erste Entwicklung im Bereich der Augmented Reality ist nicht eindeutig dokumentiert und auch zu den zentralen Meilensteinen der Technologie bestehen unterschiedliche Auffassungen. Nachfolgend sind beispielhaft einige Meilensteine in der Entwicklung von Augmented Reality aufgelistet.

Augmented Reality Chart

1901Die Idee für Augmented Reality wurde bereits im Roman “The Master Key” von L. Frank Braun, dem Author von “The Wizard of Oz” beschrieben. Hier gibt ein Dämon einem Jungen eine Brille, welche die Charaktereigenschaft der Personen um ihn herum einblendet.
1930 – 1950Die Entwicklung von HUD’s ( Heads-up-Displays) für Kampfflugzeuge nimmt seinen Anfang. Auf den Frontscheiben von Kampfflugzeugen werden wichtige Informationen eingeblendet, sodass der Pilot nicht auf die Armaturen gucken muss.
1962Morton Heilig patentiert ein Gerät mit den Namen “Sensorama”.  Das Gerät kann Gerüche simulieren. Auch der Tastsinn kann damit stimuliert werden.
1965 – 1968Ivan Sutherland veröffentlichte 1965 ein Paper zur Möglichkeit von HMD’s ( Head mounted displays ) und beginnt 1966 mit Raymond Goertz einen Prototypen zu entwickeln. 1968 stellt er die erste funktionsfähige “Brille” vor, die virtuelle Daten anzeigen konnte.
1992Tom Caudell und David Mizell entwicklten im Rahmen ihrer Tätigkeit für Boeing ein mobiles System, um das bis dahin eingesetzte sehr kostenintensive System zu ersetzen, in welchem mit Schalttafeln die individuellen Schaltungen für jedes Flugzeug enthalten waren. Caudell und Mizell entwickelten geeminsam eine Augemented Reality-Brille zur Unterstützung der Techniker. Zur Erklärung ihrer Erfindung verwendeten und definierten sie den Begriff “Augmented Reality”.
1992Steven Feiner, Blair MacIntyre und Doree Seligmann reichen ein Paper ein, das das System KARMA (Knowledge-based Augmented Reality for Maintenance Assistance) beschreibt.
1993Ein Team um Loomis entwickelt einen Prototypen, der blinden Leuten helfen soll in der Außenwelt zu navigieren
1994Paul Milgram und Fumio Kishino definieren das Virtual-Reality Continuum.
1996Jun Rekimoto stellt den ersten 2D-Marker vor und legt damit den Grundstein für “visual-based marker tracking”.
1997Steven Feiner stellt das System MARS ( Mobile Augmented Reality System ) vor.  Dieses erste mobile Augmented Reality System bestand aus einer Augmented Reality-Brille, einem GPS-Empfänger, einem Rucksack mit einem Computer und einem Touchpad für die Interaktion und diente als Campus-Guide mit dem Informationen zu verschiedenen Gebäuden auf einem Universitätsgelände eingeblendet werden konnten.
1998Der “1st & Ten Computer” kommt zum ersten mal zum Einsatz. Dieser blendet in einer Live-Übertragung eines American Football Spiels eine virtuelle gelbe Line an der Stelle des sogenannten “first down” ein.
1999Hirokazu Kato veröffentlicht ARToolkit. Außerdem wird die Firma Total Immersion gegründet.
2000Bruce Thomas entwickelt AR-Quake.  Obwohl dies technisch gesehen das erste AR-Game ist, kostet die nötige Hardware dafür zum damaligen Zeitpunkt ungefähr 10.000$.
2000Die Navy stößt das Forschungsprojekt BARS ( Battlefield Augmented Reality System ) an
2003 Erstes AR-Spiel für Handys. Durch das Scannen eines Markers werden virtuelle Mücken eingeblendet, die vom Nutzer gejagt werden können.
2004Mathias Möhring blendet zum ersten mal ein 3D-Objekt mittels Augmented Reality ein.
2006Nokia stößt das MARA ( Mobile Augmented Reality Application ) Projekt an.
2008In einem Museum in Japan wird ein AR-Guide eingeführt.
2009Eine erfolgreiche Umsetzung von SLAM ( Simultaneous Localisation and Mapping ) führt zu ersten Versionen des “markerlosen Trackings”
….

Aus der aufgezeigten Entwicklung von Augmented Reality lässt sich aufzeigen, dass es in Verbindung mit der jeweiligs verfügbaren Hardware immer wieder Entwicklungszyklen gab, in denen sich die Technologie in kurzer Zeit signifikant weiterentwickelt hat. Mit der zunehmden Verbreitung von Smartphones und weiteren leistungsfähigen Endgeräten hat sich der Markt der Augmented Reality vielfältig entwickelt und kommt aktuell in immer mehr Bereichen zum Einsatz. Den zahlreichen Anwendungen von Augmented Reality im Consumer-Bereich stehen allerdings bisher nur vereinzelt industrielle Anwendungen gegenüber. Beispiele für den Einsatz von Augmented Reality im industriellen Umfeld sind die Unterstützung von Kommissioniertätigkeiten in der Logistik oder die Unterstützung von Servicetechnikern bei der Instandhaltung von technischen Anlagen. Darüber hinaus bestehen zahlreiche Ansätze, vielfach auf Basis neuer, bereits angekündigter AR-Hardware, die in naher Zukunft umgesetzt werden sollen.

Welche Hardware benötigt Augmented Reality?

Dieser Abschnitt beschäftigt sich mit der benötigten Hardware zur Umsetzung von Augmented Reality Anwendungen. In der Theorie braucht man drei Komponenten für visuelle Augmented Reality:

  1. Eine Kamera, um die Umgebung zu erfassen
  2. Ein Display, um die virtuellen Information darzustellen
  3. Einen Prozessor, um das Display anzusteuern und die virtuellen Informationen zu verwalten

Aus diesen Grundanforderungen lassen sich für die aktuelle praktische Umsetzung drei Kategorien geeigneter Hardware ableiten:

  1. Mobile Endgeräte ( Smartphones und Tablets )
  2. AR-Brillen
  3. Sonstige ( Head-up-Displays, AR-Billboards, Yellow Line, Magic Leap )

Mobile Endgeräte

Unter die erste Kategorie fallen alle mobilen Endgeräte (Handheld) mit einer Kamera, einem Prozessor und einem Display. Das jeweilige Betriebssystem (IOS, Android, Windows, etc.) des Handhelds spielt bei der Entwicklung von AR-Lösungen keine Rolle. Erst die hohe Leistungsfähigkeit und die weite Verbreitung von mobilen Endgeräten hat dafür gesorgt, das AR dem breiten Publikum zugänglich gemacht wurde.

AR-Brillen

Die zweite Kategorie sind spezielle Augmented Reality Brillen. Diese halbtransparenten Datenbrillen ermöglichen die Einblendung von virtuellen Informationen unmittelbar in das Sichtfeld des Nutzers. Dabei wurden sowohl monokulare Systeme entwickelt, wie z.B. Google Glass als auch binokulare Systeme, wie z.B. die HoloLense. In den meisten Fällen sind diese Datenbrillen für eine bestimmte Zielgruppe oder Anwendung entwickelt worden. Anwendungsbeispiele sind hier der Einsatz in der Instandhaltung, der Kaufberatung oder die Aus- und Weiterbildung von Fachkräften, aber auch Spiele für den Consumer-Bereich. Aufgrund der aktuell sehr dynamischen Marktentwicklung und der vielen Ankündigungen von Neuentwicklungen sind für die nächsten Jahre zahlreiche neue Hardwareentwicklungen im Bereich Augmented Reality zu erwarten.

Sonstiges

Einige weitere für den Einsatz von Augmented Reality entwickelte Lösungen lassen sich keiner der zuvor genannten Kategorien zuordnen. In diese Kategorie fallen zum Beispiel Flugzeug oder Fahrzeug Head-Up-Displays ( Continental ) oder das 1st & Ten Computersystem für den Live-American Football.
Ein anderes Beispiel sind AR-Billboards. Mit AR-Billboards werden die Umgebung gefilmt und in Echtzeit virtuelle Objekte eingeblendet, welche dann auf einer großen Leinwand dargestellt werden. Ein Beispiel für ein solches AR-Billboard ist momentan auf dem Canberra Airport im Einsatz. Eine spezielle Form des AR-Billboards sind die sogenannten Virtual Dressing Rooms, in denen der Benutzer verschiedene virtuelle Kleider anprobieren kann.

Wie funktioniert Augmented Reality?

Bestandteile von Augmented Reality Anwendungen

Unabhängig von seiner theoretischen Definition kann man Augmented Reality in der Praxis in zwei Phasen und vier Elemente unterteilen. Man hat in allen Fällen eine Trainings- und Nutzungsphase und zur jeden AR-Anwendung gehören ein AR-Marker, ein Trackingverfahren, ein Sensorinput(Real world) und eine oder mehrere virtuelle Information.

Phasen einer Augmented Reality Anwendung

Trainingsphase

In der Trainingsphase werden die Merkmale von einem oder mehreren AR-Marker trainiert, damit sie in der Nutzungsphase wiedererkannt werden können. Für gewöhnlich findet dieses Training vor der Veröffentlichung der AR-Anwendung statt, so dass der normale Nutzer von der dieser Phase nichts mitbekommt. Eine Ausnahme bildet das “Markerless Tracking”. Dort wird beim ersten Setzen der virtuellen Information der Hintergrund erfasst und die natürlichen Features  werden extrahiert. Diese Features dienen dann als “on-the-fly” marker.

Entgegen eines recht weitläufigen Mythos kann ein System nicht “einfach so” etwas erkennen, sondern es wird immer darauf trainiert nach gewissen Merkmalen zu suchen. Selbst experimentelle KI Netze aus diesem Bereich fällen ihre Entscheidungen basierend auf vorher trainierten Beispielen. Merkmale die nicht trainiert wurden, können auch nicht erkannt werden.

Nutzungsphase

In der AR-Anwendungen werden dann die AR-Marker mit einem oder mehreren virtuellen Informationen verknüpft. In der Nutzungsphase sucht die AR-Anwendung im real-world Input dann nach den Merkmalen der AR-Marker und blendet die entsprechende virtuellen Informationen ein, sobald sie einen Marker gefunden hat.  Dann korrigiert die Anwendung die Position und Sichtbarkeit der virtueleln Information basierend auf dem Trackingverfahren.

Bestandteile einer Augmented Reality Anwendung

AR-Marker

Unter AR-Marker fällt alles, was die Anzeige der virtuellen Informationen auslöst. Für diese Definition fassen wir den Begriff “Marker” etwas weitläufiger.  Natürlich fallen alle visuellen Marker und diesen Punkt. Aber auch eine GPS Koordinate oder ein bestimmter Sound, wenn diese als Auslöser für die Anzeige der virtuellen Information genutzt werden. Zusätzlich zählen wir auch die Features zu , die während des markerlosen Tracking direkt erzeugt werden.

Trackingverfahren

Methoden zur Bestimmung der Position und Skalierung des AR-Markers relativ zum Nutzer bzw. zum Sensorinput. Beispiele sind visuelles oder GPS Tracking.

Sensorinput(Real world)

Hierbei meint man für gewöhnlich die Kamera, es sei denn es handelt sich um kein visuelles Tracking Verfahren. Bei Soundmarkern ist es ein oder mehrere Mikrofone und bei GPS Markern ist es der Input des GPS Moduls

Virtuelle Information

Heutzutage können die meisten Geräte eine Vielzahl von Informationen einblenden. Einige Möglichkeiten sind:

  1. Text : Dies kann entweder frontal zum User gerichteter 2D-Text(GUI) sein oder sogenannter 3D-Text der frei im Raum schwebt.
  2. Bilder: Dies können GUI-Bilder sein, Bilder die auf Bereiche der realen Welt projiziert werden oder bei AR-Brillen sogar stereographische Bilder sein.
  3. Videos: Videos werden entweder als Fullscreen Videos angezeigt oder , bei fortgeschrittenen AR-Anwendungen, auf Flächen in der realen Welt projiziert.
  4. 3D-Modelle: Durch die Nutzung von Technologien aus der Spielbranche lassen sich auch voll interaktive und animierte 3D-Modelle in den Raum projizieren.
War diese Information hilfreich?:
1 Star2 Stars3 Stars4 Stars5 Stars (3 votes, average: 5,00 out of 5)
Loading...