ARCore 101: Erstellen einer mobilen AR-Anwendung in Unity

0 Shares

Nachdem ARCore keine Entwicklervorschau mehr hat, ist es an der Zeit, Augmented-Reality-Apps für die unterstützte Auswahl der verfügbaren Android-Telefone zu erstellen. Da Googles ARCore 1.0 noch ziemlich neu ist, gibt es noch nicht viele Informationen für Entwickler – aber wir werden das gleich abmildern.

Sowohl die Augmented-Reality-Lösungen von Google (ARCore) als auch von Apple (ARKit) sind für die unterstützten vorhandenen Geräte vorgesehen – ohne dass zusätzliche Hardware erforderlich ist. Dies ist ein großer Fortschritt für AR-Entwickler, da Millionen dieser Geräte bereits in den Händen der Öffentlichkeit sind. Mit der Fähigkeit, Software zu erstellen, die “jetzt” von den Massen verwendet werden kann, hat sich der Wettlauf um den AR-Mobilfunkmarkt erheblich beschleunigt.

Wenn Sie Hilfe bei der Entwicklung für Apple-Geräte suchen, lesen Sie die ARKit 101-Sammlung von Next Reality. Andernfalls beginnen wir mit der Entwicklung mobiler AR-Apps für Android-Geräte mit Unity. Bevor wir jedoch direkt in den Unterricht eintauchen, lassen Sie uns ein wenig über die Funktionen von ARCore sprechen.

1. Bewegungsverfolgung

Ähnlich wie ARKit kann ARCore die Position und Drehung eines virtuellen Objekts in der realen Welt verfolgen. Dies wird als Bewegungsverfolgung bezeichnet.

Dieser Effekt wird durch eine Sammlung von Beschleunigungsmessern und Gyroskopen erreicht, die in eine sogenannte Trägheitsmesseinheit (IMU) eingebaut sind. In einem relativen Sinne kann eine IMU die Position und Drehung des Objekts bestimmen, an das sie gebunden ist.

Seit meinem allerersten Smartphone im Jahr 2008, dem HTC G1, sind in diese Geräte ziemlich ausgefeilte Sensoren eingebaut. Während die Gyroskope zu dieser Zeit mit den Beschleunigungsmessern, GPS-Empfängern und digitalen Kompassen fehlten, war der Layar-Browser schon damals eine coole Verwendung von AR.

Glücklicherweise ist Motion Tracking zu diesem Zeitpunkt mehr oder weniger ein gelöstes Problem, und wir als Entwickler müssen uns nicht wirklich mit der Eingabe und Ausgabe einer IMU befassen. Microsoft, Apple und Google können uns alle nur eine Schnittstelle in Unity geben, und es funktioniert einfach.

2. Umweltverständnis

Während die Bewegungsverfolgung mehr oder weniger gelöst ist, ist das Verständnis der Umwelt, der Begriff von Google für die Flugzeugfindung oder die Fähigkeit einer Standard-RGB-Kamera, Oberflächen wie Wände und Böden zu bestimmen, noch ziemlich neu. Obwohl auf dem Gebiet der Robotik umfangreiche Forschungsarbeiten durchgeführt wurden, um Maschinen zu helfen, die Bereiche zu verstehen, in denen sie sich bewegen, ist ihre Anwendung in Augmented Reality nicht zu leugnen.

Mit der Kombination aus Bewegungsverfolgung und Umgebungsverständnis erzeugt die Fähigkeit, ein virtuelles Objekt auf einem Tisch zu platzieren und dann Ihr Gerät zu bewegen, während das Objekt genau an derselben Position auf dem Tisch bleibt, eine ziemlich glaubwürdige Illusion.

3. Lichtschätzung

Die letzte Zeltstange dieser Technologie, die wirklich dazu beiträgt, die Illusion virtueller Präsenz zu verkaufen, wird als Lichtschätzung bezeichnet. Mit ARCore kann die Kamera des Smartphones die Lichtquelle in der Umgebung approximieren und diese in der Anwendung genau nachbilden. An diesem Punkt werden die Lichter und Schatten Ihres virtuellen Objekts so angezeigt, dass sie mit dem Raum um es herum übereinstimmen.

Glücklicherweise verarbeitet das von Unity erstellte ARCore SDK-Plugin diese Technologien automatisch für uns. Wir müssen Sie also durch die Grundlagen der Nutzung der Möglichkeiten dieser Tools führen und Sie mit AR über ARCore experimentieren lassen. Genau das möchten wir mit dieser Serie tun.

Was Sie in dieser Tutorial-Reihe lernen werden

Diese Serie soll neue ARCore-Entwickler mit dem Erstellen von AR-Apps vertraut machen. Wir beginnen mit der Installation und Einrichtung der Software, erstellen dann eine Unity-Szene und richten das Android ARCore SDK-Framework in dieser Szene ein. Wir werden dem mit einer Aufschlüsselung des Szenencontrollers folgen.

Als nächstes steht die Oberflächenerkennung auf dem Programm, mit der wir die Welt um uns herum in AR interpretieren können. Und schließlich werden wir uns mit dem Thema Flugzeugfertigung befassen, das es uns ermöglicht, virtuelle Objekte in unserer realen Welt zu positionieren.

Im weiteren Verlauf können Sie sich auf diesen Beitrag und die folgende Liste als praktisches Nachschlagewerk beziehen. Live-Links werden in jeder Folge der Serie angezeigt, wenn wir sie veröffentlichen.

    Einrichten der Software Einrichten des Frameworks App Controller einrichten Oberflächenerkennung aktivieren Flugzeug Fertighaus & Erkennung (Link kommt)

Natürlich können wir in Zukunft andere, spezifischere Dinge im Zusammenhang mit ARCore behandeln. Lassen Sie uns einfach wissen, was Sie sonst noch lernen möchten, und wir werden versuchen, Sie nach Abschluss dieser Serie unterzubringen. Während Sie Augmented-Reality-Apps entwickeln, werden Sie hier und da sicherlich ein paar Probleme haben, und wir werden hier sein, um Ihnen dabei zu helfen, diese herauszufinden!

Verpassen Sie nicht: Die HoloLens-Entwicklungshandbücher von Next Reality

0 Shares