Klicken Sie hier: XR und WP – WordPress-basiertes Spatial Computing
Veröffentlicht: 2023-07-07Willkommen bei Press This, dem WordPress-Community-Podcast von WMR. In jeder Folge sind Gäste aus der gesamten Community zu Gast und es werden Diskussionen über die größten Probleme geführt, mit denen WordPress-Entwickler konfrontiert sind. Das Folgende ist eine Transkription der Originalaufnahme.
Unterstützt von RedCircle
Doc Pop : Sie hören Press This, einen WordPress-Community-Podcast auf WMR. Jede Woche stellen wir Mitglieder der WordPress-Community vor. Ich bin Ihr Gastgeber, Doc Pop. Ich unterstütze die WordPress-Community durch meine Rolle bei WP Engine und meine Beiträge auf TorqueMag.Io, wo ich Podcasts erstellen und Cartoons und Tutorial-Videos zeichnen kann. Schau dir das an.
Sie können Press This auf Red Circle, iTunes, Spotify und Ihrer bevorzugten Podcasting-App abonnieren oder Episoden direkt bei wmr.fm herunterladen.
Heute haben wir einen ganz besonderen Gast, der ein Experte für Virtual Reality, Augmented Reality, XR, Metaverse, wie auch immer Sie es nennen wollen, und seine Schnittstelle zu WordPress ist. Doch bevor wir in die faszinierende Welt der VR eintauchen, beginnen wir mit den großen Neuigkeiten. Sie haben wahrscheinlich gehört, dass Apple eine bedeutende Ankündigung gemacht hat, dass sie dabei sind, den Virtual-Reality-Bereich aufzumischen.
Sie stellten das mit Spannung erwartete Vision Pro-Headset vor, das ein beeindruckendes und bahnbrechendes XR-Erlebnis verspricht. Diese Entwicklung hat ein erneutes Interesse und eine neue Begeisterung für das Metaverse, VR, wie auch immer man es nennen möchte, geweckt. Und es birgt großes Potenzial für WordPress-Entwickler und -Agenturen.
Kommen wir also zum Kern der heutigen Folge. Ich freue mich, Ihnen unseren Gast Anthony Burchell vorstellen zu dürfen. Anthony ist Softwareentwickler bei ACF und der brillante Kopf hinter dem innovativen Three Object Viewer-Plugin für WordPress. Jetzt ermöglicht dieses Plugin Websitebesitzern und WordPress-Websitebesitzern, Virtual-Reality-Erlebnisse und räumliche Erlebnisse direkt über ihre WordPress-Website auszuführen und gleichzeitig den Inhalt in einem virtuellen Raum zu verwalten, der WordPress-Benutzern sehr vertraut ist. Es ist das WordPress-Dashboard. Mit dieser erstaunlichen Technologie. Begrüßen wir also ohne weitere Umschweife Anthony Burchell in der Show. Anthony, vielen Dank, dass Sie sich uns angeschlossen haben. Beginnen wir damit, uns einfach zu erzählen, wie Sie zu WordPress gekommen sind.
Anthony Burchell: Ja. Eigentlich hängt es damit zusammen, wie ich zum 3D-Web gekommen bin. Ich habe damit angefangen, als ich noch sehr jung war. Früher habe ich Flash-Spiele gemacht, und daraus entwickelte sich natürlich die Erstellung von Flash-Websites, und dann begann ich, 3D-Flash-Websites zu erstellen, und ironischerweise hat Apple Flash irgendwie abgeschafft und ich habe damit aufgehört, 3D-Websites zu erstellen.
Also fing ich an, mich mit der nächsten Sache zu befassen, und genau zur gleichen Zeit kam WordPress mit benutzerdefinierten Beitragstypen auf den Markt und es begann, als hervorragende Möglichkeit zur Erstellung von Websites und nicht nur als Blogging-Plattform angesehen zu werden. Stell dir das vor. Irgendwie hat es geklappt.
Doc Pop: Während des Intros hast du wahrscheinlich gehört, wie ich darüber gestolpert bin, worüber wir genau reden werden, und ich möchte das nur ansprechen, weil ich das nicht geübt habe. Wir haben: VR, wir haben AR, wir haben das Metaverse. Ich glaube, jetzt gibt es XR. Was ist der bevorzugte Begriff, den wir für dieses Gespräch verwenden sollen, und können Sie beschreiben, was dieser Begriff bedeutet und verkörpert?
Anthony Burchell: Ja, also denke ich, dass XR wahrscheinlich derjenige ist, der sich im Laufe der Jahre bewährt hat. Und im Laufe der Jahre, zum Beispiel seit 2018, glaube ich, dass die Leute angefangen haben, das zu sagen. Ich denke, Spatial Computing ist eine wirklich gute Möglichkeit, es auszudrücken. Und ja, ich denke, es gibt einfach so viele Begriffe.
Ich denke, XR ist das Schöne, denn wenn ich an virtuelle Realität denke, denke ich nicht nur daran, vollständig einzutauchen, sondern auch an Mischungen aus Immersion, bei denen man einen Teil seiner Welt in einen virtuellen Raum eintauchen kann, sich aber trotzdem so fühlt Du bist irgendwo.
Doc Pop: Und wofür steht XR?
Anthony Burchell: Ich denke, die vereinbarte Definition ist erweiterte Realität oder so etwas in der Art.
Doc Pop: Erweiterte Realität. Nun ja, meiner Meinung nach ist es definitiv der Schlüssel zu all diesen Technologien, egal ob wir über VR oder AR oder das Metaversum oder XR sprechen, ich denke, der räumliche Raum ist eine große Komponente dessen, worüber wir sprechen.
Anthony Burchell: Ja, tatsächlich habe ich damals einen Artikel geschrieben, ich glaube, es war 2019 in WP Tavern und der Titel war, ich glaube, es war so etwas wie WordPress in der Spatial Computing-Zukunft des Internets, genau wie ein sehr schlagwortartiger Titel: aber das ist es im Wesentlichen. Spatial Computing, 3D-Internet.
Doc Pop: Die Fähigkeit, sich räumlich zu bewegen, um durch etwas zu navigieren, ist das, worüber wir sprechen, wenn wir über räumliches Rechnen sprechen. Und wie hat sich der Raum seit der Ankündigung von Apple mit dem Einstieg von Apple in XR verändert?
Anthony Burchell: Ich denke, eines der Dinge ist, dass es ein großes Aufatmen gab, zumindest in dem Kreis, in dem ich bin. Ich baue auf dem WebXR-Standard auf, das heißt, alles, was räumlich passiert, geschieht über einen Browser und Es gibt einen Standard, den viele Browser, ich denke alle Browser, die meisten Browser akzeptiert und unterstützt haben.
Und das ermöglicht Ihnen, im Browser auf eine einzige Schaltfläche zu klicken und einzugeben. Ich glaube, die Community war sehr erleichtert, nur weil Apple einen Tag gewartet hat. Am zweiten Tag nach der Ankündigung gaben sie bekannt, dass WebXR unterstützt wird und WebXR vollständig immersiv ist. Und ich fand es wirklich interessant, weil Apple nichts gezeigt hat, keine virtuelle Realität, nichts völlig eingetauchtes, wo die gesamte Umgebung, in der man sich befindet, verschwindet und man irgendwo ist.
Genau das ermöglicht Ihnen WebXR. Deshalb fand ich es wirklich interessant, dass die beste Leinwand, die wir haben, dies zulässt. Völlig immersive Erlebnisse. Also ja, ich denke, die allgemeine Meinung ist nicht, dass sich jeder einen Vision Pro kaufen und dafür 3.500 US-Dollar ausgeben wird, aber es zeigt, dass Apple Vertrauen in webbasierte Standards und in Spatial Computing im Allgemeinen hat.
Ich denke, das ist die größte Erkenntnis. Und ich persönlich war wirklich begeistert, weil ich mein Plugin bereits in Vision Pro mit dem SDK getestet habe und alles zu funktionieren scheint und mit den WebXR-Standards übereinstimmt, die mit den Headsets Quest Pro, Quest und Vive funktionieren .
Doc Pop: Und in der XR-Community gab es schon immer diesen Raum, diese Idee, dass man kein schickes Headset haben muss, um einiges davon erleben zu können. Es gab die Idee, dass einige Benutzer vielleicht einfach ihr Telefon hochhalten und es nutzen würden, um räumlich durch etwas zu navigieren, indem sie auf ihr Telefon schauen, es aber in verschiedene Richtungen richten und bewegen.
Daher besteht die Hoffnung vielleicht, dass Apple Vision Pro für die Apple Vision Pro-Community gut ist, es könnte aber auch Interesse bei Leuten wecken, die vielleicht mit ihrem Telefon navigieren möchten, weil es dieselben Standards unterstützen wird.
Anthony Burchell: Nun, das ist eines der interessanten Dinge, die Apple noch ankündigen muss: ob sie den WebXR-Standard für die Zusammenarbeit mit Safari auf dem mobilen Handheld-Browser zulassen werden. Im Moment sollten sie nicht negativ sein, aber sie haben eine Menge Innovationen in der WebXR-Community zurückgehalten, nur weil sie auf dem Telefon nicht akzeptiert wurden, was Ihnen ermöglichen würde, so etwas wie Navigieren durchzuführen indem Sie Ihr Telefon in die Hand nehmen und durch einen Raum gehen und so etwas.
Derzeit ist dies nur mit einem Android-Gerät möglich. Mit dem Plugin, das ich erstelle, habe ich eine Möglichkeit für Leute, AR als Ziel für die Anzeige eines 3D-Objekts zu verwenden. Das Problem ist, dass es nur auf Android funktioniert. Ich denke, das ist eines der Dinge, die noch geklärt werden müssen.
Das eindeutig gute Signal ist jedoch, dass Vision Pro diesen WebXR-Standard in einer Flagge akzeptiert, die Sie im Safari-Browser aktivieren können. Es ist also ein gutes Signal in die richtige Richtung, und ich kann mir gut vorstellen, dass sie dies in naher Zukunft auf Mobiltelefonen nicht zulassen würden.
Doc Pop: Wenn wir über die XR-Standards sprechen, die WebXR-Standards, bin ich nur ein bisschen neugierig. Signalisiert Apple damit, dass sie für einige Dinge ihre eigenen Standards erstellen werden? Und gibt es Brücken zwischen diesen Standards?
Anthony Burchell: Ja. Nun, WebXR ermöglicht Ihnen eine einheitliche Art der Controller-Eingabe, eine Möglichkeit, ein Erlebnis zu betreten. So wie bei dieser Schaltfläche, auf die Sie klicken, um VR zu betreten, haben Sie nur eine Standardmethode, um zu wissen, wann Sie ein Erlebnis betreten und wann es die Seite übernehmen soll.
Das ist es, was WebXR als Standard spezifiziert, und Apple hat nicht wirklich etwas herausgebracht, das so weit geht, dass sie ein Standard sein wollen. Stattdessen haben sie signalisiert, dass sie die Funktionen der aktuellen 3D-Apps übernehmen wollen, von denen die meisten in Unity erstellt werden.
Und ich fand es wirklich interessant, als sie Vision Pro ankündigten, dass sie es mit einem Unity-Logo ankündigten und sagten, wir werden alle Entwickler, die in Unity bauen wollen, dabei unterstützen, ihre Kreationen in Vision Pro zu integrieren. Sie orientieren sich also einfach an dem, was gerade für die Branche funktioniert. Also ich fand das wirklich großartig.
Aber sie haben nicht mit aller Deutlichkeit gesagt: Das sind Ihre künftigen Maßstäbe.
Eine Sache, in die sie viel Mühe gesteckt haben, ist der 3D-Dateityp, den sie nativ unterstützen, nämlich den USDZ-Standard. Und das ist der Pixar-Dateiformatstandard. Stellen Sie es sich wie eine Photoshop-Datei vor, aber für 3D-Assets gibt es verschiedene Versionen dieser Dateien, die wie eine komprimierte Version oder eine gezippte Version sein können, in der alle Assets gebündelt sind. Sie haben sich also wirklich sehr auf diesen Dateistandard konzentriert.
Der Dateistandard, in den ich persönlich meine ganze Mühe gesteckt habe, ist der GLTF-Standard, da es sich eher um einen offenen Standard handelt. Es ist einfacher, sich an den Arbeitsgruppen zu beteiligen, die diese Standards definieren. Also ja, es gibt alle möglichen Richtungen und die Leute arbeiten in unterschiedlichen Schwerpunkten, aber alle kommen zu dem Schluss, dass wir diese Schnittstellen herausfinden müssen.
Apple war gewissermaßen rechthaberisch, als es sagte, es handele sich um eine Art stationäres Gerät. Es schien, als hätten sie es als stationäres Gerät positioniert, da die Räume, die sie zeigten, größtenteils nur eine Person darstellten, die sich hinsetzte. Ich denke also, dass sie sich auf die 2D-Interface-Interaktionen konzentrieren wollen und einfach auf eine stationäre Person, während Unternehmen wie Meta versuchen, Ganzkörper-Tracking durchzuführen und tiefergehende Ausdrucksmöglichkeiten und mehr Tracking-Punkte bevorzugen, damit Sie dies tun können Das.
Doc Pop: Dies ist ein guter Ort für uns, um eine kurze Pause einzulegen, und wenn wir zurückkommen, werden wir weiter mit Anthony Burchell darüber sprechen, was Apples Ankündigung für die XR-Community bedeuten könnte und was WordPress-Entwickler darüber wissen müssen Tools, mit denen sie XR in einer WordPress-Umgebung zum Laufen bringen können. Seien Sie also gespannt auf mehr nach der Pause.
Doc Pop: Willkommen zurück bei Press This, einem WordPress-Community-Podcast. Heute sprechen wir mit Anthony Burchell, einem Softwareentwickler bei ACF und dem Erfinder von 3OV, Three Object Viewer für WordPress. Anthony, wir haben vorher darüber gesprochen, was XR ist, und wir haben im Grunde gesagt, dass es der Standardbegriff VR und AR ist und einige der anderen Metaverse-Begriffe irgendwie gekommen und gegangen sind.
XR scheint der langlebigste zu sein. Also lasst uns darüber reden. Was WordPresser über XR wissen müssen? Gibt es bereits XR-Unterstützung in WordPress?
Anthony Burchell: Nicht nativ. Sie müssen sich für das Plugin entscheiden. Auch hier habe ich vor einem Jahr tatsächlich versucht, dies zu erkunden. Ich glaube, im März 2022 habe ich das Three Object Viewer Plugin veröffentlicht. Und das Plugin war sozusagen die Antwort auf diese Frage. Es war so, als ob das, was in WordPress derzeit fehlt, auf ein absolutes Minimum beschränkt ist, nämlich nur die Anzeige von 3D-Objekten auf meiner Website.
Und vielleicht können Sie auf die Schaltfläche „VR“ klicken und sich von der Umgebung umhüllen lassen. Und das war im März letzten Jahres. Seitdem hat es sich zu einem echten Weltenbauer entwickelt. 3D-Blöcke, mit denen Sie eine Szene erstellen können. Um jetzt zu beginnen, können Sie einfach das Three Object Viewer Plugin installieren. Eine andere Alternative besteht darin, dass Sie mit der Rendering-Engine erstellen könnten, die ich im Plugin verwende und die Three.js heißt.
Sie können Three.js ganz einfach direkt im Header der Datei in eine Front-End-Webseite einbetten und schnell einige Szenen mit JavaScript erstellen, um es den Leuten zu ermöglichen, in VR einzutreten und eine vollständig XR-fähige Website zu haben.
Heutzutage gibt es also nichts, was WordPress wirklich stoppen könnte, abgesehen davon, dass das Dateiformat für das Web sozusagen auf GLTF-Dateien festgelegt wurde. Daher müssen Sie Unterstützung für GLB-Dateien hinzufügen, bei denen es sich um Binärdateien eines 3D-Objekts handelt. Und das ist etwas, was das Three Object Viewer Plugin tut: In der Medienbibliothek können Sie GLB-Dateien und dann auch ein Avatar-Format namens VRM hochladen, das GLB-Dateien sehr ähnlich ist, aber mehr Metadaten und Erweiterungen für Avatare enthält innerhalb dieser Zeichen.
Also ja, so könnte man komponieren. In meinem Plugin können Sie einfach den 3D-Umgebungsblock öffnen, der über eine Reihe innerer Blöcke verfügt, in denen Sie Dinge wie Modelle, NPCs, Videos und Bilder auswählen und sie dann in einer 3D-Szene in Ihrem Editor positionieren können. Und das alles geschieht sehr nativ, genau so, wie Sie es in blockbasierten Vorlagen erstellen würden.
Das ist also eine Möglichkeit. Die andere Möglichkeit besteht darin, dass Sie es einfach in einem Programm namens Blender erstellen können. Und es gibt viele Künstler da draußen, die nach Arbeit suchen, um Blender-Szenen zu bauen. Und Sie könnten ganz einfach eine einfache Ein-Objekt-Szene erstellen und diese mit etwas wie Three.js oder dem Three Object Viewer auf einer Seite platzieren und den Leuten den Zugriff darauf ermöglichen.
Nun, das ist der Teil, wo es etwas schwieriger wird, denn man braucht Player-Controller und alle Arten von Logik, worauf ich mich im letzten Jahr konzentriert habe. Es ist also so etwas wie das, was Sie bauen möchten. Als ob es darauf ankommt, welches Problem Sie lösen möchten?
Und im Moment löst das räumliche Netz nicht viele Probleme, weil wir immer noch versuchen herauszufinden, was es ist. Aber ich sehe eine Zukunft, in der wir Dinge wie Geschäfte und permanente KI-Agenten in unserem Laden haben werden, die für uns verkaufen, was ich bereits habe. Wenn Sie unten auf der Seite zu 3OV.XYZ gehen, können Sie meine KI laden, die alles über das Three Object Viewer Plugin weiß, und Sie können mit ihr chatten und ihr Fragen dazu stellen.
So kann man also über das Bauen nachdenken: Ich mag es, mit einem Problem zu beginnen und von dort aus fortzufahren.
Doc Pop: Ich habe das Gefühl, wir könnten über Front-End und Back-End sprechen, und ich habe das Gefühl, dass wir über das Front-End sprechen, und vielleicht verwende ich diese Begriffe falsch, aber ich habe das Gefühl, dass wir über das Front-End reden, wie über die Website Besucher kommen und es hat Three.js, das ist es also, was die 3D-Wiedergabe antreibt, und der Benutzer könnte Apple Vision Pro oder ein Telefon oder eine Art VR-Headset haben.
Worüber ich sprechen möchte, ist das Backend, denn das ist eines der Dinge, die mich am Three Object Viewer immer umgehauen haben, nämlich, wenn man eine räumliche Szene hat, man Inhalte hat, man eine Wand hat, man eine andere Wand hat, Sie haben Boden, Sie haben einen Charakter, Sie haben Audio, Sie haben Objekte an der Wand oder schwebende Objekte und der beste Weg, Inhalte zu verwalten, wäre in WordPress, es scheint, richtig, ein sehr einfacher Weg, einfach eine Menge Inhalte zu erstellen und es verwalten, ein Content-Management-System, und ich finde es wirklich gut, dass es im Grunde das ist, wofür man sich wirklich auf WordPress verlässt, nämlich für die Verwaltung aller Inhalte, die eine Szene ausmachen, und dann hat man so etwas macht etwas Magie und ermöglicht nun die Anzeige im Frontend.
Ist das eine gute Beschreibung?
Anthony Burchell: Ja. Sie verwenden den Blockeditor, um 3D-Szenen zu erstellen. Genau das ist es. Und das Schlagwort des Plugins, das ich verwende und das ich schon sehr lange sage, ist, dass ein Beitrag ein Ort ist, und bis jetzt war ein Beitrag nur ein asynchroner Ort, an den man gehen und gehen kann Kommentare.
Aber jetzt wird es zu einem Ort, an dem man eine Website besucht. Und jemand anderes könnte bei dir sein. Es könnte sein, dass es einen NPC gibt, und es könnte sich so anfühlen, als wäre dieser NPC real und mit Ihnen im Raum, interagiert mit Ihnen und gibt personalisierte Empfehlungen, basierend darauf, dass Sie eingeloggt sind und was er über Sie weiß.
Wir betreten also wirklich dieses neue, unbeschriebene Blatt des Internets. Es ist eine Weiterentwicklung des Webs, bei der wir endlich aus diesen Bildschirmen ausbrechen und nach außen gehen und etwas hineinbringen können. Eines der Dinge, an denen ich bald arbeiten werde, sind KI-Agenten, in die man sie einsetzen kann in gemischter Realität.
Wenn Sie also das Apple Vision Pro tragen und sie behaupten, es sei etwas, das Sie den ganzen Tag tragen können, und sie darauf abzielen, scheint es sich um einen Monitorersatz zu handeln. Aber ich stelle mir das so vor, dass Sie an Ihrer Gutenberg-Vorlage, Ihrer Blockvorlage arbeiten und dann direkt neben Ihnen an der Seite Ihres Schreibtisches Ihr KI-Agent steht, der Empfehlungen gibt oder vielleicht Schilder hochhält eine Reihe von Inhaltsempfehlungen oder Möglichkeiten, wie Sie Dinge oder Meta-Beschreibungen oder einfach beliebige Informationen umformulieren können. Vielleicht steht ein Treffen an.
So sehe ich also die Zukunft von WordPress und XR, und wenn die kollaborative Bearbeitung bald in WordPress verfügbar sein wird, werde ich das im Frontend vollständig nutzen, damit ich den Leuten die gemeinsame 3D-Bearbeitung ermöglichen kann.
Ich habe heute einen funktionierenden Prototyp davon, aber ich möchte zuerst sehen, was WordPress macht, damit ich das vielleicht einfach verwenden kann.
Doc Pop: Wenn ein Kunde die Neuigkeiten über Apples Vision Pro hört, wirklich begeistert ist und mit seiner Agentur oder einem Webentwickler darüber sprechen möchte, wie wir XR in unsere Website integrieren können? Welche Tipps haben Sie für ein nahtloses Erlebnis und für Leute, die zum ersten Mal eine XR-Website erstellen?
Anthony Burchell: Ja, eine Sache, die ich mache, ist, es nicht ganz oben auf Ihrer Seite zu platzieren. Es ist eines dieser Dinge, es kann zu einer Falle werden. Deshalb platziere ich es gerne ganz unten, weil Cursor hineinklicken und im Raum stecken bleiben können. Und es ist im Moment einfach keine tolle Erfahrung. Die UX findet immer noch heraus, wie man Menschen richtig in Erlebnisse einbezieht.
Und ich vergleiche es mit der Umstellung auf das mobile Web. Als Desktop-Websites noch auf Mobilgeräte reagierten, gab es jetzt dieses neue Web der Zukunft, in dem sie 3D-responsiv sein würden. Und lange Zeit reagierten mobile Websites nicht besonders gut auf Mobilgeräte.
Die Leute erstellten separate Websites, um sogar den mobilen Datenverkehr und ähnliches zu bewältigen. Also werden wir es für eine Weile falsch machen. Aber im Moment wäre die Art und Weise, wie Sie es tun würden, wie ein Rahmen. Der Three Object Viewer macht das so, dass Sie ein Vorschaubild festlegen, und das ist das Bild, das den Leuten zeigt, welchen Raum sie betreten werden. Und dann gibt es in der Mitte einen Knopf mit der Aufschrift „Load World“. Und Sie klicken auf „Welt laden“ und die Welt wird in diesem Container gerendert. Und dann wird ganz oben auf dem Bildschirm so etwas wie „In VR eingeben“ oder „In AR eingeben“ angezeigt.
Und dann könnten Sie klicken, wenn Sie sich in einem Gerät befänden, etwa in einem Headset, würden Sie beim Apple Vision Pro einfach Ihre Hände oder Ihre Augen benutzen, auf die Schaltfläche schauen und dann die Klickbewegung mit Ihren Händen ausführen. Und dann würde es auf die Schaltfläche klicken und Sie in die virtuelle, vollständig immersive virtuelle Realität eintauchen lassen.
Und wenn Sie dann da drin sind, schwebt immer ein kleiner Pfeil über Ihnen. Egal wohin Sie Ihren Kopf drehen, der Pfeil folgt Ihnen. Und Sie schauen einfach auf diesen Pfeil und klicken mit der Hand und es öffnet sich ein Menü, um das immersive Erlebnis zu verlassen und zur Webseite in zweidimensionaler Darstellung zurückzukehren, so wie ein Monitor auf Ihrem Laptop oder Ihrem Desktop aussehen würde.
Doc Pop: Es ist wirklich cool, dass Sie diese Erfahrung mit Apples Headset gemacht haben, über die wir nach dieser nächsten Pause sprechen können. Bevor wir es tun, Anthony, was ist Ihr bisher liebstes VR- und AR-Erlebnis? Nur kurz: Was hast du auf dieser Welt am liebsten gemacht?
Anthony Burchell: Ich mag es, im VR-Chat um die Welt zu hüpfen, einfach mit Freunden von Raum zu Raum zu hüpfen. Das ist wahrscheinlich meine Lieblingsbeschäftigung. Es gibt eine Konferenz namens VCAT, den virtuellen Markt, und ich denke, jeden Sommer und Winter versammeln sie eine Reihe von Kreativen in VRChat und stellen ihnen einen Stand zur Verfügung, an dem sie sich ausdrücken und ihre Arbeit zeigen können.
Und ich liebe es, mit Freunden dorthin zu gehen, einfach von Stand zu Stand zu hüpfen und die kleinen Hüte und Dinge anzuprobieren, die sie herstellen. Ich habe sogar einen Stand für eine bevorstehende VCAT, an der ich arbeite. Ich denke, VR-Chat ist derzeit einfach das beste Erlebnis für das Metaverse. Es ist wirklich das Komplettpaket. Es verfügt über Ganzkörper-Tracking und alle gewünschten Funktionen.
Doc Pop: Nun, wir machen eine letzte Pause und wenn wir zurückkommen, werden wir unser Gespräch mit Anthony Burchell über XR-Erlebnisse und seine Erfahrungen mit dem Apple Vision Pro abschließen. Bleiben Sie also dran.
Doc Pop: Willkommen zurück bei Press This, einem WordPress-Community-Podcast. Ich bin Ihr Gastgeber, Doc Pop. Heute spreche ich mit Anthony Burchell, und kurz vor dieser Pause erzählte uns Anthony von seinen Erfahrungen mit dem Apple Vision Pro SDK und Anthony, Sie haben das Headset noch nicht wirklich verwendet, aber Sie haben das SDK verwendet, und zwar irgendwie ein ziemlich gutes Gefühl dafür, wie es sich vielleicht anfühlen wird.
Anthony Burchell: Ja. Ich glaube, Apple hat gerade vor etwa fünf Tagen Xcode 15 Beta 2 veröffentlicht, und diese Version von Xcode führt das Vision Pro SDK ein. Und darin ist auch ein Simulator enthalten. Und der Simulator kann im Wesentlichen alles, was der Vision Pro kann.
Es ist im Wesentlichen das Gerät. Schon heute können Sie ein Gefühl für die Schnittstellen bekommen. Das allererste, was ich tat, war, Xcode zu öffnen. Ich habe den Simulator geöffnet und bin direkt zur 3ov.xyc-Website gegangen. Ich bin nach unten gegangen, habe auf die Schaltfläche „Welt laden“ geklickt und konnte so herausfinden, ob es dort funktionieren wird. Und das Einzige, was ich bisher nicht testen konnte, und das Einzige, wofür sie nicht wirklich einen Emulator implementiert haben, ist in WebXR eine Eingabe, die man mit einem Fingerklick mag, das tut es nicht, das tut es existiert noch nicht. Teleportation funktioniert also nicht, aber es wird funktionieren, sobald es herauskommt.
Was mir im Moment fehlt, ist nur das Headset, um die Eingabesteuerung zu ermöglichen. Aber wenn sie dem WebXR-Standard entsprechen, werden sie meines Wissens nach einfach die Augen als Laser verwenden, auf die die Controller einen Laser richten würden, und dann das Tippen mit den Fingern als Klick.
Es wird also wahrscheinlich genau das Gleiche bewirken wie die aktuellen Erfahrungen mit anderen Headsets, bei denen man den Controller hält, den Laser dorthin richtet, wo man hin will, und dann auf den Auslöser klickt, um dorthin zu gelangen. Das wird wahrscheinlich der Fall sein, aber sie werden den Laser und den Auslöser trennen, sodass Sie zwei Eingaben haben, Ihre Augäpfel und Ihre Finger, um diese zu verwenden
Doc Pop: Wir müssen einfach ansprechen, wie verrückt das ist. Es gibt also existierende Headsets, aber was wirklich mit dem Apple-Headset gemacht wird, das es irgendwie hervorstechen lässt, könnte es zu etwas machen, das es irgendwie kreuzt. Was die Leute definitiv am meisten begeistert, ist die Kombination aus Gesten und Eingaben.
Die Eingaben sind diese Kameras um Ihre Augen, um Ihr Gesicht, und sie verfolgen tatsächlich, was Sie sehen. Und es ist tatsächlich eine Vorwegnahme, wie ich gehört habe, es ist eine Vorwegnahme, dass es tatsächlich Bescheid weiß, bevor man klickt. Der Klick bestätigt es also oder was auch immer. Aber nach allem, was ich gehört habe, zeigen die Untersuchungen, die sie bei Apple durchgeführt haben, dass sie tatsächlich erkennen können, wann Sie klicken werden, bevor Sie überhaupt Ihre Hände bewegen.
Aber die Eingabe wird sich so anfühlen, als ob Ihre Hände etwas tun und Ihre Augen einfach in eine Richtung schauen, und das konnten Sie noch nicht testen. Aber alles andere, was Sie sagen, funktioniert irgendwie. Sie haben die WordPress-Website tatsächlich über das SDK erlebt.
Anthony Burchell: Ja. Ja, es funktioniert völlig. Und es ist erwähnenswert, dass das Quest Pro über Hand-Tracking verfügt, und es ist sehr ähnlich, wo man die Finger schließt, um zu klicken, um irgendwohin zu gelangen, und ich war tatsächlich kürzlich auf dem Meta-Campus und habe einen Hackathon gemacht, weil sie wollten, dass die Leute mit der Hand bauen Bewusstsein und auch Tischbewusstsein und solche Dinge.
Also baute ich einen Hackathon auf, bei dem wir Schmetterlinge hatten, die von Tisch zu Tisch flogen, weil wir wussten, dass es Tische gab. Der einzige Unterschied zwischen dem Quest Pro und dem Vision Pro besteht darin, dass Sie beim Quest Pro mit den Händen den Laser ausrichten und einfach mit dem Finger klicken, um dorthin zu gelangen.
Und das funktioniert derzeit mit 3OV. Wenn Sie also ein Gefühl für die Benutzeroberfläche bekommen möchten, können Sie dies heute in einem Quest Pro tun. Aber ja, Apple hat es wirklich auf die nächste Ebene gebracht, indem es diese getrennt und, glaube ich, eine Art Verhaltensanalyse darüber durchgeführt hat, was Sie tun, während Sie surfen.
Nach allem, was sie sagen, bleibt alles auf dem Gerät. Das ist also ein gutes Zeichen. Es ist einfach ein wirklich aufregendes Gerät. Ich hoffe, dass ich eines in die Finger bekomme. Die Entwicklerkits werden im Juli eröffnet. Wenn also Agenturen im Juli mit der Planung auf der Website von Apple beginnen möchten, können Sie meiner Meinung nach einfach nach „Dev Kit Vision Pro“ googeln.
Sie werden eine Anwendung öffnen, damit Sie ein Entwicklungskit erhalten können. Und sie sind bekanntermaßen ein Unternehmen, das ihre Entwicklungskits zurückholt, sobald Sie fertig sind. Sie erhalten also kein kostenloses Vision Pro, aber Sie können beruhigt sein, wenn Sie wissen, dass Sie mit der Aktivierung beginnen können.
Doc Pop: Nun, Anthony, ich schätze Ihre Zeit heute sehr. Es macht wirklich Spaß, mit Ihnen über diesen neuen Raum zu sprechen. Wenn die Leute mehr darüber erfahren möchten, woran Sie gerade arbeiten, wie man das am besten macht und wo sie auch mehr über Three Object Viewer erfahren können.
Anthony Burchell: Ja, wenn sie mehr darüber erfahren möchten, woran ich arbeite, blogge ich auf 3OV.XYZ. Ich blogge dort viel. Und wenn Sie noch heute mit dem Plugin beginnen möchten, ist es ein kostenloses Plugin im WordPress Plugin Repository. Suchen Sie einfach nach Three Object Viewer.
Ich denke, Sie können sogar Metaverse durchsuchen und es wird angezeigt, es installieren und dann einen neuen Beitrag erstellen und den 3D-Umgebungsblock hinzufügen, und schon haben Sie begonnen, also ja.
Doc Pop: Vielen Dank, dass Sie sich Press This angehört haben, einen WordPress-Community-Podcast auf WMR. Ich heiße noch einmal Doc und Sie können meine Abenteuer mit dem Torque-Magazin auf Twitter @thetorquemag verfolgen oder auf Torquemag.io gehen, wo wir jeden Tag Tutorials, Videos und Interviews wie dieses beisteuern. Schauen Sie sich also Torquemag.io an oder folgen Sie uns auf Twitter. Sie können Press This auf Red Circle, iTunes, Spotify abonnieren oder es jede Woche direkt bei wmr.fm herunterladen. Ich bin Ihr Gastgeber Doctor Popular. Ich unterstütze die WordPress-Community durch meine Rolle bei WP Engine. Und ich liebe es, jede Woche auf Press This Mitglieder der Community ins Rampenlicht zu rücken.
Doc Pop: Vielen Dank, dass Sie sich Press This angehört haben, einen WordPress-Community-Podcast auf WMR. Ich heiße noch einmal Doc und Sie können meine Abenteuer mit dem Torque-Magazin auf Twitter @thetorquemag verfolgen oder auf Torquemag.io gehen, wo wir jeden Tag Tutorials, Videos und Interviews wie dieses beisteuern. Schauen Sie sich also Torquemag.io an oder folgen Sie uns auf Twitter. Sie können Press This auf Red Circle, iTunes, Spotify abonnieren oder es jede Woche direkt bei wmr.fm herunterladen. Ich bin Ihr Gastgeber Doctor Popular. Ich unterstütze die WordPress-Community durch meine Rolle bei WP Engine. Und ich liebe es, jede Woche auf Press This Mitglieder der Community ins Rampenlicht zu rücken.