Catégorie : Actualités

  • HTC est en train de travailler sur un smartphone métaverse

    HTC est en train de travailler sur un smartphone métaverse

    Le smartphone métaverse VR/AR de HTC pourrait être annoncé dès le mois prochain.

    HTC est en train de travailler sur un smartphone métaverse
    HTC est en train de travailler sur un smartphone métaverse

    Il semble que HTC revienne dans le jeu des smartphones après une interruption de près de quatre ans. Selon un nouveau rapport de la publication taïwanaise DigiTimes, la division VR de la société, HTC Vive, travaille sur un appareil mobile tout-en-un axé sur les fonctionnalités VR et AR.

    Lors d’un entretien avec DigiTimes, le vice-président de HTC, Charles Huang, a confirmé que l’appareil fonctionnera en tandem avec Viveverse et sera doté d’une fonctionnalité « métaverse » intégrée. Révélé la semaine dernière lors de la 2022 Mobile World Conference (MWC) à Barcelone, Viveverse est un métaverse open-source composé de divers mondes interactifs, d’applications et de jeux accessibles via un smartphone, un PC et le Vive Flow, les nouvelles lunettes VR « autonomes » de la société.

    Si cela est vrai, cela ferait de l’appareil mobile compatible avec la RV le premier smartphone produit par HTC depuis le HTC U12+, qui a été dévoilé en 2018. Selon DigiTimes, le smartphone métaverse de HTC alimenté par Android pourrait être annoncé dès le mois prochain, bien que la société n’ait pas encore confirmé. La nouvelle arrive à un moment intéressant, HTC ayant tout récemment dévoilé son propre métaverse original.

    Alors que d’autres entreprises continuent de s’éloigner de la RV mobile, HTC semble embrasser le marché vieillissant en cherchant de nouvelles façons d’intégrer la technologie du smartphone dans sa gamme de produits existante. Le Vive Flow nécessite déjà un smartphone fonctionnant sous Android pour fonctionner. Peut-être que ce smartphone métaverse fonctionnera en tandem avec les lunettes VR légères de la société.

    Espérons que nous en saurons plus sur cet appareil unique au cours du mois prochain.

  • Le développeur de Jurassic World Aftermath travaille sur le titre de lancement du PSVR 2

    Le développeur de Jurassic World Aftermath travaille sur le titre de lancement du PSVR 2

    Le développeur VR de longue date Coatsink de Jurassic World Aftermath travaille sur un titre de lancement pour le PSVR 2.

    Jurassic World Aftermath
    Jurassic World Aftermath

    Comme l’indique Reddit, un récent rapport financier de la société mère Thunderful mentionne que l’équipe « travaille actuellement sur un titre de lancement pour le PSVR2, la console VR de nouvelle génération de PlayStation ».

    Coatsink travaille sur un titre de lancement pour le PSVR 2

    Il n’y a pas d’autres informations sur ce que pourrait être le jeu pour le moment, ni aucune indication sur la fenêtre de lancement du PSVR 2. Nous croisons toujours les doigts pour un lancement en 2022, bien que la pénurie actuelle de composants puisse y faire obstacle.

    Bien qu’elle développe et publie également des jeux sur écran plat, Coatsink a une longue histoire avec la RV, ayant commencé avec la série Esper sur Gear VR il y a environ 10 ans maintenant. Il a depuis contribué à des titres importants comme Onward et a récemment publié la deuxième partie du jeu Jurassic World Aftermath sur Quest.

    Le studio pourrait-il porter l’un de ses anciens titres sur le PSVR 2 ? Jurassic World et le titre de lancement de Quest, Shadow Point, semblent être de bons candidats, mais le studio pourrait tout aussi bien travailler sur quelque chose de nouveau.

    Hier, Sony a dévoilé pour la première fois un aperçu du casque PSVR 2 lui-même. Jusqu’à présent, nous n’avons vu qu’un seul jeu PSVR 2 en action, Horizon Call of the Wild, tandis que les studios indépendants derrière Runner, Low-Fi et Samurai Slaughterhouse ont tous confirmé qu’ils apporteraient leurs jeux au casque. Nous suivons ici tous les jeux confirmés et les rumeurs concernant le PSVR 2.

    À votre avis, sur quoi Coatsink pourrait-il travailler pour le PSVR 2 ? Faites-le nous savoir dans les commentaires ci-dessous !

  • La mise à jour Quest v37 ajoute un menu rapide pour le suivi de la main et plus

    La mise à jour Quest v37 ajoute un menu rapide pour le suivi de la main et plus

    La mise à jour Quest v37 ajoute un menu rapide pour le suivi de la main, la prise en charge du clavier magique d’Apple et plus encore.

    La mise à jour Quest v37 ajoute un menu rapide pour le suivi de la main et plus
    La mise à jour Quest v37 ajoute un menu rapide pour le suivi de la main et plus

    La version complète de Meta Quest v37 sort aujourd’hui avec une poignée de nouvelles fonctionnalités.

    Tout d’abord, il y a le support d’un tout nouveau clavier – le Magic Keyboard d’Apple. Une fois la v37 installée, vous pourrez activer la prise en charge de l’appareil dans les paramètres des fonctions expérimentales de Quest, ce qui signifie que votre casque suivra la position de l’appareil et vous le montrera dans la RV. Il s’agit du premier nouveau clavier à être ajouté à Quest depuis que la fonctionnalité a fait ses débuts avec le Logitech K830 l’année dernière.

    Sortie de la mise à jour Quest v37

    Par ailleurs, la v37 introduit le partage de liens entre l’application Oculus et le casque. Il suffit de partager un lien vers un site Web avec votre casque via l’application pour que vous puissiez y accéder lors de la prochaine utilisation de votre Quest.

    Peut-être plus intéressant encore, il y a un nouveau menu d’action rapide pour le suivi des mains. Auparavant, vous pouviez pincer votre pouce et votre index pour appuyer sur le bouton Oculus et accéder au même menu que celui des manettes tactiles. Désormais, cette action fera apparaître un menu rapide spécifique au suivi de la main, qui comprend des options pour prendre des captures d’écran et activer des commandes vocales.

    Enfin, la mise à jour vous permet de changer de mode d’affichage pour les panneaux 2D. Le  » mode tablette  » est essentiellement le même que la configuration existante, avec une fenêtre plus grande et plus proche de vous. Mais le  » mode bureau  » vous permet d’éloigner l’écran, ce qui vous permet de faire plus facilement du multitâche. La section « Explorer » du menu a également été mise à jour.

    Pas mal pour la première série de mises à jour de l’année, donc. Comme toujours, la mise à jour sera déployée progressivement, donc, si vous ne l’avez pas en ce moment, donnez-lui un peu de temps. Précédemment, nous avons rapporté que la version Public Test Channel de la mise à jour v37 inclut un aperçu caché de la fonctionnalité multijoueur Horizon Home, bien que cela ne semble pas se concrétiser pour le moment.

  • Lunettes AR pour les entreprises et les consommateurs : Une conversation avec Paul Travers de Vuzix

    Lunettes AR pour les entreprises et les consommateurs : Une conversation avec Paul Travers de Vuzix

    Le président-directeur général de Vuzix parle de l’actualité et des prévisions concernant les lunettes AR.

    Lunettes AR pour les entreprises et les consommateurs : Une conversation avec Paul Travers de Vuzix
    Lunettes AR pour les entreprises et les consommateurs : Une conversation avec Paul Travers de Vuzix

    À l’heure actuelle, vous avez probablement vu que Vuzix a lancé deux nouvelles lunettes intelligentes AR au CES – l’une pour les entreprises et l’autre pour le grand public. Alors que la poussière de ces annonces retombait, on a eu un appel vidéo avec le président et PDG de Vuzix, Paul Travers, sur ce que cette nouvelle et d’autres signifient pour Vuzix et l’industrie de la RA en général.

    Quoi de neuf chez Vuzix ?

    Au début du mois, le fabricant de lunettes AR intelligentes Vuzix a annoncé le M400C et le Shield.

    La M400C est une version allégée de la M400, déjà très populaire. Vuzix a réussi à réduire le produit en supprimant l’ordinateur. Cela signifie que les lunettes sont plus petites, plus légères et moins chères, mais qu’elles doivent également être branchées à un dispositif externe – ce qui est un bon compromis pour les personnes qui ne sont pas nécessairement en déplacement sur leur site de travail.

    Les lunettes intelligentes Shield sont toujours commercialisées à l’intention des entreprises, mais elles seront disponibles pour les consommateurs pour environ 2 000 $. Même avec les commandes tactiles et l’audio intégrés, le point fort des Shield est l’écran à double guide d’ondes, ce qui en fait le premier écran binoculaire Vuzix depuis que la société a abandonné les visionneuses virtuelles mobiles pour les consommateurs il y a quelques années.

    « Si vous remontez dans le temps, nous fabriquions un écran binoculaire que vous pouviez brancher sur votre iPod », a déclaré Travers. « Depuis que nous sommes passés à l’entreprise, c’est notre première ».

    Lunettes AR intelligentes et téléassistance

    Les deux modèles ont quelques cas d’utilisation en commun, mais la « killer app » de chacun est un peu différente. Le M400C est idéal pour l’accès à l’information en mains libres, par exemple, pour les employés d’un entrepôt qui peuvent obtenir des informations sur un produit au moment où il passe devant eux. En revanche, le Shield est optimisé pour l’assistance à distance.

    L’assistance à distance a connu un énorme essor pendant la pandémie – qui semble ne pas être aussi loin derrière nous que nous l’aurions cru. Même si la pandémie prenait fin demain, le marché des fournisseurs de services et du matériel de téléassistance ne se réduirait pas pour autant, selon M. Travers.

    « L’assistance à distance est là pour rester », a déclaré M. Travers. « De la réparation des équipements à la maintenance des opérations, en passant par les programmes de mentorat… vous obtenez tout, rapidement, et sur un écran mains libres. »

    Explorer les composants des lunettes AR intelligentes

    Plus que tout, M. Travers a un faible pour le design. Au cours de l’appel vidéo, il a brandi les ordinateurs qui font fonctionner la Shield – une paire d’ordinateurs, chacun de la taille d’une gomme à crayon. Il a également parlé de l’écran du guide d’ondes qui semble avoir la taille d’un grain de riz, mais qui, avec ses 2M Nits de lumière, est suffisamment lumineux pour être utilisé en intérieur ou en extérieur.

    « L’autre élément unique de ces lunettes est que les écrans sont conçus dans les guides d’ondes pour être focalisés à 1,5 m de distance. La plupart des guides d’ondes sont focalisés à l’infini, donc si vous portez des lunettes pour corriger votre vue, vous devez porter ces lunettes [pour voir cet affichage] », a déclaré M. Travers. « Votre physiologie humaine regarde cette chose et tout est correct ».

    C’est une bonne chose que Travers soit passionné par le design et les composants de Vuzix, car Vuzix n’est pas la seule entreprise à travailler avec ces composants. Bien qu’il ne puisse pas partager trop de détails, Travers a exprimé que les pièces Vuzix font leur chemin dans d’autres lunettes intelligentes qui arrivent sur le marché – oui, cela inclut le marché grand public.

    « Plus d’une grande entreprise technologique achète nos pièces pour fabriquer quelque chose pour les masses », a déclaré M. Travers.

    Qui nous apportera ces modèles est un sujet de spéculation. La manière dont ces modèles nous parviendront reste une hypothèse. Les lunettes intelligentes Vuzix sont conçues de manière modulaire, ce qui permet aux utilisateurs d’acheter et d’échanger des pièces supplémentaires pour s’adapter à différents environnements et cas d’utilisation. C’est de plus en plus la tendance pour les wearables XR, ce qui rend les futurs facteurs de forme difficiles à prévoir.

    Que nous réserve l’avenir ?

    Nous avons beaucoup de choses à attendre de Vuzix. Et bien sûr, nous pouvons être encore plus enthousiastes en sachant que leur matériel apparaîtra dans les lunettes intelligentes d’autres fournisseurs qui seront annoncées. C’est vraiment une période passionnante.

  • Le Métaverse est déjà là pour les vaches et c’est triste !

    Le Métaverse est déjà là pour les vaches et c’est triste !

    En Turquie, les vaches entrent dans la matrice pour créer plus de lait pour les humains et 2022 commence bizarrement, hein ?

    Le Métaverse est déjà là pour les vaches et c'est triste !
    Photo : Zekeriya Karadavut / Anadolu Agency (Getty Images)

    En Turquie, un éleveur a commencé à mettre des casques de réalité virtuelle sur certaines de ses vaches pour voir si les animaux produisent plus de lait lorsqu’ils croient être dehors dans un beau champ ensoleillé. Les premiers résultats de l’expérience sont positifs, mais la vision d’une vache vivant dans le métaverse pour pouvoir produire plus de lait pour les humains est triste, me rappelle Matrix et constitue un argument de poids contre le métaverse lui-même.

    Comme l’ont rapporté The Sun et le média turc Anadolu Ajansi, les vaches VR, ou cyber-vaches, appartiennent à Izzet Kocak, un éleveur de bétail qui vit à Aksaray, en Turquie. Le bétail étant confiné à l’intérieur pendant les hivers rigoureux, l’idée était d’utiliser la réalité virtuelle pour faire croire aux vaches qu’elles étaient réellement à l’extérieur. L’espoir : Elles seraient plus heureuses et produiraient plus de lait.

    Les casques de réalité virtuelle auraient d’abord été testés à Moscou avant d’arriver en Turquie. Ils ont été développés en coordination avec des vétérinaires afin de garantir la sécurité des vaches. Kocak a utilisé les appareils de RV sur deux vaches jusqu’à présent et les résultats sont positifs, même si le système actuel est très dystopique et bizarre. Selon Kocak, la production de lait des vaches est passée de 22 litres à 27 litres par jour.

    « Elles regardent un pâturage vert et cela leur donne un coup de fouet émotionnel », a expliqué Kocak. « Elles sont moins stressées ». Apparemment, les résultats sont si positifs que Kocak est impatient d’étendre son expérience et prévoit d’acheter et d’installer 10 casques supplémentaires.

    Zekeriya Karadavut / Anadolu Agency (Getty Images)

    Je n’ai probablement pas besoin de le préciser, mais c’est en gros l’intrigue de Matrix. Des êtres vivants sont attachés à un monde virtuel, trompés pour vivre une « meilleure vie » tout en produisant des ressources pour ceux qui les retiennent captifs dans le métaverse. Cela signifie-t-il que l’une de ces vaches est en fait l’Unique ? Une anomalie inévitable ? Une vache élue qui se lèvera, vaincra l’humanité et libérera ses frères et sœurs bovins ? Probablement pas.

    Mais alors que de plus en plus d’entreprises et de techniciens tentent de convaincre les gens que le métaverse est l’avenir et pas seulement un mot à la mode utilisé pour créer Second Life 2, je ne peux m’empêcher de regarder ces vaches impuissantes et sans défense attachées à un casque VR dans le but d’échapper au climat rigoureux du monde extérieur et de penser à ce que sera l’humanité dans 20 ans.

    Aussi, pensez-vous que les vaches peuvent jouer à Doom sur ces choses ? Je veux dire, si un rat peut jouer à Doom en VR, pourquoi pas une vache ? De toute façon, le futur craint.

  • Comment l’intelligence artificielle peut révolutionner les technologies AR, VR et MR

    Comment l’intelligence artificielle peut révolutionner les technologies AR, VR et MR

    L’intelligence artificielle est une technologie puissante qui peut améliorer encore les domaines des technologies émergentes telles que l’AR, la VR et la MR.

    Comment l'intelligence artificielle peut révolutionner les technologies AR, VR et MR
    Comment l’intelligence artificielle peut révolutionner les technologies AR, VR et MR

    L’intelligence artificielle est une technologie polyvalente qui englobe un large éventail d’aspects de notre vie quotidienne, notamment les technologies émergentes telles que la réalité augmentée, la réalité virtuelle et la réalité mixte. Elle est utilisée dans divers domaines, notamment la médecine, l’éducation, le marketing, les jeux et la fabrication, pour automatiser les flux de travail et les processus, offrir des expériences plus personnalisées aux consommateurs, prévoir les tendances du marché et développer des véhicules intelligents à conduite autonome.

    Comment l’intelligence artificielle est-elle utilisée pour améliorer les technologies émergentes, en particulier la RA, la RV et la RM ?

    L’intelligence artificielle dans la RA 

    La réalité augmentée utilise la technologie pour améliorer notre vie quotidienne. Elle fonctionne en superposant du contenu ou des informations numériques sur des objets ou des lieux du monde réel sans distraire les utilisateurs. Elle est déjà utilisée dans des applications de fabrication et de navigation pour aider les utilisateurs humains. Cependant, certaines stratégies qui utilisent la RA sont limitées par des approches traditionnelles et sans l’IA.

    En intégrant des composants d’IA, tels que l’apprentissage profond et l’ontologie, à la RA, ces stratégies peuvent être grandement améliorées. Par exemple, l’algorithme d’intelligence artificielle peut être appliqué à la RA pour offrir aux utilisateurs des interactions améliorées avec leur environnement physique. L’algorithme d’IA peut être utilisé pour collecter davantage de données détaillées à l’aide de multiples capteurs complémentaires de la RA, tels que les gyroscopes et le GPS.

    En outre, l’IA peut être utilisée avec la RA pour offrir de meilleures expériences mobiles aux utilisateurs grâce à des applications interactives et attrayantes. L’intelligence artificielle permet aux utilisateurs de la RA d’interagir avec leur environnement physique et de manipuler des objets virtuels. En robotique, les applications d’IA peuvent être utilisées pour fournir une aide au contrôle intuitif et améliorer l’intention de mouvement des robots. De plus, lorsqu’elles sont combinées à la robotique, l’IA et la RA peuvent améliorer considérablement l’interaction homme-robot.

    En outre, l’IA peut être utilisée pour améliorer la reconnaissance vocale, le suivi des images et la détection des objets dans les smartphones. Dans l’ensemble, l’intelligence artificielle est cruciale si les développeurs cherchent à créer des cas d’utilisation plus convaincants pour la réalité augmentée.

    L’intelligence artificielle dans la RV

    Les experts en technologie pensent que les technologies d’intelligence artificielle joueront un rôle déterminant dans l’amélioration ou le développement des technologies de réalité virtuelle. Les industries qui peuvent bénéficier de cette incorporation sont les suivantes :

    La formation à la cybersécurité

    L’IA et la RV peuvent être fusionnées pour développer des programmes de formation axés sur l’IA pour les professionnels de la cybersécurité. L’intelligence artificielle déterminera les compétences de l’utilisateur, tandis que la RV peut être utilisée pour développer un programme de formation basé sur les résultats de l’IA.

    Formation militaire et hospitalière

    L’armée américaine peut utiliser l’IA et la RV pour la formation au combat et au pilotage d’avions. Les hôpitaux peuvent également tirer parti de cette technologie pour former les internes aux opérations chirurgicales.

    Parmi les autres aspects ou secteurs où l’IA peut être utilisée pour stimuler la technologie, les fonctionnalités et les capacités de la RV, citons l’analyse des données, l’accessibilité, l’immobilier et les soins médicaux. En outre, l’intelligence artificielle améliore la fonctionnalité et l’application de la RV dans une variété de domaines, y compris les jeux et la médecine.

    L’intelligence artificielle dans la RM

    La réalité mixte est utilisée pour combiner les mondes physique et numérique afin de créer non seulement des environnements uniques, mais aussi des expériences uniques pour les utilisateurs.

    L’IA, lorsqu’elle est utilisée avec la réalité mixte, peut enrichir la façon dont les machines apprennent à partir de données sans avoir besoin d’une programmation lourde, tirer parti des techniques d’apprentissage statistique pour prédire les attributs, et atteindre des capacités d’apprentissage progressif qui peuvent accueillir et analyser de nouvelles données.

    L’intelligence artificielle peut combler le fossé entre la simulation et la réalité. Grâce aux techniques et stratégies d’IA utilisées pour révolutionner l’ingénierie, les développeurs peuvent créer des images holographiques de haute qualité qui auront un bel aspect sur les écrans LCD.

    Outre l’ingénierie, l’IA et la RM peuvent être utilisées pour améliorer l’expérience des utilisateurs et accroître l’interaction dans des domaines tels que l’énergie et la fabrication.

    L’intelligence artificielle est un élément crucial qui renforce la puissance et les capacités des technologies émergentes. Elle peut transformer les industries et différents aspects de la société. Lorsqu’elle est intégrée à des technologies telles que la RA, la RV et la RM, l’intelligence artificielle peut créer des expériences plus riches et plus fascinantes pour nos mondes physique et numérique.

  • Comment une percée dans le domaine des microLED ouvre la voie aux lunettes AR du futur

    Comment une percée dans le domaine des microLED ouvre la voie aux lunettes AR du futur

    Les innovations dans la technologie microLED poussent à la création de lunettes de réalité augmentée de nouvelle génération.

    MICLEDI Microdisplays est prêt à changer le visage de la réalité augmentée et des lunettes de réalité augmentée. En tant que développeur sans usine d’écrans microLED pour les lunettes de réalité augmentée, la société a mis au point un réseau microLED pour la réalité augmentée, une première dans l’industrie. Cette technologie repose sur une plateforme de fabrication CMOS (complementary metal-oxide-semiconductor) de 300 mm.

    Cette plateforme permet une précision et une performance optimale dans la fabrication, ce qui place MICLEDI à l’avant-garde de la création d’écrans plus réalistes pour les lunettes AR.

    Présentation de l’entreprise

    MICLEDI Microdisplays est une entreprise qui se concentre sur le développement d’écrans microLED pour les lunettes AR. En tant que spin-off de l’IMEC, un centre de recherche et d’innovation dans des secteurs tels que la nanoélectronique et les technologies numériques, MICLEDI a accès à un partenariat technologique exclusif qui lui a permis de développer sa propre plateforme de fabrication de 300 mm.

    MICLEDI microLED IC prêt pour le test et la démonstration à partir de l'essai pilote 300mm
    MICLEDI microLED IC prêt pour le test et la démonstration à partir de l’essai pilote 300mm

    La technologie de MICLEDI combine le traitement des matériaux III/V et l’intégration 3D nécessaires à la création de lunettes AR compactes et légères, capables de produire des images précises et cristallines.

    La percée de MICLEDI dans la production de microLED en 300 mm

    Les lunettes AR conventionnelles sont encombrantes et lourdes, avec un réalisme et une résolution d’image peu impressionnants. De plus, elles peuvent être très coûteuses.

    MICLEDI utilise une approche exclusive pour créer une performance d’affichage révolutionnaire pour les lunettes AR. Son objectif est de créer le « Saint Graal » des lunettes de réalité augmentée, capable de répondre aux exigences de l’avenir, à mesure que le domaine de la réalité augmentée continue à se développer.

    Grâce aux percées de MICLEDI dans ce domaine, la prochaine génération de lunettes pourrait être rentable et capable d’offrir une taille d’affichage, une luminosité, une qualité d’image et une consommation d’énergie améliorées. La percée en matière de production comprend les attributs suivants :

    • Une technologie MicroLED qui permet une production à grande échelle dans les fonderies CMOS ;
    • Un module économe en énergie dont la consommation est inférieure à 1,0 W dans les scénarios d’utilisation standard de la RA ;
    • Une approche exclusive qui permet d’obtenir le facteur de forme le plus compact du secteur ;
    • Matériaux RGN sans défaut, compatibles avec les fonderies CMOS, reconstitués sur des plaquettes CMOS de 300 mm ;
    • Une mise en forme du faisceau au niveau du pixel, avec des matrices RVB FHD présentant un pas de pixel impeccable de 3,0 um et une luminance exceptionnellement élevée pouvant atteindre 10 000 000 nits.
    Plaquette microLED MICLEDI de 300 mm issue de la première série de production

    Assistez à la prochaine génération de lunettes AR au CES 2022

    Si vous assistez au prochain CES 2022 à Las Vegas, vous pourrez rendre visite à l’entreprise dans le hall central au stand 19099 et découvrir les capacités de leur percée microLED. MICLEDI prévoit également de présenter des échantillons de ses microLED aux clients dès le premier trimestre 2022.

    Selon le PDG de MICLEDI, Sean Lord, le CES est le lieu idéal pour présenter leur percée technologique. « Le CES est l’endroit où les technologies avancées sont mises en avant pour que le monde entier puisse les voir, et la RA est un domaine qui est en train d’être adopté rapidement », a déclaré Lord dans un communiqué de presse.

  • Meta publie la démonstration de suivi de main Quest pour Unreal Engine

    Meta publie la démonstration de suivi de main Quest pour Unreal Engine

    Un nouveau projet d’exemple de Meta pour Unreal Engine d’Epic donne aux développeurs les blocs de construction pour le suivi de main en plein air plus robustes dans la VR.

    Meta publie la démonstration de suivi de main Quest pour Unreal Engine
    Meta publie la démonstration de suivi de main Quest pour Unreal Engine

    Si vous possédez un Meta Quest, vous pouvez tester l’Oculus Hand Gameplay Showcase pour Unreal sur App Lab dès maintenant. Laissez simplement les contrôleurs Oculus Touch derrière vous.

    La plupart des contenus de réalité virtuelle sont réalisés dans Unity ou Unreal, ce dernier étant l’œuvre du créateur de Fortnite, Epic Games. Unreal est parfois le moteur de choix pour certains projets de jeux à gros budget et le PDG d’Epic, Tim Sweeney, est l’un des plus grands partisans du concept de Métaverse. Le suivi des mains est un système de contrôle secondaire sur Quest 2 (ce qui signifie que le matériel n’est pas optimisé pour cela) mais sur les futures casques VR de Meta, cela pourrait changer, et vos mains faisant des gestes en plein air pourraient devenir le système de contrôle principal. 

    Cela signifie que Meta doit faire en sorte que les développeurs construisent un plus grand nombre de leurs applications pour travailler avec le suivi des mains et cette dernière version représente la dernière d’une série d’échantillons publiés par Facebook (et maintenant Meta) pour montrer comment les développeurs peuvent prendre en charge des interactions robustes en utilisant le système. Pour les développeurs d’Unreal, cet exemple de projet « contient des composants réutilisables basés sur les mécanismes de suivi de la main plus robustes de First Steps with Hand Tracking et Tiny Castles ».

    Les mécanismes couverts dans l’échantillon comprennent la téléportation, la saisie, le lancer et l’appui sur des boutons. Meta a même publié le code source de « Oculus showcase of hand tracking based interactions in Unreal » sur Github.

    Nous n’avons pas encore essayé le projet mais nous le téléchargerons bientôt. Si vous l’avez essayé, merci de partager vos impressions dans les commentaires ci-dessous.

  • Spatial se tourne vers la communauté NFT

    Spatial se tourne vers la communauté NFT

    La plateforme de collaboration à distance XR Spatial a une toute nouvelle vision de la vie et se tourne vers la communauté NFT.

    Spatial se tourne vers la communauté NFT
    Spatial se tourne vers la communauté NFT

    Si vous utilisez la RV pour la collaboration professionnelle à distance et/ou si vous êtes un lecteur régulier de Virtual-Guru, vous connaissez probablement Spatial. Cette plateforme comporte une composante RA et une composante RV, disponibles en mode bureau ou immersif, et est largement connue pour avoir innové dans le domaine des avatars photoréalistes (pour le meilleur et pour le pire).

    Spatial est toujours là, mais elle a un peu changé de voie.

    Le nouveau Spatial

    La dernière fois que nous nous sommes intéressés à Spatial, c’était à l’occasion de notre test pratique de la plate-forme, au début de l’année. La plateforme figurait également dans notre liste des plateformes de travail à distance AR quelques mois plus tôt.

    Alors, quoi de neuf ? La société a récemment annoncé son intention de « devenir le métaverse pour les événements culturels tels que les expositions NFT, les expériences de marque et les conférences ». Ce changement a été annoncé en même temps qu’un tour de financement de 25 millions de dollars. Spatial avait déjà commencé à pivoter, en raison du succès comparatif de son offre 2D.

    Pour être clair, le « succès comparatif » d’une offre 2D ne signifie pas qu’il y avait quelque chose de mal avec la version immersive. À bien des égards, elle était en avance sur son temps, offrant quelque chose de similaire à des expériences plus récentes comme Mesh de Microsoft et Reality Cloud de Varjo. Pourtant, de nombreuses entreprises qui proposent des expériences immersives constatent une plus grande adoption du format 2D.

    Virbela en est un bon exemple. Certaines personnes ont des bureaux virtuels dans Virbela où elles travaillent à plein temps, ce qui serait un défi de taille s’il fallait que les utilisateurs soient dans un casque. Pourtant, Virbela propose son logiciel FRAME, basé sur un navigateur 2D. Alors, pourquoi Spatial ne s’est-il pas lancé dans l’aventure en créant un produit complémentaire ?

    L’équipe de Spatial n’a pas seulement remarqué comment les utilisateurs accédaient au produit, elle a aussi remarqué ce que les utilisateurs faisaient en accédant au produit.

    Pourquoi cela ? Pourquoi maintenant ?

    « Au cours de l’année écoulée, depuis que nous avons lancé notre version freemium sur toutes les plateformes, nous avons assisté à un changement fascinant », a déclaré Jacob Loewenstein, directeur commercial de Spatial, dans un communiqué partagé. « Nous sommes passés d’une plateforme AR/VR axée sur la productivité des entreprises à une plateforme web/VR reliant les créateurs numériques et l’économie NFT au sens large. »

    Spatial se tourne vers la communauté NFT

    « NFT » est l’abréviation de « Non-Fungible Token ». C’est un morceau de données blockchain associé à un artefact numérique qui peut être utilisé pour prouver la propriété de cet artefact numérique. La propriété des objets numériques a longtemps été un problème pour les artistes numériques et les NFT leur permettent de commercialiser, de vendre et de contrôler leurs œuvres d’une manière qui n’était pas possible auparavant.

    De plus, comme les NFT sont activés sur une blockchain (généralement Ethereum) et que de nombreuses plateformes différentes peuvent utiliser la même blockchain, les actifs numériques NFT peuvent souvent exister sur plusieurs plateformes différentes, ce qui n’est pas le cas des autres actifs numériques. Cela confère une interopérabilité à ces plateformes compatibles, ce dont le métaverse a grandement besoin et qu’il n’a pas encore réussi à faire.

    « Nous assistons de l’intérieur à cette tendance de l’économie des créateurs et nous voyons l’énorme opportunité que représente le passage du pouvoir entre les mains de ces créateurs », a déclaré M. Loewenstein. « Nous croyons en un métaverse inclusif et ouvert où un jour les artistes et les créateurs pourront se déplacer librement sur de multiples plateformes virtuelles avec des portails, des avatars et des espaces partagés interopérables. »

    Un acte de convergence

    Il y a aussi autre chose. Parce que les NFT sont nées de l’espace de la blockchain plutôt que de l’espace des technologies immersives, il existe des théories sur les NFT dans le métaverse, mais il y a peu de chevauchements réels de ces technologies à ce jour. Ainsi, bien que les technologies immersives s’intéressent aux NFT, il n’y a pas beaucoup de façons de voir les NFT dans les environnements immersifs.

    En comparaison, le marché de la collaboration à distance n’est pas nécessairement « saturé », mais il y a certainement beaucoup plus de concurrence. Beaucoup de personnes dans le domaine de la technologie immersive attendaient l’arrivée des NFT et Spatial apporte la technologie immersive à la communauté NFT.

    « C’est extrêmement gratifiant de consacrer notre énergie à l’autonomisation des personnes créatives et de mener ce changement de paradigme culturel dans la façon dont les gens partagent leurs expériences avec les autres », a déclaré Jinha Lee, cofondatrice et directrice générale de Spatial, dans le communiqué.

    La société crée certains de ses propres environnements immersifs, mais elle s’associe également à des artistes et à des organisations établies dans l’espace artistique conventionnel, comme le musée de l’Ermitage, ainsi que dans l’espace NFT, comme OpenSea.

    Ah oui, ma maison spatiale

    Ce pivot ne consiste pas seulement à créer des environnements et à s’adresser à un nouveau public. Le site Web de l’entreprise a été amélioré, de nouveaux environnements et outils d’accueil et d’interaction ont été ajoutés, et le porte-monnaie MetaMask Ethereum a été intégré. Les utilisateurs ont également accès à une « Maison Spatiale » où ils peuvent accrocher leurs objets de collection en crypto-monnaie.

    C’est un tout nouveau Spatial pour un tout nouveau monde.

  • Faits marquants et nouvelles du Lens Fest 2021 de Snap

    Faits marquants et nouvelles du Lens Fest 2021 de Snap

    Tous les logiciels, le matériel et les points forts de la communauté de la Lens Fest de cette année.

    Faits marquants et nouvelles du Lens Fest 2021 de Snap
    Faits marquants et nouvelles du Lens Fest 2021 de Snap

    C’est difficile à croire, mais cela fait un an que le Lens Fest 2020 a eu lieu. Cet événement annuel est le moment où Snap s’adresse à la communauté des développeurs. Cela inclut les créateurs de lentilles Snapchat ainsi que ceux qui créent des expériences pour d’autres applications et sites Web en utilisant l’API de la caméra de Snap, le kit de caméra.

    L’année dernière, le Lens Fest a vu des mises à jour majeures du logiciel de création de Snap, Lens Studio, ainsi qu’un accent sur la création de lentilles ayant un impact social. Alors, qu’a apporté l’événement de trois jours de cette année ?

    Lens Fest : une énergie énorme !

    Lens Fest n’est pas seulement une conférence pour les développeurs. Parce que tout le monde peut être un créateur de lentilles, l’événement est une occasion pour Snap de célébrer toutes les personnes qui contribuent à leur plate-forme – professionnellement ou non.

    « Lens Fest est notre événement annuel et mondial qui met en lumière l’innovation et la créativité de tous les coins de la communauté des créateurs d’objectifs », a déclaré Bobby Murphy, cofondateur et directeur technique de Snap, lors du discours de bienvenue. « Plus de 200M de personnes s’engagent avec des lentilles chaque jour… les possibilités sont infinies pour fusionner le plaisir et la productivité dans nos vies. »

    Malgré l’attention croissante accordée à la RA, Bobby Murphy est resté fidèle à la marque, soulignant que Snap est une « société de caméras » – l’un des rares grands noms de la tech à ne pas pousser des mots à la mode. Lors d’un débat à l’AWE en novembre, Murphy a déclaré que le « métaverse » était un terme que Snap « n’a jamais utilisé en interne ou en externe pour décrire ce que nous essayons de construire. »

    « La RA permet de nouvelles façons d’interagir les uns avec les autres et avec le monde qui nous entoure », a déclaré Murphy à Lens Fest. « La RA nous fonde avec une vue du monde physique et nous apporte tout ce qui est disponible dans le monde numérique. »

    Tout au long de l’événement, les intervenants ont exprimé leur enthousiasme pour l’écosystème créatif construit autour du logiciel de Snap, et de plus en plus, de son matériel. Le point culminant a été la remise des prix inauguraux du Snap Lens Fest, qui a clôturé l’événement. Mais nous en reparlerons plus tard.

    Lens Fest : Annonces concernant les logiciels

    Le Lens Fest de cette année a vu le lancement de Lens Studio 4.10, y compris la fonctionnalité World Mesh pour les objectifs sensibles à la profondeur construits sur les capteurs embarqués de l’appareil, que ce soit ARKit ou ARCore.

    Il y a également un moteur Physics mis à jour pour les éléments AR affectés par la gravité et d’autres forces. Les créateurs d’objectifs ont aussi accès aux API des partenaires pour inclure des statistiques en direct du monde réel dans les objectifs, et à la bibliothèque Sounds pour réaliser des expériences plus riches en sons.

    Les créateurs de lentilles pourront bientôt commencer à créer des lentilles liées à des lieux locaux, similaires à certaines des lentilles géolocalisées à plus grande échelle que Snap explore depuis quelques mois grâce à ses récents partenariats avec Sotheby’s et le LACMA. Le langage utilisé pour cette mise à jour mentionne spécifiquement le LiDAR, qui n’est actuellement offert que par les nouveaux modèles d’appareils Apple.

    La fonction Call-To-Action

    De plus, les créateurs d’objectifs auront bientôt accès à une nouvelle fonction Call-To-Action leur permettant de diriger les Snappers de leurs objectifs vers une page extérieure. Cela pourrait les aider à attirer du trafic vers un site de commerce électronique, à sensibiliser des organisations et des institutions, à partager des informations, et bien d’autres choses encore.

    Ces nouvelles fonctionnalités seront accessibles à tous les utilisateurs de Snap dès que les créateurs d’objectifs auront eu le temps de les intégrer à leurs expériences. Certaines fonctionnalités sont réservées aux créateurs d’objectifs, notamment les nouvelles analyses qui permettent aux créateurs de mieux comprendre lesquels de leurs objectifs ont le plus de succès et pourquoi.

    Enfin, les mises à jour du studio Lens en 2022 sortiront toutes les deux semaines au lieu de tous les deux mois comme c’est leur calendrier actuel.

    « Une énorme partie de l’obstacle que nous trouvons avec Lens Studio est de savoir comment le rendre plus facile à développer en AR », a déclaré Jonathan Solichin, ingénieur AR. « Nous voulons faire de Lens Studio le meilleur moyen de développer en RA, de sorte que la question n’est pas de savoir comment construire, mais ce que je dois construire. »

    Lens Fest : Annonces relatives au matériel

    Snap a annoncé la toute nouvelle génération de Spectacles lors du Snap Partner Summit en mai, avec sept créateurs américains. Le programme n’a cessé de s’étendre depuis et est désormais mondial. Les itérations précédentes de Spectacles étaient axées sur l’enregistrement et la capture de contenu, mais le modèle annoncé cette année est le premier à comporter un véritable écran.

    « Les Spectacles sont notre première paire de lunettes qui donnent vie à la RA », a déclaré la responsable des partenariats avec les plateformes de RA de Snap, Sophia Dominguez. « Nous sommes déjà en train de développer des capacités avancées et nouvelles ».

    Ces capacités comprennent la fonction Endurance Mode qui permettra aux porteurs de régler l’affichage pour obtenir une plus grande autonomie. Les porteurs de Spectacles peuvent aussi désormais se connecter les uns aux autres grâce aux Lentilles Connectées.

    À l’heure actuelle, Spectacles est encore un outil de développement disponible en circulation limitée sur invitation et sur demande. Cependant, les consommateurs attendent avec impatience le jour où le matériel sera facilement accessible au reste d’entre nous. Si ce jour arrive, nous serons encore plus reconnaissants pour ces premières améliorations.

    « La promesse de Spectacles est de voir l’imagination prendre vie juste devant vous », a déclaré Eva Caiden, responsable de la communauté Spectacles. « Notre objectif est d’apprendre et de continuer à améliorer l’expérience Spectacles ».

    Annonces de la communauté et des créateurs

    La plupart des grandes nouvelles du Lens Fest de cette année avaient trait au fait de donner aux créateurs de lentilles non seulement de meilleurs outils matériels et logiciels, mais aussi de meilleures ressources sociales et financières.

    « Notre objectif est de réunir les expériences physiques et numériques à travers l’appareil photo », a déclaré le vice-président des partenariats avec les plateformes, Konstantinos « KP » Papamiltiadis. « Il y a tellement de choses passionnantes à construire ensemble et une communauté passionnante à servir. »

    Dans cette optique, le laboratoire d’innovation AR de Snap, « GHOST », acceptera désormais les candidatures au fur et à mesure. Les Snappers peuvent également montrer leur soutien aux créateurs de lentilles financièrement en leur envoyant des cadeaux par le biais de réponses aux stories.

    « La façon dont nous envisageons GHOST est que nous voulons être en mesure de puiser dans les communautés du monde entier pour voir comment elles innovent pour résoudre les problèmes qui sont importants pour elles », a déclaré Shavonne Hart, technologue créative.

    Les créateurs d’objectifs pourront également gagner de l’argent grâce aux Lens Packs, des collections d’objectifs connexes que les développeurs partenaires de Camera Kit peuvent acheter pour les utiliser dans leurs propres engagements. Snap prévoit également d’étendre le programme bêta du Camera Kit.

    « Compte tenu du succès initial de nos premiers partenaires, nous sommes ravis de continuer à déployer Camera Kit à davantage de développeurs », a déclaré Benjamin Lo, chef de produit Camera Kit.

    Les premiers prix du Lens Fest

    Le Lens Fest de cette année a culminé avec la toute première remise des prix Lens Fest. Animés par Kaitlyn Benitez-Strine, spécialiste principale de la communauté du studio des objectifs de Snap, les prix ont récompensé les objectifs et les créateurs d’objectifs dans neuf catégories : Bien environnemental et social, Art et expression, Mode et beauté, Jeux, Information et éducation, Créativité, Originalité, Compétence technique et Utilité.

    « C’est un honneur d’être ici pour accueillir la toute première édition des Lens Fest Awards », a déclaré Benitez-Strine. « Quant à nos juges, ils viennent de tout Snap et ont apporté leur expertise et leurs points de vue uniques. »

    Bien environnemental et social

    Le prix de l’environnement et de l’action sociale a été décerné à Bleached Seas, un objectif réalisé par Helena Papageorgiou, originaire d’Australie, qui attire l’attention sur l’impact du changement climatique sur les récifs coralliens. En acceptant le prix, Helena Papageorgiou a déclaré que la création de l’objectif « a été incroyable et que la réponse a été extraordinaire. »

    Art et expression

    Le prix du meilleur art et expression a été décerné à İVendedores, Presente ! Célébrant les vendeurs de rue de LA, l’objectif faisait partie du partenariat Monumental Perspectives entre Snap et le LACMA et a été créé par la créatrice de l’objectif Sallia Goldstein et l’artiste Ruben Ochoa.

    « Wow, c’est fou », a déclaré Mme Goldstein en acceptant le prix. « À Ruben Ochoa, merci beaucoup de m’avoir fait confiance en me confiant votre vision artistique ».

    Mode et beauté

    RTFKT Studios a remporté le prix Lens Fest du meilleur film de mode et de beauté avec le MetaJacket OG. Contrairement aux collections NFT plus connues de RTFKT, la lentille MetaJacket est gratuite pour tous les Snapchatters, démontrant ainsi les capacités de la mode AR.

    Gaming

    Aidan Wolf a reçu le prix Lens Fest du meilleur jeu pour son PONK. L’expérience multijoueur intègre des éléments de jeux vidéo classiques dans une expérience de RA à la fois nouvelle et familière.

    « Je suis très enthousiaste à l’idée de créer des expériences qui peuvent connecter les gens aussi rapidement, en particulier sur une plateforme comme Snapchat où je peux toucher autant de personnes », a déclaré Wolf.

    Information et éducation

    Le prix de la meilleure information et éducation a été décerné à Leighton McDonald pour BLACKSOUL GALLERY, un objectif qui célèbre les artistes noirs émergents en sortant leurs œuvres de la galerie et en les amenant dans le monde du spectateur.

    « C’est un honneur d’être reconnu pour son objectif innovant et créatif », a déclaré Leighton McDonald. « Ce fut un voyage extraordinaire, et ça ne fait que commencer ».

    Créativité

    Dans un média qui implique intrinsèquement la créativité, l’expérience la plus créative a été attribuée à Rock Hand de 2020CV. Ce jeu musical combine des éléments de jeux musicaux classiques comme Guitar Hero et Piano Tiles.

    « Merci, Lens Fest, pour ce prix », a déclaré Hart Woolery, fondateur et PDG de 2020CV, en acceptant le prix. « Je suis très humble de recevoir une quelconque reconnaissance pour mon travail et j’espère que vous vous êtes tous amusés avec Rock Hand. »

    Originalité

    Là encore, une catégorie à laquelle toutes les expériences de RA se qualifient nécessairement. Le prix Lens Fest de la meilleure originalité a été attribué à Skin Thief de Denis Rossiev. À travers la caméra, l’objectif reconnaît un individu, puis utilise la technologie de suivi du corps pour faire correspondre l’image à d’autres personnes dans le champ de vision de la caméra.

    « Je tiens à remercier Snap de fournir des outils aussi géniaux pour que les gens du monde entier puissent créer et s’exprimer », a déclaré Rossiev.

    Compétence technique

    Le prix de la meilleure compétence technique a été décerné à JigSpace pour Jig kitchen how-to, un objectif qui crée des modèles 3D pour les appareils électroménagers dans la maison d’un téléspectateur afin de l’aider à réparer les problèmes courants.

    « Nous sommes ravis de remporter ce prix », a déclaré le fondateur et PDG Zac Duff. « Chez Jig, notre objectif est de permettre à quiconque de partager ses connaissances avec tout le monde de la meilleure façon possible – et tout le monde est sur Snapchat. »

    Utilité

    Le prix de la meilleure utilité a été décerné à Food Menu de Brielle Garcia, une expérience qui illustre le pouvoir de la RA pour montrer aux spectateurs un plat devant eux avant qu’ils ne passent effectivement commande.

    « Je tiens à remercier tout le monde chez Snap pour ces ressources et outils incroyables », a déclaré Brielle Garcia en acceptant le prix. « Et je veux remercier tous les autres créateurs de cette communauté : votre créativité m’inspire et me pousse. »

    Lens Fest : A l’année prochaine

    En clôturant la remise des prix, et donc l’ensemble de l’événement, Mme Benitez-Strine a résumé l’atmosphère de la conférence : « Merci à tous les participants aux Lens Fest Awards de nous aider à faire avancer l’avenir. Nous sommes impatients de voir ce que l’avenir de la RA nous réserve. »