La plateforme de collaboration de réalité virtuelle et augmentée (RV/RA), Spatial, vient de publier de nouvelles mises à jour de fonctionnalités pour les utilisateurs d’appareils Oculus Quest, Microsoft Hololens et Magic Leap, ainsi que pour les ordinateurs de bureau et les téléphones portables.
Spatial auditorium VR
La plateforme Spatial transforme n’importe quelle pièce en un espace de travail 3D pour aider à connecter des équipes distantes.
L’une des principales mises à jour apportées à Spatial comprend un auditorium de plus de 40 places assises pouvant être utilisé pour des conférences, des colloques, des environnements pour tous. L’espace a été conçu par la cofondatrice de Spatial, Jinha Lee.
Les mises à jour supplémentaires de la plateforme de collaboration comprennent :
Nouvelles intégrations et nouveaux types de fichiers pris en charge
Fichiers de la suite Microsoft Office pris en charge (fichiers 2D : .DOC, .PPT, .XLS) ;
Intégration de Google Drive, OneDrive et SharePoint. Les utilisateurs peuvent désormais relier des services en Cloud existants et extraire des fichiers dans Spatial.
Mises à jour des modèles 3D
L’échelle réelle des modèles 3D pour ajuster les modèles à leur taille réelle.
Mises à jour des contrôleurs
Amélioration du suivi des mains : Les utilisateurs peuvent désormais se téléporter sur un siège ou des points d’accès dans les environnements de RV de Quest + déplacer des objets avec la manette.
Contenu
Amélioration de la lisibilité du texte sur les documents ;
Sauvegarde automatique pour toutes les pièces ;
Limite de salle plus large pour permettre des scénarios de groupe plus important ;
Toutes les vidéos MP4 sont désormais compatibles avec la mise en boucle ;
Bouton d’épingle amélioré; cacher le bouton « X » lorsqu’il est enclenché. Les objets épinglés (verrouillés) ne peuvent pas être fermés ou édités.
Améliorations de l’interaction avec les avatars
Inclut des coups de poing plus réactifs.
Avancées technologiques
Dernier SDK d’Oculus ;
Maillage et occlusion ARKit sur les appareils compatibles avec le Lidar.
Spatial est conçu comme une solution virtuelle pour une variété de cas d’utilisation, y compris des séminaires éducatifs, des expériences et des formations, des sessions de brainstorming, des présentations immersives, des examens de modèles 3D, ainsi que comme un outil de recherche potentiel pour les agences gouvernementales et les départements médicaux pour la recherche spécifique sur Covid. Selon l’entreprise, les utilisateurs conçoivent également des salles spatiales sur le thème des vacances pour les fêtes et les réunions sociales.
L’entreprise continue de se développer à l’ère du travail à distance, affirmant qu’elle a vu son utilisation multipliée par 10 depuis le lancement de l’Oculus Quest 2 en septembre. Pour télécharger la plateforme de RV collaborative Spatial, les utilisateurs peuvent simplement rechercher « Spatial » sur la boutique Oculus Quest.
Södra a introduit l’expérience Södra 360, qui tire parti de la technologie de la réalité virtuelle (RV) pour accroître les connaissances sur le rôle de la forêt dans la société d’aujourd’hui et de demain, tout en démontrant les valeurs et l’étendue des activités de Södra.
Södra 360
« Il est nécessaire et possible d’accroître les connaissances sur la forêt et ses effets positifs sur le climat, ainsi que sur la manière dont nous la gérons de manière durable », déclare Maria Baldin, vice-présidente de la communication et de la durabilité chez Södra.
La RV permet de rencontrer des propriétaires et des experts forestiers, ainsi que des utilisateurs de produits forestiers au cours de leur vie, entourés de matériaux renouvelables à base de bois.
« Nos clients bénéficieront de cette nouvelle façon innovante d’explorer le monde de Södra, depuis les images et les sons des forêts de nos membres jusqu’à son utilisation dans la vie quotidienne. En attendant, les clients de nos clients, c’est-à-dire les consommateurs de produits forestiers, peuvent faire un voyage le long de la chaîne de valeur, s’informer sur la foresterie durable et ses multiples impacts bénéfiques sur leur vie quotidienne, et se sentir positifs dans leurs décisions d’achat de bois ». Maria Baldin poursuit.
Les visiteurs de la réalité virtuelle (RV) Södra 360 Experience peuvent passer de la forêt à un espace de vie moderne et interactif et à un paysage urbain, où les utilisations durables du bois, des produits en papier aux textiles, en passant par l’énergie et les matériaux de construction sont présentées en détail.
Södra est la plus grande association suédoise de propriétaires forestiers, avec 53 000 membres.
Les aspects virtuels de la réalité virtuelle moderne s’améliorent constamment, mais elle ne correspond pas tout à fait à l’étiquette de réalité sans sensations tactiles. Pour y remédier, une équipe d’ingénieurs de l’université de Cornell (États-Unis) a créé un capteur à fibre optique qui combine des LED et des colorants peu coûteux, ce qui donne une « peau » extensible qui détecte des déformations telles que la pression, la flexion et la déformation.
Un nouveau capteur cutané extensible donne aux robots et à la RV une touche humaine. Source : Université de Cornell
L’équipe s’est inspirée des capteurs à fibres optiques distribuées à base de silice, qui détectent les petits décalages de longueur d’onde pour identifier de multiples propriétés, comme les changements d’humidité, de température et de déformation, afin de fabriquer un guide de lumière extensible pour la détection multimodale (SLIMS).
Les capteurs SLIMS détectent des déformations telles que la pression, en précisant leur emplacement et leur ampleur exacts. Source : Université de Cornell
Fonctionnement du capteur de peau extensible
Dans un prototype de gant, chaque doigt a un guide de lumière extensible qui contient une paire de noyaux en élastomère de polyuréthane. Un des noyaux est transparent, tandis que l’autre est rempli de colorants absorbants à plusieurs endroits et se connecte à une LED. Chaque noyau est couplé à une puce de capteur rouge-verte-bleu pour enregistrer les changements géométriques du trajet optique de la lumière.
Lorsque vous déformez le guide de lumière en pliant les doigts ou en subissant une pression, les colorants servent de « codeurs spatiaux » qui s’allument et enregistrent exactement ce qui se passe et en précisent l’emplacement et l’ampleur. Le nouveau capteur extensible utilise une technologie assez simple et peu coûteuse. Le gant est imprimé sur une imprimante 3D et est équipé de Bluetooth, ce qui lui permet de transmettre des données au logiciel de base qui récupère les mouvements et déformations du gant en temps réel. Il est également équipé de capteurs LED intégrés et d’une batterie au lithium-ion.
« Actuellement, la détection se fait principalement par la vision », a déclaré le chercheur principal Rob Shepherd, professeur associé d’ingénierie mécanique et aérospatiale à la faculté d’ingénierie. « Nous ne mesurons presque jamais le toucher dans la vie réelle. Cette peau est un moyen de nous permettre, à nous et aux machines, de mesurer les interactions tactiles d’une manière que nous utilisons actuellement avec les caméras de nos téléphones. C’est l’utilisation de la vision pour mesurer le toucher. C’est la façon la plus pratique de le faire de manière évolutive ».
Selon les chercheurs, leur développement peut être utilisé pour améliorer les systèmes de réalité virtuelle et être incorporé dans la main d’un robot pour lui donner le sens du toucher. L’équipe envisage également l’utilisation de nouvelles technologies en physiothérapie et en médecine du sport. Le matériau qui réagit à la déformation donnera aux machines un analogue du toucher et élargira ainsi leurs capacités.
La technologie de la réalité virtuelle est en train de transformer le domaine de l’animation.
l’animation en VR
L’animation est loin d’être un simple divertissement. Outre les industries du cinéma et du jeu, elle est aujourd’hui largement utilisée dans les domaines de la publicité, de l’éducation et de la construction. Même la qualité de l’animation s’est grandement améliorée grâce à la technologie moderne.
Cependant, même avec des logiciels avancés, la création d’animations nécessite encore des compétences complexes et prend beaucoup de temps. La technologie de la réalité virtuelle permet de remédier à ce problème.
Avec le développement des technologies de réalité étendue (XR), les animateurs ont vu le potentiel de l’utilisation de la réalité virtuelle pour créer des animations plus réalistes et plus intuitives. Alors que de nombreux créateurs utilisent déjà les outils de RV pour des tâches nécessitant beaucoup de compétences et de temps, on pense que la réalité virtuelle fera bientôt entrer le monde de l’animation dans de nouveaux domaines.
La réalité virtuelle améliore la compréhension de l’espace
La RV dépasse les limites de l’animation 2D avec des fonctionnalités qui améliorent la compréhension de l’espace. Les animateurs peuvent créer des images plus complexes lorsqu’ils sont immergés dans des environnements virtuels. Ils peuvent truquer, habiller et poser des personnages avec des détails plus complexes et des dimensions plus précises. L’espace interactif imitant la vie réelle, ils peuvent également tenir compte de l’éclairage et de la mise en scène pour un meilleur impact.
La réalité virtuelle donne également aux animateurs la possibilité d’utiliser diverses méthodes d’animation. Les animateurs peuvent créer des dessins animés, des graphiques photoréalistes, des actions en direct ou une combinaison de différents thèmes.
Les interfaces VR stimulent la productivité et favorisent une meilleure collaboration
Une scène en animation prend plusieurs heures à créer en utilisant des interfaces traditionnelles basées sur la saisie à la souris et au clavier. Avec une interface basée sur la RV, les animateurs peuvent réduire considérablement le temps de production tout en maintenant la qualité du travail.
Les animateurs ont maintenant accès à des outils de RV qui leur permettent de truquer les personnages et d’animer les images clés en 3D. Ils peuvent intégrer facilement des vidéos 360 et des données d’animation. Ils peuvent également enregistrer de l’audio directement sur la plateforme, ce qui leur permet de gagner encore plus de temps.
En plus de stimuler la productivité, la RV favorise également une meilleure collaboration entre les animateurs. Elle leur permet de relier les images de manière transparente et rationalise l’ensemble du processus de production.
Les applications VR transforment l’expérience de visionnage
Du côté des consommateurs, les applications de RV transforment l’expérience de visionnage. Elles offrent une expérience multi-sensorielle qui renforce les émotions et rend les histoires plus racontables. Elles plongent complètement les utilisateurs dans les histoires et leur permettent d’interagir avec les personnages. Avec la réalité virtuelle, les histoires vont au-delà des récits linéaires et les téléspectateurs ont plus de contrôle sur l’histoire.
Les nouveaux domaines de l’animation
Avec l’évolution de la technologie de la réalité virtuelle, nous pouvons nous attendre à des interfaces utilisateur plus intuitives à l’avenir. Les outils d’animation deviendront plus avancés. Leur utilisation et leur application seront plus répandues et sans doute de meilleure qualité. Au cours des prochaines années, la RV et les autres technologies de réalité étendue feront certainement d’énormes progrès en matière d’animation.
Oculus a lancé la première mise à jour majeure pour le casque de réalité virtuelle autonome Quest 2, en ajoutant un mode de rafraîchissement à 90 Hz qui avait été promis lors du lancement du produit.
Quest 2 90 HZ
Selon le blog d’Oculus, les développeurs peuvent maintenant envoyer des titres pour Quest 2 qui incluent le support 90Hz au lieu du taux de rafraîchissement de base par défaut de 72Hz. Une sélection de jeux comme Beat Saber, Vacation Simulator, Superhot et Space Pirate Trainer supporteront le taux de rafraîchissement de 90 Hz, et d’autres sont à venir.
En connectant le Quest 2 à votre PC avec un câble Oculus Link, vous pouvez désormais choisir entre 72 Hz, 80 Hz ou 90 Hz avec l’application Oculus.
La qualité visuelle a également été améliorée pour les utilisateurs qui profitent de la fonction Link. Pour ceux qui dépendent des paramètres automatiques de profil lorsqu’ils modifient les graphiques de leur Quest 2, une nouvelle interface permet de modifier ces options dans l’application PC.
Dans le courant du mois, Oculus proposera également des options supplémentaires pour les applications mobiles et de bureau du casque. Il s’agira notamment de la prise en charge d’Oculus Move, une application qui permet de suivre les calories brûlées pendant la RV. En outre, l’application permettra de capturer l’écran du casque pour iOS ou Android afin de le partager rapidement avec des clips de jeux et bien d’autres choses encore.
Enfin, Oculus proposera une aide pour les jeux à offrir en cadeau sur sa boutique en ligne, ce qui pourrait s’avérer utile si vous connaissez quelqu’un qui va recevoir un Quest 2 pendant les fêtes de fin d’année.
Le casque VR autonome d’Oculus de l’année dernière (Oculus Quest) peut désormais être lancé sur votre PC via Chrome ou Microsoft Edge.
Auparavant, les utilisateurs pouvaient déjà lancer la vue de Quest sur leur téléphone ou leur téléviseur. Cela permet aux autres personnes présentes dans la pièce de voir ce que vous voyez dans la RV.
Lorsque Quest a lancé le casting, le processus était difficile : souvent, il ne fonctionnait pas et le délai pouvait être de plus de 5 secondes. Facebook l’a amélioré fin 2019 pour augmenter la fiabilité et diminuer le temps de latence.
Oculus Quest
Cette nouvelle fonctionnalité, disponible dès maintenant, vous permet de lancer un casting sur un navigateur web à l’adresse www.oculus.com/casting. Vous devez être connecté à votre compte Facebook dans ce navigateur, qui peut être Edge ou Chrome.
Mode spectateur pour l’année prochaine
L’année prochaine, l’application mobile sera dotée du « mode spectateur », qui vous permettra d’avoir une vue à la troisième personne et de contrôler l’angle de la caméra. Cela nécessitera une mise en œuvre par les développeurs et ne sera donc pris en charge que par certaines applications.
Le département de musique de l’université d’État de Caroline du Nord et la compositrice primée Lisa Bielawa ont créé l’expérience musicale VR pour aider les musiciens à faire face à l’auto-isolement.
Brickyard Broadcast événement musical
Les chœurs et les orchestres peuvent-ils encore se produire ensemble pendant le confinement ? Comme ils ne peuvent pas être ensemble dans le même espace physique, la technologie a la solution : une expérience musicale en réalité virtuelle réunissant des musiciens qui s’isolent chez eux.
Ce n’est pas un concept théorique, mais une réalité que vous pouvez vivre le 12 novembre en participant à l’événement de réalité virtuelle Brickyard Broadcast. Il est organisé par le département de musique de l’université d’État de Caroline du Nord et bénéficie de la contribution de la compositrice primée Lisa Bielawa.
Brickyard Broadcast : un événement musical en réalité virtuelle qui rassemble les musiciens en toute sécurité
La pandémie actuelle a perturbé la vie de tout le monde, mais certaines personnes sont plus touchées que d’autres. Alors que les musiciens individuels peuvent toujours se produire dans l’environnement en ligne, les chœurs et les orchestres trouvent qu’il est presque impossible de continuer à faire de la musique ensemble.
La solution à ce problème a été trouvée par deux personnalités du département de musique de l’université d’État de Caroline du Nord : Peter Askim, directeur des études orchestrales, et Nathan Leaf, directeur des activités chorales. Ils ont commandé à la compositrice Lisa Bielawa la création et la production d’un événement musical en réalité virtuelle en direct.
Lisa Bielawa
Brickyard Broadcast se déroulera dans un espace virtuel qui recrée le célèbre espace de rassemblement public devant la bibliothèque D.H. Hill Jr. de l’Université d’État de NC.
Créer une expérience musicale unique en réalité virtuelle
Deux éléments majeurs se rejoignent pour rendre possible Brickyard Broadcast. Premièrement, il y a le travail de création de l’environnement RV du Brickyard. L’expérience immersive n’imitera pas l’espace physique lui-même, mais en donnera une interprétation créative.
L’environnement de réalité virtuelle a été créé par Jason Evan Groth (Digital Media Librarian), Colin Keenan (University Libraries Specialist), Kyle Langdon (Universities Libraries Specialist and Audio Engineer), Ian Boyd (NC State University Library Specialist) et Sarah Hassan (NC State University Libraries Pentair Fellow).
D’autre part, des centaines de musiciens ont enregistré des morceaux de musique composés par Bielawa au cours du semestre d’automne 2020, tout en s’isolant chez eux. Ces musiciens sont membres des orchestres d’État du NC, des chœurs d’État du NC et des Concert Singers of Cary.
Le talent derrière l’expérience musicale de la RV
Le compositeur et producteur Bielawa est titulaire de plusieurs prix prestigieux, tels que le prix de Rome pour la composition musicale et le prix de musique 2017 de l’Académie américaine des arts et des lettres. Pour 2020, elle a obtenu la bourse de découverte de l’OPERA America’s Grants for Female Composers pour son travail en cours, l’opéra Centuries in the Hours.
Conformément à son style très apprécié, les textes accompagnant la musique de Brickyard Broadcast seront des chefs-d’œuvre littéraires bien connus d’auteurs tels que Walt Whitman, Frank Lloyd Wright, H.G. Wells et Gertrude Stein.
Que peut attendre le public de Brickyard Broadcast ?
L’expérience musicale en réalité virtuelle consistera en 20 minutes de musique, suivies d’une session de questions-réponses avec le compositeur Bielawa, Askim et Leaf.
Il ne s’agira pas d’un concert en ligne dans le sens où les musiciens se réuniront et partageront la performance sur une plateforme vidéo. Au lieu de cela, chaque musicien se créera un avatar et se réunira dans l’espace virtuel.
Les spectateurs pourront choisir entre une expérience sonore organisée et une expérience modulaire autogérée. Si vous souhaitez vous joindre à cette expérience musicale unique de réalité virtuelle, visitez le site officiel du département de musique de l’université d’État de Caroline du Nord. Le lien pour la diffusion de Brickyard sera affiché le 12 novembre, avant le début de l’événement à 18 heures (heure de l’Est).
Le curieux engin de l’University College London se situe entre la sorcellerie scientifique et un terrifiant épisode du Black Mirror. Il pourrait bien avoir prouvé une théorie vieille de plusieurs décennies sur le fonctionnement du système GPS du cerveau pour se souvenir.
lasers
Laissez-moi vous dessiner un tableau : imaginez une souris qui fait son jogging sur une roue de course. Sa tête est maintenue fermement mais confortablement stable. Une « fenêtre » en verre transparent a remplacé une partie de son crâne. Une lentille de microscope et deux lasers sont suspendus au-dessus de la souris. Un grand dôme vidéo l’entoure, encapsulant presque entièrement son petit corps dans le dispositif de réalité virtuelle. Alors qu’elle court, regardant son environnement virtuel comme un joueur chevronné dans Ready Player One, les scientifiques observent ses neurones GPS impliqués dans la navigation qui font littéralement des étincelles de lumière sous le microscope.
Et comme si cela ne suffisait pas, voici le clou du spectacle : grâce à des lasers, l’équipe a pu pirater le système GPS du cerveau de la souris et le « transporter mentalement » vers un but virtuel. C’est comme si vous veniez de partir en quête d’un objet précieux dans un jeu de rôle. Soudain, des coups de laser sur votre cerveau vous font croire que vous avez déjà atteint le but de la quête. Vous essayez de cliquer pour ouvrir le coffre à outils, mais en vain, car en réalité vous êtes encore loin du but.
C’est fou, hein ? La froideur de ce dispositif de « contrôle mental » est suffisante pour entrer dans l’histoire de la neurotechnologie. Mais ce qui est encore plus stupéfiant, c’est qu’elle a peut-être finalement prouvé une théorie, récompensée par un prix Nobel, sur la façon dont notre cerveau relie des souvenirs spécifiques à l’endroit de l’espace où ils se sont produits (réel ou virtuel). Ce café où vous avez eu un super rendez-vous ? Ce lieu dans le Witcher où vous avez trouvé le précieux équipement de Mastercraft ? Nous saurons peut-être enfin comment cela est encodé dans le cerveau. L’étude a été publiée dans la prestigieuse revue Cell.
« Cette étude change la donne car elle montre que nous pouvons utiliser la lecture et l’écriture optiques de l’activité de certains neurones pour manipuler les souvenirs, ce qui nous permet de mieux comprendre et potentiellement d’améliorer comment l’activité des circuits neuronaux nous aide à prendre des décisions », a déclaré l’auteur principal, le Dr Michael Hausser, de l’University College London (UCL).
Lieux et espaces
Savoir où l’on se trouve dans l’espace est essentiel pour la vie. Où avez-vous garé votre voiture ? Où se trouve votre maison ? Où se trouve le café que vous aimiez déjà ?
Aussi simples que certaines de ces questions puissent paraître, les souvenirs spatiaux sont parmi les premiers à se désintégrer dans des troubles tels que la maladie d’Alzheimer. Elles montrent également à quel point l’espace est étroitement lié à la mémoire, en ce sens que notre cerveau a tendance à « fixer » des souvenirs spécifiques à un endroit particulier.
Il y a plusieurs décennies, le Dr John O’Keefe de l’UCL a dévoilé un phénomène étrange qui pourrait expliquer pourquoi il en est ainsi. L’hippocampe, une région profonde du cerveau bien connue pour l’encodage des souvenirs, abrite également des « cellules de localisation », des neurones qui s’activent pour traiter des emplacements dans l’espace.
Surnommées le système GPS du cerveau, les cellules de localisation sont un étrange groupe dispersé dans l’hippocampe. Chacune a sa propre « personnalité », en ce sens qu’elle ne se déclenche que lorsque l’animal comme la souris ou un rat se trouve à un endroit précis dans l’espace. En d’autres termes, les cellules de localisation semblent cartographier le monde qui nous entoure à mesure que nous apprenons à le parcourir et à former une « carte cognitive » dans notre cerveau. Ces cartes cérébrales abstraites peuvent ensuite nous guider vers notre objectif : le bureau de poste pour déposer notre courrier ou le jardin à bière pour un « happy hour » du vendredi. Les cellules de lieu ont été l’une des composantes du prix Nobel de physiologie 2014 pour avoir décodé le sens du lieu dans le cerveau.
Pourtant, une question a intrigué les scientifiques : étant donné que les cellules de lieu vivent parmi les circuits neuronaux qui codent la mémoire, comment les deux interagissent-elles ? Les cellules de lieu ne sont-elles qu’un atlas statique que nous gardons en mémoire ? Ou forment-elles une sorte de Google Maps adaptable qui nous permet d’étiqueter, de marquer d’une étoile et de poser une épingle à n’importe quel endroit, en pointant nos souvenirs ?
Faire la lumière sur la mémoire avec les lasers
La nouvelle étude a combiné deux méthodes extrêmement puissantes basées sur la lumière pour lire et écrire facilement dans le cerveau.
La première consiste à des protéines photosensibles appelées capteurs de calcium, qui peuvent être génétiquement ajoutées aux souris. Ces protéines parsèment l’extérieur des neurones comme des lumières détectant les mouvements et n’éclairent la cellule que lorsqu’elle devient active. Comme les cellules GPS s’activent lorsque la souris se déplace vers différents endroits virtuels, cela permet aux scientifiques d’identifier ces cellules.
La seconde est l’optogénétique. Ici, un ensemble différent de protéines photosensibles est inséré dans les mêmes neurones. Ces dernières agissent comme des interrupteurs plutôt que comme des ampoules. Lorsqu’ils sont zappés avec des lasers de différentes fréquences, les scientifiques sont capables d’allumer et d’éteindre ces interrupteurs. Cela permet d’activer ou de désactiver des neurones GPS spécifiques.
Le dernier élément était une installation de RV dans laquelle les souris couraient sur une roue en gardant leur tête stable. Comme les humains dans un jeu de RV, leur cerveau a traité l’environnement virtuel comme un chemin unique avec des maisons, des blocs et d’autres repères visuels comme une route du monde réel.
L’équipe a d’abord entraîné les souris à reconnaître un endroit précis, la zone de but sur le chemin virtuel tout en surveillant leurs cellules GPS actives. Une fois sur place, les souris ont appris à lécher trois fois un capteur pour obtenir un prix de l’eau sucrée. Cela a essentiellement permis de relier les neurones GPS actifs dans la zone de but virtuelle avec la mémoire de quelque chose de sucré.
Puis vint la sorcellerie. Si les cellules de localisation GPS sont chargées de localiser les souvenirs dans le cerveau, la réactivation artificielle de ces cellules devrait réactiver la mémoire, quel que soit l’endroit où se trouve réellement la souris dans l’espace virtuel et l’amener à se lécher les babines par anticipation.
C’est ce qui s’est passé, mais avec un rebondissement. Plutôt que de faire exploser tous les neurones GPS marqués à la lumière en même temps, l’équipe les a réactivés artificiellement dans cinq bacs, en se basant sur leur séquence normale. Cela revient à jouer des « touches de piano » neuronales sur une mélodie qui a un sens pour le cerveau, plutôt que de les marteler simultanément dans une cacophonie neurologique.
Cela a fonctionné comme un charme. Même lorsque la souris n’était pas dans sa zone de but virtuelle, dès que les scientifiques ont activé artificiellement les neurones GPS qui codaient pour la zone de but, la souris a commencé à se lécher les babines. En fait, l’équipe a pu transporter mentalement la souris jusqu’à son lieu de destination, quelle que soit sa perception de la réalité.
Et ce n’est pas tout. Au fur et à mesure que le nombre de zaps laser augmentait, le réseau cellulaire du GPS de la souris s’est « remappé », en ce sens qu’elle a cessé de se lécher autant dans la zone de but précédente. D’une certaine manière, l’équipe a artificiellement coupé la mémoire de la souris de l’eau sucrée de son emplacement réel précédent, et l’a plutôt recréée à un nouvel endroit grâce à un piratage intelligent du cerveau basé sur la lumière.
À première vue, ces résultats semblent insensés : ils suggèrent que nos précieux souvenirs sont épinglés sur une carte spatiale cognitive dans le cerveau. Il suffit d’activer un ensemble de cellules de localisation GPS, un peu comme un zoom sur un point de Google Map pour déclencher une mémoire si puissante que vous vous comporterez comme si vous reviviez ce souvenir.
Mais cela a du sens. Nous avons probablement tous fait l’expérience de passer devant un quartier familier où un coin de rue déclenche soudainement le souvenir d’un grand restaurant à proximité, provoquant les chutes du Niagara dans notre bouche et nous obligeant à les chercher.
Ce que l’étude montre, cependant, c’est qu’il n’y a pas de corrélation. Les cellules de lieu sont si puissantes que la composante « où » de nos souvenirs pourrait être remodelée en un lieu différent, si on lui donnait des outils neurotechniques puissants et précis.
Les cellules de localisation indiquent réellement à la souris où elle se trouve (l’emplacement cible), et les souris « écoutent » réellement leurs cellules de localisation lorsqu’elles prennent des décisions », a déclaré le premier auteur, le Dr Nick Robinson, de l’UCL.
L’étude est l’une des premières à établir un lien direct et définitif entre les cellules de localisation et la mémoire et la prise de décision dans le cerveau. Mais il y a tant de choses que nous ne savons pas encore. Quel est exactement la stratégie de codage électrique du cerveau ? Comment les cellules de localisation sont-elles connectées aux circuits de mémoire ? Et avec l’explosion actuelle des interfaces cerveau-ordinateur, pourrions-nous éventuellement accepter des expériences, basées sur des souvenirs et des lieux antérieurs, si puissantes qu’elles déforment notre réalité ?
Le 2 octobre, Lucid Motors a ouvert un « studio » à Beverly Hills, en Californie, avec un centre de service attaché, en prévision de son projet de lancer au printemps prochain l’étonnante Lucid Air, une berline de luxe très performante.
Voiture Lucid
Afin de trouver des clients pour ce qui est, après tout, une marque nouvelle et peu connue, Lucid prévoit de lancer 20 centres de vente au détail de ce type d’ici la fin de l’année prochaine dans des endroits haut de gamme, notamment New York (le quartier des boucheries), Miami, West Palm Beach, Boston, la zone métropolitaine de Washington et d’autres endroits en Californie (qui réalise la moitié des ventes de véhicules électriques du pays).
Lucid est en train d’établir des bases similaires en Europe, et le Moyen-Orient est également prévu. « Nous voulons des endroits dans des zones riches où il y a beaucoup de circulation piétonne », a déclaré Derek Jenkins, vice-président du design de Lucid, dans une interview exclusive.
Plan de Lucid
Le plan est logique car il ne s’agit pas d’une voiture bon marché. Le modèle de lancement est connu sous le nom de Dream Edition, et il est conçu pour faire exploser la Tesla, avec 1 080 chevaux, un temps de 0 à 60 secondes de 2,5, le quart de mile en 9,9 secondes, et une autonomie de 508 miles. Les acheteurs recevront tout cela dans un ensemble attrayant conçu pour être un VE, ce qui se traduit par une taille assez réduite mais un rangement épique et un espace pour les jambes à l’arrière. Mais ils paieront pour ce privilège, 169 000 dollars. (La prochaine voiture de base sera comparativement abordable, à 77 400 $ avant le crédit d’impôt fédéral de 7 500 $).
MediaVillage a parlé à Jenkins des plans de marketing pour l’Air. « Nous nous efforçons de faire de nos studios une expérience immersive », a déclaré M. Jenkins. « Les gens veulent vraiment s’impliquer dans la voiture. » Tesla s’est d’abord inspiré des Apple Stores, avec une stratégie discrète conçue pour faire connaître la marque aux consommateurs. En fait, l’achat de la voiture se ferait principalement en ligne, une tendance qui a été accélérée par COVID-19 même pour les marques grand public.
voiture Lucid
Stratégie
Cette stratégie est en quelque sorte née d’une nécessité, car Tesla avait l’intention de posséder ses magasins, et non d’utiliser le modèle de franchise qui a enrichi des générations de concessionnaires automobiles. Ces concessionnaires ont fortement réprimé Tesla, ce qui a entraîné des interdictions de vente dans certains États.
Lucid contrôle également les canaux de vente, et Jenkins affirme que les visiteurs auront une « expérience de basse pression » (une autre innovation d’Apple). Des voitures seront exposées, ainsi que certaines de leurs pièces clés, notamment le bloc de batteries et le moteur compact/inverseur/transmission/différentiel. Il y aura également des expositions de matériel/sélections de peintures, et ce que Jenkins décrit comme « beaucoup de contenu immersif sur les écrans vidéo ».
Lucid et la réalité virtuelle
Et puis il y a la réalité virtuelle. Les clients pourront entrer dans une maquette de l’intérieur d’Air, enfiler des casques 4K VR, voir la voiture dans de nombreuses itérations différentes et être « transportés » vers diverses destinations, y compris la plage de Monterey. De chez vous, une immersion similaire est disponible grâce à Lucid Studio Live, une expérience basée sur le réseau Cloud et alimentée par le produit Concierge de ZeroLight.
« Nous recherchons un nouveau type de luxe », a déclaré M. Jenkins, « très high-tech, avec une expérience numérique impressionnante et un message de durabilité sous-jacent. Ce n’est pas une question d’abondance, d’opulence et de frime. Nous l’appelons « post-luxe ». Le consommateur riche moderne est conscient de l’excès et des privilèges dont il peut avoir l’air. Ils veulent une voiture plus expérientielle, avec une technologie numérique de pointe et une empreinte écologique ».
L’entreprise considère que sa clientèle a un revenu annuel « de 100 000 dollars sans limite ». « Beaucoup de nos clients sont déjà des acheteurs de VE », a déclaré M. Jenkins. « Ils ont déjà l’affinité et veulent quelque chose qui n’est pas sur la route aujourd’hui. Mais la plus grande opportunité est celle des personnes qui n’ont pas encore acheté de VE, et nous constatons un grand intérêt de leur part. Après tout, 98 % du marché achète encore des voitures à combustion interne ».
Les commandes
Lucid a refusé de dire combien de commandes anticipées il a pour l’Air. En collaboration avec l’agence de marque Marshall Strategy et l’agence de création Tolleson, Lucid a fait une déclaration qui s’inscrit dans le cadre de la personnalisation agressive possible avec la Air. « Ceux qui ne sont pas liés par la convention sont libres de définir leur propre expérience. »
« La publicité est en cours », a déclaré le porte-parole de Lucid, Andrew Hussey. « Nous cherchons juste le meilleur moment pour nous déployer. Nous le ferions sur les grands réseaux ». C’est une différence avec Tesla, qui ne fait pas beaucoup de publicité. Mais Tesla bénéficie d’énormes quantités de publicité gratuite, et Lucid est une nouvelle marque. Le matériel promotionnel que l’entreprise a produit est relativement sophistiqué. Voici une vidéo sur le quart de mile de 9,9 secondes de la voiture :
Si vous avez aimé cet article, cliquez sur les boutons sociaux pour le partager avec vos collègues, amis et vos membres de famille.
La technologie de réalité virtuelle est utilisée afin d’améliorer la sécurité des piétons pour les Australiens âgés, grâce au projet de recherche de l’Université d’Australie du Sud.
Route australienne
Le projet
Le nouveau projet prévoit la mise à niveau planifiée des routes et des zones piétonnes en utilisant la technologie de la réalité virtuelle, dans le but d’améliorer la sécurité routière pour les personnes âgées et d’aider les planificateurs et les ingénieurs à concevoir de meilleures routes et de meilleurs sentiers.
Au cours de cette étude de trois ans, les chercheurs compareront les expériences des piétons vulnérables dans des environnements réels à celles qui sont saisies dans des environnements virtuels.
Des méthodes d’expérience utilisateur basées sur la RV seront utilisées pour enregistrer et identifier les problèmes de sécurité pour les personnes participant à l’étude. Cela implique de tester des options appelées techniques de locomotion par RV, qui rendent un environnement RV praticable à pied en tenant compte des caractéristiques individuelles des personnes âgées.
Une étude pilote a déjà été entreprise sur la Jetty Road à Glenelg.
Un regard sur les statistiques
Les piétons âgés sont surreprésentés dans les accidents de la route, avec jusqu’à 50 % de tous les piétons blessés dans les pays de l’OCDE qui sont des personnes âgées.
De même, une étude réalisée par Victoria Walks a révélé que les personnes âgées de 65 ans et plus représentent 14,6 % de la population, mais sont responsables de 39 % de tous les décès de piétons.
Le ministère de l’infrastructure, des transports, du développement régional et des communications a accordé à l’UniSA une subvention de 142 034 dollars du Fonds d’innovation pour la sécurité routière (RSIF) afin d’étudier les méthodes basées sur la RV pour évaluer la sécurité des piétons à travers les yeux et les expériences des personnes âgées.
La recherche suggère que la conception des intersections routières, la largeur des passages à niveau, l’emplacement et le moment des feux de circulation ainsi que les types et la densité du trafic jouent tous un rôle dans la surreprésentation des personnes âgées dans les accidents de la route.
Les chercheurs
L’étude interdisciplinaire implique trois chercheurs de l’UniSA : le Dr Jun Ahn (gestion de la construction), le Dr Gun Lee (technologie de la RV) et le Dr Ancret Szpak (psychologie).
Selon le Dr Ahn, l’étude utilisera des méthodes d’expérience utilisateur, notamment le suivi des yeux, la verbalisation des pensées des participants (techniques ThinkAloud) et des biocapteurs portables pour suivre les indicateurs physiologiques du stress tels que le rythme cardiaque, la réponse de la conductance de la peau et le mouvement.
Selon lui, « avoir accès à un large éventail de données provenant d’environnements virtuels et réels signifie que nous pouvons surmonter les limites des méthodes précédentes d’évaluation de la sécurité des piétons.
« Grâce à ce projet, nous allons créer un environnement virtuel pour simuler l’environnement routier. Nous pouvons facilement modifier ce modèle virtuel pour tester l’impact de divers facteurs, tels que la conception des intersections, la largeur des passages à niveau et les feux de signalisation, sur la sécurité routière ».
Objectif du projet
Le projet se concentrera sur les besoins des personnes âgées, qui peuvent, par exemple, avoir une vision ou une audition déficiente, avoir besoin d’une aide à la marche ou avoir besoin de plus de temps pour traverser la route que les jeunes, explique le Dr Ahn.
Le Dr Ahn dit qu’il espère poursuivre ce travail grâce à ce nouveau projet, en accord avec le plan à long terme de la ville de Holdfast Bay pour la rénovation de la route de la jetée.
Notre ambition ultime est que les conseils municipaux puissent utiliser cette technologie pour tester virtuellement la conception des routes avec des piétons vulnérables, alors qu’ils en sont encore au stade de la planification », explique le Dr Ahn.
« Cela signifie que les urbanistes peuvent se faire une idée de la sécurité et de l’utilité de l’environnement bâti et aborder tout problème de sécurité routière bien avant le début de la construction.
« En rendant les routes plus sûres et en réduisant la probabilité d’accidents, nous espérons voir plus de personnes âgées se promener ».