Des cubes simples montrent les changements d'exécution pilotés par l'IA dans la réalité virtuelle

Des cubes simples montrent les changements d'exécution pilotés par l'IA dans la réalité virtuelle

Nœud source: 2688981

Le développeur AR et VR [Skarredghost] a été très enthousiasmé par un cube bleu virtuel, et pour une très bonne raison. Il s'agissait d'un prototype réussi d'expérience de réalité augmentée dans laquelle la logique sous-jacente au cube en tant qu'objet virtuel était modifié par l'IA en réponse aux instructions verbales de l'utilisateur. Dire "rendez-le bleu" a en effet rendu le cube bleu ! (Après un peu de temps de réflexion, bien sûr.)

Cela ne s'est pas arrêté là, bien sûr, et la preuve de concept du cube bleu a conduit à un certain nombre de démonstrations simples. Le premier montre une rangée de cubes changeant de couleur du rouge au vert en réponse au volume musical, puis un paquet de cubes change de taille en réponse au volume du microphone, et les cubes commencent même à se déplacer dans l'espace.

Le programme accepte les entrées parlées de l'utilisateur, les convertit en texte, les envoie à un modèle d'IA en langage naturel, qui crée ensuite les modifications nécessaires et les charge dans l'environnement pour apporter des modifications d'exécution dans Unity. Le flux de travail est un peu lourd et met en lumière de nombreux défis, mais il vos contrats et c'est plutôt chouette.

Les Le dépôt GitHub est ici et une bonne vidéo de démonstration est intégrée juste sous le saut de page. Il y a aussi une vidéo avec une discussion beaucoup plus approfondie de ce qui se passe et une franche exploration des défis techniques.

Si cette direction vous intéresse, il semble que [Skarredghost] ait rassemblé les détails pertinents. Et devriez-vous avoir une idée de prototype qui n'est pas nécessairement AR ou VR mais qui bénéficierait d'une reconnaissance vocale assistée par IA pouvant fonctionner localement ? Ce projet a ce qu'il vous faut.

[Contenu intégré]

Horodatage:

Plus de Pirater un jour