JIZEN, Job interview simulation

1 avril 2012

JIZEN est un serious game simulant un entretien d’embauche qui plonge une personne dans un environnement totalement virtuel afin de l’entraîner à contrôler ses émotions.
Le candidat est équipé de capteurs qui mesurent  les expressions du visage, le rythme cardiaque, la respiration, etc., afin d’en déduire ses émotions. De son côté, le recruteur est un personnage virtuel  dont on peut configurer le comportement. On définit de même le scénario de l’entretien, qui s’adapte ensuite aux réactions observées.
Pour les besoins du projet, cet outil de formation est dédié à l’entretien d’embauche. Mais d’autres scénarios d’utilisation comme la prise de parole en public, la gestion du stress ou des applications du domaine médical sont déjà prévus.

Le projet ouvre ainsi la voie à toute une gamme de nouveaux usages de l’informatique émotionnelle (Affective Computing), une technologie en fort développement qui arrive aujourd’hui à maturité.
Ce projet a été développé par 5 partenaires : I-Maginer, porteur du projet, ENOZONE, ISTIA, LISA Angers, PerformanSe.

Publicités

Des outils pour l’expression des émotions

16 juin 2011

En 1677, dans une œuvre posthume inachevée, le Compendium Grammatices linguae hebraeae, Spinoza envisageait un système de signes  destinés à « exprimer les affections de l’âme que nous avons l’habitude de manifester par la parole ou le visage ». Et en effet, poursuivait-il « nous n’avons pas la même intonation lorsque nous parlons avec ironie et lorsque nous parlons avec simplicité; notre ton n’est pas le même non plus lorsque nous voulons exprimer la louange, l’admiration, le blâme ou enfin le mépris. Ainsi donc, à chaque affection notre voix et notre visage se modifient. Et les hommes qui inventèrent les lettres ayant négligé de représenter les affections par des signes, nous pouvons donc exprimer beaucoup mieux notre état d’esprit de vive voix que par l’écriture. »

Quelques 333 ans plus tard, cette négligence est en partie comblée et nous commençons à disposer de tels outils pour marquer et représenter les émotions ouvrant la voie à la naissance d’une nouvelle écriture, 3D, multimedia permettant d’exprimer aussi bien des idées que des émotions.

En voici 2 développés par l’équipe R&D d‘Animation Institut à Ludwigsburg en Allemagne :

EmoCow, un système très intuitif d’animation faciale à partir d’une roue d’émotions :

Emote, un service  permettant à partir de la saisie de texte et de marqueurs émotionnels d’envoyer des SMS animés :

Le projet PISE et la plateforme OpenSpace3D qui l’accompagne se situent dans cette même lignée : permettre une communication plus riche où idées et émotions ne sont plus séparées.


Des guides de musée virtuels et interactifs

6 octobre 2010

Fruit d’une collaboration entre l’Institut pour les technologies Créatives de l’Université de Californie du Sud  et le Musée de la Science, à Boston, ce projet met en évidence le potentiel pédagogique et commercial des agents conversationnels animés.

Combinant l’animation de personnages générés par ordinateur à l’intelligence artificielle et la recherche sur les agents virtuels autonomes, les 2 guides virtuels du musée  parlent directement avec les visiteurs. Non seulement ils sont capables de discuter le contenu scientifique d’une exposition au musée, mais ils peuvent aussi être drôle et reproduire toute une gamme d’émotions humaines.

Plus d’infos ici.


Une nouvelle version de l’éditeur Openspace3D

3 février 2010

La nouvelle version d’Openspace3D que nous vous proposons aujourd’hui sera présentée en avant première les 4 et 5 février prochain sur le salon IMAGINA à Monaco.
Cette nouvelle version a beaucoup gagné en stabilité et en ergonomie. Elle présente également de nombreuses caractéristiques nouvelles : intégration de la physique, contrôle flash, mode stéréo, plugins navigateurs, réseau et est accompagnée de nouvelles démos.
Avec cette nouvelle version, nous visons le développement de nouveaux usages en matière de 3D temps réel collaborative dans les domaine de la formation (serious games), de la simulation, du marketing (showrooms virtuels) du e-commerce, de l’immobilier (visites virtuelles) et de l’industrie (prototypage rapide) et proposons une solution alternative aux plateformes propriétaires.
I-Maginer vous propose de vous accompagner dans vos développements de projets 3D temps réels avec toute une gamme de services associés à la plateforme opensource Openspace3D :
– conseil en conduite de projet
– développement sur mesure
– formation
– intégration et installation serveur
Nos équipes production et R&D (chefs de projet, ingénieurs, développeurs et techniciens) sont à votre service.
N’hésitez pas à nous contacter directement pour en savoir plus.

Pour télécharger cette nouvelle version c’est ici .

Pour nous retrouver sur le salon IMAGINA c’est ici  


Emotion ML 1.0, un premier rapport public

30 octobre 2009

Les émotions humaines représentent de plus en plus un aspect crucial des systèmes interactifs homme-machine. Surtout pour des utilisateurs non experts où les réactions à des systèmes intelligents complexes ressemblent à des interactions sociales, impliquant des sentiments comme la frustration, l’impatience, ou l’impuissance, si les choses tournent mal. En outre, la technologie est de plus en plus utilisée pour observer les interactions humaines, comme la frustration des clients dans les applications de centre d’appels. Le traitement de ces types d’états dans les systèmes technologiques exige une représentation appropriée, qui devrait rendre les concepts et les descriptions élaborées dans les sciences humaines disponibles pour une utilisation dans des contextes technologiques.

Mis en place par le World Wide Web Consortium (W3C)  le groupe de travail sur l’Emotion Markup Language (EmotionML) 1.0, vient de rendre public son premier rapport qui décrit un langage conçu pour être utilisable dans une grande variété de contextes technologiques tout en tenant compte des concepts issus des sciences humaines.

Ce rapport est un travail en cours à consulter ici.


Reconnaissance émotionnelle : meet Milo

22 juin 2009

… »And this work, today now ! » nous affirme Peter Molyneux de Lionhead Studios, la société conceptrice de Milo, rachetée par Microsoft en 2006. L’intelligence artificielle et l’informatique émotionnelle ont de beaux jours devant elles.


Myblog3D : réalité virtuelle et IHM multimodale

16 octobre 2008

La réalité virtuelle multi-utilisateurs permet de nouveaux services de communication interpersonnelle à distance médiatisée par des avatars dans des mondes virtuels habités. En rassemblant dans un même espace virtuel les objets partagés et les utilisateurs distants, elle offre un moyen d’interaction et de collaboration.
Le projet de R&D Myblog3D, développé par I-Maginer et 3 laboratoires de recherche (CNRS-Telecom Paris Tech, Telecom & Management Sud Paris, Université Paris 8) propose de renforcer la perception mutuelle des internautes communicant et partageant des objets au sein d’un espace 3D virtuel par un dispositif d’interaction innovant intégrant des interfaces perceptuelles et la restitution virtuelle 3D des utilisateurs.

Il prendra la forme concrète d’un simulateur d’entretiens d’embauche faisant interagir dans un environnement 3D un candidat représenté par son avatar et un responsable de recrutement représenté par un agent conversationnel, permettant donc de visualiser les interactions homme/avatar/ACA.

Par vision artificielle en temps réel, au moyen d’une webcam ou d’un capteur stéréoscopique, il va permettre d’animer avec réalisme les avatars à partir d’une acquisition des gestes et expressions du visage de l’utilisateur ainsi représenté. Les paramètres inaccessibles, par exemple la direction du regard ou la pose de la main, ou acquis avec une robustesse insuffisante, sont générés de façon réaliste à partir de modèles comportementaux.
Par une perception multimodale intégrant la vision et la voix, Myblog3D appréhende également les émotions du locuteur et ses objets d’intérêt. L’animation du visage des agents virtuels sera générée automatiquement, de façon le plus possible conforme à la parole prononcé par l’utilisateur et à son état émotionnel.
En outre, le projet propose des algorithmes de transformation dynamique de la voix et des visages parlants qui permettent une graduation dans le déguisement ou la découverte de l’identité.
Ce projet s’attaque donc au verrou technologique de la perception et de la modélisation humaine par la machine. Il rassemble des technologies issues de travaux de recherche et les intégre dans une application fonctionnant en temps réel sur des PC grand public.

Une première restitution publique est prévue le 20 novembre prochain à 14h30 dans les locaux de Telecom Paris Tech. Plus d’informations sur http://myblog3d.com