Tâche 6 : PLATEFORME DE SYNTHESE SPATIALISEE TEMPS-REEL POUR LA REALITE AUGMENTEE
Responsable : S. Ystad (LMA) - Participants : LMA, INCM, PSA
Sous-tâche 6.3 : Module de logique et d'interaction.
Le but de cette sous-tâche est la conception d’une couche logicielle permettant la gestion d’une scène sonore interactive par le biais de :
- L'interprétation en temps réel des données en provenance de capteurs.
- La détermination des interactions entre les différentes unités de contrôle à partir d’un scénario cognitif donné.
Des règles logiques seront prises en compte dans le module d'interaction afin de gérer la coordination entre les unités de contrôle.
L’interprétation des données et la définition de ces règles logiques seront définies selon les scénarii cognitifs établis dans le contexte spécifique des applications prévues (Tâche 2 et 3).
Par exemple, dans le cadre de l’application automobile, plusieurs unités de contrôle devront être utilisées en parallèle pour sonifier en temps réel les informations liées à la dynamique du véhicule et au conducteur.
Le module d’interaction aura alors pour fonction de commander les paramètres haut-niveau de synthèse et de spatialisation des unités de contrôle.
Cette commande s’effectuera en fonction du contexte et des actions de l’usager, et selon les interactions à mettre en place (avec l’utilisateur, mais aussi entre les unités de contrôle générant la scène sonore) spécifiées par le scénario cognitif (sous-tâche 2.2).
Autre exemple, dans le cadre de l'aide à l'apprentissage (Tâche 3), le mouvement de l'enfant qui écrit sera sonifié via une unité de contrôle.
Si un mouvement incorrect doit être corrigé, une autre unité sera déclenchée et informera l'enfant de son erreur en temps réel par une métaphore sonore.