Quel avenir pour les interfaces homme-machine ?

On vous parle beaucoup des « avancées » technologiques à la mode: Web 2.0, Web multimédia et vidéo, sont quelques-uns de ces sujets dans le vent, qui font les beaux jours de la blogosphère et de la presse spécialisée.

Pourtant, je vais peut-être vous l’apprendre, la véritable révolution en marche ne réside pas dans ces petites avancées technologiques (même web 2.0 n’est qu’un assemblage amélioré de toutes les technologies qui émergent sur Internet) et très peu scientifiques. La prochaine révolution informatique, celle sur laquelle travaillent la plupart des laboratoires universitaires ou privés, souvent en association avec des entreprises de pointe, aidés par des financements gouvernementaux, que ce soit en Europe ou aux Etats Unis, c’est celle des interfaces homme-machine.

Très rapidement, maturation des sciences du langage et du traitement multimédia aidant, accompagnées de nouvelles technologies électroniques, vous allez voir apparaître sur le web, ou dans vos ordinateurs, mais aussi dans votre vie quotidienne, ou même dans les corps humains, des applications et des fonctions étonnantes tant elles seront simples en apparence, et pourtant d’une complexité logique, mathématique, voire biologique, absolument stupéfiante.

Ces sciences en voie de maturation ont des noms. Les TALN pour Traitement et analyse de la langue Naturelle. Le TAIM pour Traitement et analyse des données multimédia, sans oublier celle qui fait la une en ce moment, la plus spectaculaire, la « biomécanique » et la « bionique » ou électronique mariée au du biologique.

Avez-vous entendu parler de Claudia Mitchell ? Cet ex-marine américaine ne pensait pas pouvoir retrouver une vie normale après l’amputation de son bras gauche à la suite d’un accident de moto. Cette jeune femme a pourtant aujourd’hui retrouvé l’usage de son bras entièrement mécanique (5 kg et 6 moteurs) grâce à une prothèse commandée par la pensée.

 
Voir la vidéo: Leben Heisst Leben envoyé par SugoiYoshi

 

Jesse Sullivan, un ancien joueur de football qui a perdu ses deux bras, avait été le premier à se prêter à cette expérience en 2005 (voir la vidéo ici ).

Cette prouesse est rendue possible grâce au procédé mis au point par l’équipe du docteur Todd Kuiken, qui consiste à greffer les résidus des terminaisons nerveuses du bras sectionné sur la zone pectorale et d’installer des électrodes à la surface de la peau. Avec ce dispositif, il devient possible de capter les signaux électriques produits par les nerfs et qui transmettent habituellement des commandes motrices. En résumé, on sait désormais capter les signaux nerveux dédiés à un bras disparu, et les interpréter pour commander un bras mécanique qui le remplace. A terme, il devrait même être possible de produire le résultat inverse, c’est à dire de restituer la sensation de toucher en reliant des capteurs aux terminaisons nerveuses concernées, qui à leur tour renverront la sensation au cerveau. Ce dispositif fonctionne en partie avec Claudia Mitchell comme le montre la vidéo. De la pure fiction il y a encore quelques années !

Voilà le vrai défi des sciences informatiques en marche ! Et il nous amène tout naturellement aux autres formes d’interfaces homme-machine qui devraient elles aussi être supplantées par nos bons vieux « périphériques biologiques » : la bouche, qui pourrait être utilisée pour parler à la machine plutôt que de taper sur un clavier, par exemple. La compréhension de la syntaxe et le dialogue pour commander un logiciel plutôt que l’interface graphique (c’est à dire l’écran) ou les assemblages booléens, aussi.

Si la lecture vocale peut être considérée aujourd’hui comme une technologie mature – il suffit de lire les articles d’Agoravox avec le dispositif de readspeaker – ou plus simplement, d’expérimenter le lecteur vocal de Microsoft Windows XP avec le PDF Reader d’Adobe, la capacité de reconnaissance de la voix et de transcription de textes parlés par des ordinateurs est aujourd’hui encore balbutiante. Le taux de fiabilité est proche de 100% pour ce qui est d’une simple serrure vocale par exemple, et variable de 40 à 60% pour la transcription écrite de textes d’après des émissions radiophoniques ou la transformation en écrits de savoirs oraux. D’ailleurs, Microsoft, qui voudrait implanter un moteur de reconnaissance vocale dans son prochain système, éprouve les pires difficultés: la dernière démonstration publique de la fonction de reconnaissance vocale incluse dans Windows Vista a très mal tourné (comme le montre la vidéo ici).

Pourtant, conscient des enjeux, Microsoft persiste et signe, et confirme, quoi qu’il arrive, que son prochain système d’exploitation intégrera bien un moteur de reconnaissance vocale dans huit langues. On peut le croire : les anciens utilisateurs de Windows 1.0 savent à quel point Microsoft ne recule jamais devant le lancement d’un produit mal ficelé pour "forcer le marché"…

Les mécanismes cognitifs et la "compréhension" en guise d’étape suivante

La commande vocale banalisée, demeurera alors la question de la compréhension de votre phrase par la machine (la fameuse « langue naturelle »). De ce côté-ci, encore, la science est en train de faire des bonds de géants qui se matérialiseront très bientôt sous forme de services innovants dans votre quotidien, y compris sur Internet.

Prenons un exemple. Aujourd’hui, lorsque vous posez une question à un moteur de recherche, c’est en réalité une partie de la réponse que vous fournissez, sous forme de mots clés. Le moteur se contentant de vous fournir une liste de documents ayant un bon niveau de similarité avec les mots clés que vous lui avez donné (on appelle ce système, utilisé sur Google, et la plupart des méta chercheurs, le « calcul de similarité »). Demain (ça fonctionne partiellement dans les labos), vous poserez une vrai question, au besoin oralement avec un micro, et le moteur analysera intelligemment la requête : vous ne direz plus « horaires sncf Paris» pour chercher un horaire mais plutôt « à quelle heure part le prochain train de Paris à courbevoie ? ». Et le moteur non seulement comprendra, mais vous fournira, pourquoi pas oralement, la bonne réponse !

Lorsque cette phase de la compréhension de l’homme par son ordinateur sera franchie (les projets à l’étude devraient arriver à échéance d’ici 2 ans), on s’attaquera au tri automatique et intelligent de vos données. Vous ne classerez plus laborieusement vos emails : l’ordinateur se chargera de trouver la meilleure organisation de vos dossiers, et vous retrouvera n’importe quelle donnée, d’après une question en langue naturelle (« je veux le mail que m’a envoyé untel le 10 mai sur le sujet x »).

La classification et le tri de données est un enjeu majeur sur lequel des sociétés telles que google investissent des centaines de millions : cette entreprise (1) a d’ailleurs récemment mis en place une équipe « image », débauchée largement dans les laboratoires universitaires américains, dont l’objectif est de mettre au point des outils de classement et d’indexation dédiés aux images fixes ou animées. L’enjeu ici, à plus long terme, est de vous permettre de fournir une vidéo, des photographies d’individus, et d’obtenir un index intelligent. Par exemple la référence de tous les passages où apparaissent des visages connus. Ou encore de trier automatiquement vos albums photos. Ou encore de substituer les mots de passe d’un ordinateur à une reconnaissance de visage par webcam.

Utopie ? Réalité ! Vous n’avez pas idée des changements qui vont se produire ! Rendez-vous pour le confirmer, ici, dans quelques années.