background preloader

Interface neuronale directe

Interface neuronale directe
Un article de Wikipédia, l'encyclopédie libre. Pour les articles homonymes, voir IND et BCI. Schéma d'une interface neuronale directe Une interface neuronale directe - aussi appelée IND ou BCI[1] (Brain-Computer Interface : Interface Cerveau-Machine, ou encore Interface Cerveau-Ordinateur) est une interface de communication directe entre un cerveau et un dispositif externe (un ordinateur, un système électronique, etc.). L'IND peut être unidirectionnelle ou bidirectionnelle. Ce type de périphérique est fondamentalement différent de toute autre interface homme-machine : une telle liaison ne requiert en effet aucune transformation préalable du signal électrique émis par l’activité cérébrale en activité musculaire (psychomotrice), cette dernière étant usuellement traduite en signal d’entrée pour la machine. Principe[modifier | modifier le code] Une IND unidirectionnelle : En revanche, une IND bidirectionnelle : Historique[modifier | modifier le code] Premiers travaux[modifier | modifier le code]

EyeCharm : contrôler son PC du regard avec un capteur Kinect La lentille qui équipe EyeCharm est fabriquée en Allemagne. L’algorithme travaille à partir des données fournies par les images, ce qui implique une puissance de calcul assez importante. 4titoo indique à titre d’exemple que son algorithme consomme 5 % de la puissance d’un processeur Intel Core i5-3470 cadencé à 3,2 GHz. L’entreprise compte optimiser son algorithme, mais recommande d’utiliser son accessoire avec un PC équipé d’un processeur AMD ou Intel multicœur et avec au moins 2 Go de mémoire vive. © 4titoo EyeCharm : contrôler son PC du regard avec un capteur Kinect - 1 Photo La détection du mouvement des yeux pour commander l’interface d’un ordinateur est prometteuse, mais elle est encore chère et rare. Toutefois, il existe une solution beaucoup moins onéreuse qui pourrait réellement démocratiser la détection du regard sur PC. L’adaptateur EyeCharm projette une lumière infrarouge sur le visage de la personne qui fait face à l’écran. A voir aussi sur Internet Sur le même sujet

Mouse Control via Webcam Introduction This application uses emguCV, a .NET wrapper for openCV, to perform image processing, through which we try to recognize hand gestures and control mouse using these gestures. In this app, cursor movement is controlled by the movement of hand and click events are triggered using hand gestures. Background I always wanted to have one such handy app to control mouse. Using the code The code uses a well known library for image processing, known as, openCV in the form of emguCV which is a .NET wrapper of it. First of all the application tries to catch a video input device. private void Form1_Load(object sender, EventArgs e) { try { CapWebCam = new Capture(); } catch () { } Application.Idle += ProcessFramAndUpdateGUI; } The processing code is divided into three main parts: Image Filtering to obtain biggest skin colored contour. Filtering to obtain skin colored contour First of all YCbCr filter is applied, with required thresholds to obtain skin colored parts of the image. 1. 2. 3.

Une technologie 3D sans lunettes pour smartphones et tablettes Le chercheur français David Fattal travaille actuellement dans le groupe de nanophotonique des HP Labs de Palo Alto, en Californie. Diplômé de l’École polytechnique (major de promotion) et de l’université Stanford, il est lauréat du prix MIT Technology Review qui vient de lui être décerné en tant que jeune innovateur français de moins de 35 ans. Il compte à son actif une cinquantaine de brevets. © HP, Nature Une technologie 3D sans lunettes pour smartphones et tablettes - 3 Photos Dans une célèbre scène de la saga Star Wars, le robot R2D2 projette un hologramme vidéo de la princesse Leia. Cette technologie, nous la retrouverons peut-être bientôt dans les smartphones, les tablettes tactiles, et pourquoi pas les montres intelligentes. Dans cette vidéo de démonstration, l’affichage en 3D développé par David Fattal et son équipe des HP Labs fonctionne sur un écran de 6 pouces en offrant 64 angles de vue différents en mode RGB (rouge, vert, bleu). David Fattal distingué par le MIT

Kinect peut assister les chirurgiens pendant les interventions Le torse, la tête et les bras du praticien sont suivis en permanence par le capteur Kinect afin de recueillir des informations contextuelles qui alimentent l’algorithme. Selon les chercheurs, ces données ont permis de réduire de façon très significative le pourcentage de faux positifs. © Université Purdue Kinect peut assister les chirurgiens pendant les interventions - 2 Photos Lors d’une opération chirurgicale, les médecins utilisent couramment l’IRM (imagerie par résonance magnétique). La manipulation de ces images nécessite que le praticien (ou une personne qui l’assiste) accède à l’ordinateur pour afficher les clichés au cours de l’intervention. Une alternative qui est en train de s’imposer repose sur la technologie de détection des mouvements, afin de permettre aux chirurgiens de manipuler l’outil informatique et les contenus dont ils ont besoin par leurs seuls gestes. La main créée par le Kinect dirigée par les gestes Le Kinect reconnaît 97 % des commandes A voir aussi sur Internet

Kinect devient une interface pour Windows Le boîtier Kinect, avec sa caméra, son détecteur infrarouge et ses microphones, voit et entend ce qui se passe autour de lui. Ses logiciels repèrent les êtres humains et peuvent reconnaître les visages. © Microsoft Kinect devient une interface pour Windows - 2 Photos Microsoft a réuni, jusqu’à ce soir, développeurs et journalistes à Las Vegas pour la conférence MIX 11 et a commencé une série d’annonces ou de démonstrations. Comme on s’y attendait, un autre SDK a été présenté : celui qui permet aux développeurs de réaliser des logiciels pour Windows utilisant l’interface « corporelle » Kinect. Avant d'envoyer un mail, ne pas oublier de lécher le timbre (virtuel) et de le coller sur l'enveloppe (virtuelle). Au dernier salon de la réalité virtuelle, Laval Virtual, le boîtier Kinect était d’ailleurs présent sur de nombreux stands pour des applications les plus diverses. A voir aussi sur Internet Sur le même sujet

Un gant capable de reconnaître l’écriture tracée dans le vide À l'image, le processus de reconnaissance d’écriture virtuelle. Les capteurs embarqués dans le gant détectent les mouvements, l’inertie et l’angle de la main (motion sensing with internal sensor). Ensuite, l’algorithme sépare les gestes des mouvements propres à l’écriture (write/no-write segmentation), puis applique le modèle statistique qui décode le geste pour reconnaître les lettres et les mots (HMM decoding + language model) et enfin produire le résultat (Final hypothesis). © Institut de technologie de Karlsruhe Un gant capable de reconnaître l’écriture tracée dans le vide - 2 Photos Après l’air guitar, bientôt l’air writing ? Rédiger un texto ou un courriel dans le vide et voir les mots apparaître sur l’écran de son ordinateur, de sa tablette ou de son smartphone, voilà ce que l’on pourrait faire dans un avenir pas si lointain grâce aux vêtements intelligents. Le gant mis au point par les chercheurs de l’Institut de technologie de Karlsruhe. A voir aussi sur Internet

Des lunettes à réalité augmentée pour manipuler les objets en 3D La paire de lunettes à réalité augmentée développée par Meta sur la base des lunettes Epson Moverio. Surmontées d’un capteur de mouvement, elles permettent de manipuler les objets virtuels du bout des doigts. Meta compte produire un kit de développement pour que les développeurs puissent créer des applications exploitant cette technologie. © Meta Des lunettes à réalité augmentée pour manipuler les objets en 3D - 2 Photos Ces derniers temps, on entend beaucoup parler de réalité augmentée, notamment depuis que Google a lancé son projet de lunettes, dont un premier exemplaire doit sortir cette année. Mais le géant américain n’est ni le seul ni le premier à travailler sur cette technologie qui recouvre de nombreuses applications. C’est précisément ce sur quoi travaille Meta. Un exemple d’application du système de réalité augmentée de Meta tiré de sa vidéo de démonstration. Meta propose de la « vraie » réalité augmentée Encore un effort de design à faire sur les lunettes 3D Sur le même sujet

8 façons d’améliorer l'expérience utilisateur sur votre site Un site web doit être en adéquation avec les besoins des utilisateurs afin qu’ils puissent trouver les informations recherchées et réaliser les tâches nécessaires le plus rapidement possible. Les sites lents ou qui proposent une interface déroutante sont frustrants et la majorité des utilisateurs sont peu tolérants avec les expériences utilisateurs pauvres. Améliorer constamment votre site est très important pour maintenir un flux constant d’utilisateurs heureux. Si vous buttez sur ce sujet, voici quelques idées pour commencer à optimiser votre site. 1. Pour perdre un utilisateur, quelques secondes suffisent ! 2. Le logo présent dans l’en-tête de votre site doit être comme un phare, guidant les utilisateurs vers la page d’accueil lorsqu’ils en éprouvent le besoin. Dans le cas contraire, ils devront chercher soit un bouton en forme de maison, utiliser frénétiquement le bouton « retour » du navigateur, ou pire, retaper l’URL de votre site dans la barre d’adresse…voir quitter le site. 3.

Related: