Nouvelles de Tokyo (électronique)

Actuellement se déroule au Tokyo Big Sight Convention Center un salon des technologies disons innovantes du nom de Ceatec. La présentation d’un robot qui cueille les fraises après avoir reconnu à l’aide de caméras si la fraise est bien mûre à point et qui les range avec précaution dans des barquettes n’est presque rien à coté de lunettes capables de traduire en anglais un menu écrit en japonais, de servir d’écran tactile virtuel ou encore de reconnaître des visages … C’est le dernier né des joujoux technologiques présentés par NTT Docomo, le géant de la téléphonie japonaise. Pour lire un menu écrit en japonais, il suffit de le regarder et les lunettes permettent de voir l’image retouchée du menu traduit en anglais ou une autre langue en surimpression. On est déjà dans la fiction. Plus encore, ces lunettes permettent de reconnaître des visages s’ils sont enregistrés dans son smartphone et une fonctionnalité permet d’afficher (en sur-impression visuelle) les informations relatives à cette personne si elles ont été enregistrées dans le téléphone, du genre nom et prénom, occupation, numéro de téléphone, etc. Picasa fait déjà ça mais le degré de sophistication est arrivé avec ces lunettes bien au delà ! Mais mieux encore, en regardant une surface plane rectangulaire du genre feuille de papier A4 posée sur une table ou un coin de mur blanc, les lunettes transforment cette surface en pavé tactile virtuel sur lequel on va pouvoir utiliser ses doigts exactement comme on le fait sur le pavé tactile de son smartphone ou d’une tablette. Reliées (sans fil) à son smartphone (ou un ordinateur) les lunettes reconnaissent les mouvements des doigts et les transforment en instructions afin de voir leur déplacement dans l’écran doublement virtuel que l’on voit grâce aux lunettes en surimpression. Si on devient accro à ce genre d’accessoire, ce qui pourrait arriver plus tôt qu’on ne peut l’imaginer on n’aura plus qu’à dématérialiser notre corps pour devenir un être totalement virtuel … strawberry fields

Source : Agence JiJi

 

Le contrôle direct d’un robot par la pensée

Quand un opérateur contrôle un petit hélicoptère (on aurait tendance à dire drone) uniquement avec sa pensée, on croit voir un film de science fiction. Et pourtant c’est vrai comme le montre une vidéo en provenance du Collège d’Engineering de l’Université du Minnesota. La tête de l’opérateur est couverte d’un casque positionnant 64 électrodes qui envoient les signaux électriques du cerveau à un ordinateur qui les analyse en temps réel et envoie le signal de télécommande au petit hélicoptère. Pour faire tourner le petit modèle réduit, l’opérateur lève le bras gauche, à droite, le bras droit et pour s’élever il lève les deux bras. Le fait de bouger les bras requiert une activité cérébrale qui est enregistrée par le système encéphalographique transmis à l’ordinateur par un fil, mais ce pourrait être en wifi. Il n’y a pas de joystick ni de boite de commande, rien, juste le cerveau dont les signaux électriques sont décryptés par l’ordinateur qui les transforme en commandes pour le petit hélicoptère. Encore plus extraordinaire, l’opérateur ne voit pas l’engin volant mais ce que « voit » ce dernier par l’intermédiaire d’une petite caméra retransmis sur un écran. Il regarde l’écran et fait évoluer par sa pensée l’hélicoptère. La cybernétique vient donc de franchir une étape considérable dans la commande, directement par le cerveau du sujet, de prothèses artificielles ou de tout autre équipement pour handicapés et de multiples autres applications peuvent être d’ors et déjà imaginées ou envisagées comme des robots de surveillance ou d’intervention en milieu hostile. Certes, il faut que l’opérateur s’entraine comme doivent s’entrainer des manipulateurs de produits dangereux en laboratoire ou dans toute autre situation délicate car l’interface cerveau – ordinateur n’est pas invasive et ne demande pas au manipulateur de bouger un membre mais de simplement penser à le bouger !

130605090259

Si le lien ci-dessous n’est pas opérant, allez sur le lien de la source, c’est assez époustouflant.

http://www.youtube.com/watch?v=6LWz4qa2XQA&feature=youtu.be

Source : http://www.iop.org/news/13/jun/page_60302.html