Les systèmes de synthèse de la parole existent déjà, comme le font les écrans à réalité augmentée. Cependant, un groupe d’adolescents de New York dirigé par Daniil Frants (qui a intégré le MIT Media Lab quand il avait 14 ans) a combiné les deux technologies pour former le « Live Time Closed Captioning System » (LTCCS, ou le Système de Sous-titrage proche en temps réel). Une fois installé, il pourrait révolutionner la façon dont les personnes sourdes communiquent avec le monde des entendants.
Le système se compose de trois éléments: un microphone compact qui est clipsé sur les vêtements de l’utilisateur (comme pour les présentateurs du journal de 20h à la télévision), un micro-ordinateur géré par Raspberry Pi/Adafruit de la taille d’un smartphone qui est conservé dans une poche, et un écran de type Google Glass.
Le micro est calibré pour entendre la parole humaine, même dans des environnements avec du bruit de fond considérable. Cet audio est traité par l’ordinateur, qui le convertit en texte et transmet ces données sans fil à l’afficheur. Clipsé sur une paire de lunettes existante émanant de constructeurs tiers, cet écran en retour affiche à l’utilisateur le texte, superposé sur leur point de vue de l’orateur.
Il y aurait très peu de décalage entre les mots parlés et affichés.
Actuellement, les membres de l’équipe ont créé un modèle de travail preuve de concept, et sont maintenant en train de fabriquer un prototype fonctionnel. À cette fin, ils se sont tournés vers Indiegogo pour lever des fonds destinés au développement. Un soutien de 650 dollars vous permet d’obtenir votre LTCSS, quand et s’il atteint la production.
https://www.indiegogo.com/projects/ltccs-the-live-time-closed-captioning-system#/