Actualite, Tag RFI, Technologie

[France] L’intelligence artificielle au service des malentendants


En France, près de la moitié des personnes diagnostiquées malentendantes ne s’appareille pas. Toujours stigmatisé, il s’avère pourtant que l’appareil auditif porté tôt représente un véritable frein à des problèmes de santé graves à long terme. Conjointement, ce secteur bénéficie d’avancées technologiques impressionnantes grâce, notamment, à l’intelligence artificielle. État des lieux et explications avec des experts dans le domaine.

En France, près de 10% de la population est malentendante selon Eurotrak, mais ce chiffre pourrait atteindre 25% selon l’Inserm. « Ce n’est pas rien, cette histoire de bien entendre », commente Fabrice Vigneron de chez Starkey, un fabricant d’appareil auditif. « Mais qu’est-ce qu’on en fait ? »

Au niveau mondial, cinq principaux fabricants se partagent 95% du marché de l’audioprothèse, pour environ 18 millions d’appareils. Parmi eux, les Américains de chez Starkey donc, les Suisses de chez Sonova (phonak) et un trio d’entreprises danoises : WSA, Great Nordic et Oticon. La France est le premier pays en Europe avec près d’1,7 million de personnes appareillées, seulement voilà : « sur ce marchétechnique et pointu, car très légiféré, il reste une moitié de la population concernée qui ne s’appareille pas. Pourquoi ? », s’interroge Eric Bougerolles de chez Oticon.

L’impact économique du déficit auditif en France et dans les pays développés

Première raison : « la stigmatisation de l’appareillage. Il est mal perçu socialement d’en porter un, alors que pour les problèmes de vue et le fait de poser des lunettes sur son nez, ce n’est pas pareil », sourit le professionnel en haussant les épaules de dépit. L’argent pouvait être un paramètre contraignant il y a quelques années, mais ça ne l’est plus depuis 2021, depuis l’instauration du « 100% santé ». Cette réforme, est-il expliqué par la sécurité sociale, « propose un ensemble de prestations de soins et d’équipements identifiés dans un panier spécifique pour trois postes de soins : audiologie (aides auditives), optique (lunettes de vue) et dentaire (prothèses dentaires). Ces paniers intègrent un large choix d’équipements de qualité qui seront pris en charge intégralement, sans frais supplémentaires à la charge de l’assuré. »

L’arrivée de l’audition dans ce panier santé est liée à la publication d’une étude décisive sur l’impact économique du déficit auditif en France et dans les pays développés. Il y est expliqué que « la perte auditive, en diminuant les capacités de communication des personnes, rejaillit significativement sur l’ensemble des dimensions de l’état de santé des personnes concernées, par une succession de conséquences en chaîne dont les principales sont l’isolement social, le déclin cognitif, la souffrance au travail, les troubles mentaux et les chutes. » Un raisonnement de santé public repris dans The Lancet.

Penser le cerveau avant de penser l’oreille

Ces conclusions ont conforté les récentes avancées technologiques chez certains fabricants. « Chez Oticon, depuis plus de 20 ans, on a décidé de penser cerveau avant de penser oreille avec notre approche BrainHearing, détaille Eric Bougerolles Cette étude est venue confirmer nos recherches, car c’est le cerveau qui entend et comprend alors que l’oreille ne représente que le canal d’entrée du son. Pendant longtemps, on ne s’est intéressé qu’à l’oreille, et on ne donnait pas aux cerveaux les informations dont il avait besoin. Historiquement, chez les fabricants, il y avait comme méthode : la compression, la réduction de bruits (le son qui arrive) et la directivité (focaliser sur la personne). Mais au final, c’est le cerveau qui va faire le traitement, c’est lui le meilleur réducteur de bruit. On a décidé avec nos outils de redonner toutes les bonnes informations au cerveau du malentendant, mais pas véritablement une image sonore normale. Pour cela, on a utilisé l’intelligence artificielle. »

« Le passage des anciennes vers les nouvelles technologies »

À plusieurs reprises au CES de Las Vegas, leur technologie auditive – le réseau neuronal profond – a obtenu des prix. « De la même façon qu’on utilise l’IA pour améliorer les performances liées au langage ou à la reconnaissance d’image, on a fait la même chose pour les scènes sonores – plus de 12 millions de scènes sonores ont été utilisées dans nos expériences. L’aide auditive apprend à traiter l’environnement sonore à la source et devient un système capable d’imiter le cerveau dans sa capacité d’apprentissage. C’est ça la vraie bascule, le passage des anciennes technologies vers les nouvelles technologies. On a pu donner 60% d’informations de plus avec un meilleur accès aux sources sonores qui intéressent l’entendant. Dans une conversation, la personne que je suis en train d’écouter naturellement émerge, là, via cette technologie. Un malentendant va mieux l’entendre. Même chose s’il y a plusieurs personnes. C’est 15% d’intelligibilité supplémentaire. »

Pour certains utilisateurs, les résultats sont déterminants. « J’ai maintenant accès à tous les sons dans mon restaurant et je sais spontanément de quelle table on m’appelle », explique un restaurateur. Eric Bougerolles appuie : « Nos études sur la fatigabilité sont très parlantes. Si on donne plus d’informations sonores, les gens fatiguent moins. Il y a une réduction de 15% d’effort d’écoute tout en augmentant les sources sonores. »

Transformer les aides auditives en outil multifonction

Oticona lancé le mouvement et c’est sur quoi travaillent dorénavant les fabricants : « On peut envisager de transformer les aides auditives en un outil multifonction. Comme un iPhone peut servir de capteur de santé, on peut très facilement avec un appareil auditif surveiller l’équilibre et potentiellement prévenir les chutes. L’aide auditive devient un système de santé connecté à part entière », explique Eric Bougerolles.

Fabrice Vigneron abonde : « Dans quelques années, on pourrait imaginer une forme de réalité augmentée via l’audition. L’intelligence artificielle permet beaucoup d’espoir et de créativité, comme la traduction simultanée. Comme le canal visuel est saturé (nous sommes constamment bombardés d’images) il reste le canal auditif à explorer technologiquement. On a de quoi faire. »

Source : Rfi

Commentaires

commentaires