Dans une étude révolutionnaire, Apple explore comment les AirPods pourraient servir de moniteurs cardiaques alimentés par l’intelligence artificielle, offrant une double fonctionnalité. Cette avancée promet de redéfinir la santé numérique, alliant technologie audio et suivi médical, tout en transformant la gestion des maladies cardiaques pour des millions d’utilisateurs.

L’équipe de recherche d’Apple a publié une étude fascinante qui examine si des modèles d’IA peuvent estimer le rythme cardiaque à partir d’enregistrements de stéthoscope, même s’ils n’ont pas été spécifiquement formés à cette fin. La réponse courte est : oui. Cette nouvelle est particulièrement encourageante pour plusieurs raisons.
En résumé, l’équipe a pris six modèles de base populaires formés sur de l’audio ou de la parole, et a testé à quel point leurs représentations audio internes pouvaient être utilisées pour estimer le rythme cardiaque à partir d’enregistrements de sons cardiaques, ou phonocardiogrammes.

Le fait est que, bien que ces modèles n’aient pas été conçus pour les données de santé, les résultats étaient étonnamment solides. La plupart des modèles ont affiché des performances aussi bonnes que les anciennes méthodes reposant sur des caractéristiques audio conçues à la main, qui sont des moyens enregistrés manuellement pour représenter le son et utilisés depuis longtemps dans des modèles d’apprentissage automatique traditionnels.
Mais la partie la plus intéressante ? Le modèle interne d’Apple, une version de CLAP (Contrastive Language-Audio Pretraining) formée en interne sur 3 millions d’échantillons audio, a en fait surpassé la référence et a fourni la meilleure performance globale parmi diverses comparaisons de modèles.
Comment l’évaluation a-t-elle fonctionné ?
Les modèles ont été évalués à l’aide d’un ensemble de données disponibles publiquement, comprenant plus de 20 heures de sons cardiaques réels d’hôpital, annotés par des experts (ce qui est crucial pour une bonne recherche et des performances en IA).
Pour entraîner les modèles, Apple a fragmenté les enregistrements en courts clips de 5 secondes, avançant d’une seconde à chaque fois. Cela a totalisé environ 23 000 extraits de sons cardiaques, sur lesquels Apple a ensuite formé un réseau de neurones pour classifier le rythme cardiaque en valeurs de battements par minute.

Fait surprenant, certaines constatations vont à l’encontre des hypothèses classiques en matière d’IA : de plus grands modèles ne donnaient pas systématiquement de meilleures performances. Pour être un peu plus technique, des couches plus profondes de ces modèles ont souvent encodé moins d’informations cardiorespiratoires utiles, probablement parce qu’elles étaient optimisées pour la langue. Les représentations de couches peu profondes ou intermédiaires ont montré les meilleures performances.
C’est l’un des principaux enseignements de l’étude. Apple sait désormais où chercher à l’intérieur de ces modèles et quelles couches utiliser pour extraire les signaux de santé les plus pertinents lorsque (ou plutôt si) elle décide de déployer ce type d’analyse sur ses appareils.
Points clés à retenir
Un des points clés de l’étude est que la combinaison du traitement de signal traditionnel avec une IA de nouvelle génération conduit à des estimations de rythme cardiaque plus fiables. Cela signifie que, dans les cas où une approche avait des difficultés, l’autre comblait souvent les lacunes. En d’autres termes, ces deux méthodes détectent différents aspects du signal.

Dans les prochaines étapes, les chercheurs prévoient de continuer à affiner les modèles pour des applications de santé, de créer des versions allégées pouvant fonctionner sur des appareils à faible consommation d’énergie, et d’explorer d’autres sons corporels qui pourraient valoir la peine d’être étudiés. En d’autres termes :
“À l’avenir, nous prévoyons : (i) d’explorer la combinaison de caractéristiques acoustiques avec des représentations FM, en utilisant la concaténation de caractéristiques avant le modèle en aval ou par le biais de méthodes de fusion tardive au sein du modèle, pour une performance améliorée et d’examiner si de telles méthodes peuvent capturer des informations complémentaires et être plus robustes aux variabilités individuelles ; (ii) d’examiner le réglage fin des FM pour les domaines ciblés afin de réduire le décalage de domaine et ainsi évaluer si une telle adaptation se traduit par une meilleure performance, atténue mieux les difficultés d’estimation de HR et capture des caractéristiques pathologiques complexes ; (iii) d’évaluer leur applicabilité à d’autres tâches en aval et paramètres physiologiques, y compris les conditions pathologiques ; (iv) d’augmenter et d’adapter davantage de données cliniquement significatives ; (v) de les comparer avec d’autres modèles de base bioacoustiques, tels que HeAR [30] ; et (vi) d’explorer des stratégies de simplification des modèles, telles que l’élagage, la distillation et la conception d’encodeurs légers, pour permettre des solutions déployables avec un coût computationnel plus bas tout en maintenant les performances.”
Bien que cette étude ne fasse aucune affirmation clinique ou promesse de produit, le potentiel est évident quant à la manière dont Apple pourrait intégrer ces modèles dans ses iPhones, Apple Watches, et surtout les AirPods, qui s’appuient sur des micros intra-auriculaires pour l’annulation active du bruit. Si vous avez déjà entendu votre propre rythme cardiaque dans vos oreilles en portant des AirPods, vous savez de quoi je parle.
Pour en savoir plus sur l’étude, consultez arXiv.
FTC : Nous utilisons des liens affiliés générant des revenus.
Qu’est-ce qui a été découvert dans l’étude sur l’estimation de la fréquence cardiaque ?
L’équipe de recherche d’Apple a découvert que des modèles d’IA, même s’ils n’étaient pas spécifiquement entraînés pour cela, pouvaient estimer la fréquence cardiaque à partir d’enregistrements de stéthoscope. Les résultats ont montré que ces modèles étaient comparables aux méthodes traditionnelles.
Comment les modèles ont-ils été évalués ?
Les modèles ont été évalués à l’aide d’un ensemble de données disponible publiquement contenant plus de 20 heures de sons cardiaques authentiques d’hôpital, annotés par des experts. Les enregistrements ont été segmentés en clips de 5 secondes pour former un réseau neuronal.
Quelles sont les implications de ces découvertes ?
Les découvertes suggèrent que la combinaison du traitement du signal classique et de l’IA moderne peut conduire à des estimations de fréquence cardiaque plus fiables. Cela ouvre la voie à de potentielles applications de santé dans les dispositifs d’Apple.
Quelles sont les prochaines étapes pour l’équipe de recherche ?
Les chercheurs prévoient d’affiner les modèles, de créer des versions légères pouvant fonctionner sur des dispositifs à faible consommation d’énergie, et d’explorer d’autres sons corporels qui pourraient avoir des applications cliniques.

Bonjour, je m’appelle Manu Dibango et j’ai 37 ans. Cadre supérieur dans l’administration, je suis passionné par la gestion et l’organisation. Bienvenue sur Camernews où je partage ma veille sur les nouvelles technologies et l’innovation.