Kun je aan iemands stem horen of die persoon gestrest is, of depressief? Of zelfs tekenen van dementie of Alzheimer vertoont? Ja, denkt het Amerikaanse startupbedrijf Canary Speech. Op basis van kunstmatige intelligentie (‘Artificial Intelligence’, AI) heeft het bedrijf vocale biomarkers geïdentificeerd die indicatief zijn voor allerlei psychische en neurologische aandoeningen. Slechts 40 seconden spraak is al genoeg om tot een analyse te komen, beweert Canary. De AI-gestuurde technologie analyseert akoestische en linguïstische elementen in spraak om mentale en neurologische aandoeningen te herkennen.
Net zoals kanaries ooit in kolenmijnen werden gebruikt om levensbedreigende niveaus van giftige gassen op te sporen voordat mijnwerkers ziek werden, gebruikt Canary Speech vocale biomarkers om voorheen stille gezondheidsaandoeningen eerder en nauwkeuriger te identificeren.
Canary Speech is een startup op gebied van medische AI-gestuurde stemanalyses, en is het geesteskind van Henry O’Connell en Jeff Adams. O’Connell is een neuroloog verbonden aan de National Institutes of Health in de V.S. die veel onderzoek naar neurologische aspecten van de menselijke stem heeft gedaan. Adams heeft zijn sporen verdiend op het gebied van stemtechnologie als een van de mensen achter Alexa, de AI-gestuurde spraakassistent van Amazon.
Het platform van Canary werkt in meerdere talen (nog niet in het Nederlands, overigens) en op diverse platforms, en kan binnen enkele seconden spraakgegevens analyseren. Zo kan het subtiele gedrags- en cognitieve veranderingen vaak al oppikken voordat merkbare symptomen zich voordoen voor aandoeningen zoals angst, depressie, post-traumatische stress en zelfs dementie.
Met behulp van AI wordt een audio-opname van 40 seconden omgezet in een score die vocale stress, stemming en andere kwaliteiten weergeeft. Deze kunnen standaard klinische beoordelingen zoals de GAD-7 voor angst en de PHQ-8 voor depressie aanvullen.
De stemanalysetechnologie biedt een breed potentieel aan toepassingen in de gezondheidszorg. Telefonische hulplijnen voor psychische zorg zouden de Canary-software kunnen inzetten om beter in te schatten hoe het met de mentale gesteldheid van bellers is. Maar het programma is ook in staat tot omgevingsluisteren in klinische settings, als hulpmiddel voor behandelaars. De modules daarvoor zijn ontworpen om op onopvallende wijze gesprekken in realtime vast te leggen en te analyseren. Hierdoor kunnen zorgverleners hun volledige aandacht tijdens het consult op de patiënt richten, terwijl het systeem automatisch klinische aantekeningen documenteert. Ook kan met behulp van stemanalyse monitoring op afstand van patiënten worden uitgevoerd.
Sinds begin 2024 werkt Canary samen met farmaceutisch bedrijf Halia Therapeutics om spraakgegevens en inzichten te leveren ter verbetering van de klinische ontwikkeling van hun Alzheimer-medicijn HT-4253, dat zich richt op een component van neuro-inflammatie die bekend staat om zijn belangrijke rol in de progressie van de ziekte.
Canary voerde ook een proef uit met een grote Amerikaanse ziektekostenverzekeraar waarin het spraakopnames analyseerde van telefoongesprekken met 651 polishouders met vroege symptomen van Alzheimer en 1.018 mensen zonder de aandoening. Deze opnames werden gebruikt om het lerend algoritme te voeden en zo een eerste diagnostisch model voor de ziekte te creëren met 96% nauwkeurigheid in het identificeren van Alzheimer.
Het idee dat vocale biomarkers de diagnostiek van Alzheimer kunnen verbeteren is overigens niet nieuw. In november 2023 lanceerde de Alzheimer’s Drug Discovery Foundation (ADDF) haar eerste longitudinale internationale studie om het grootste archief van spraak- en stemgegevens te creëren ter versnelling van de detectie, diagnose en monitoring van de ziekte van Alzheimer. Deze driejarige studie zal klinische locaties in de VS, Spanje en Australië omvatten, die gegevens zullen verzamelen van 2.650 deelnemers, die handheld tablets krijgen met een vooraf geïnstalleerde app om stemgegevens vast te leggen, aldus de ADDF.
Een ander onderzoek geleid door Ihab Hajjar, een professor aan het University of Texas Southwestern Medical Center, suggereert dat het gebruik van geavanceerde machine learning en natuurlijke taalverwerkingstools veelbelovend is bij het diagnosticeren van de ziekte van Alzheimer voordat symptomen zich beginnen te vertonen. De bevindingen werden afgelopen februari gepubliceerd in de publicatie Diagnosis, Assessment & Disease Monitoring van de Alzheimer’s Association. De studie beoordeelde spraakpatronen bij 206 mensen, verdeeld over 114 die voldeden aan de criteria voor milde cognitieve stoornis en 92 die geen symptomen vertoonden. Onderzoekers vergeleken de bevindingen met vaak gebruikte biomarkers om te bepalen hoe effectief ze waren in het meten van beperkingen.
Intussen wordt bij Canary volop gewerkt aan verdere toepassingen van AI-gestuurde stemanalysesoftware. Het bedrijf is van plan om zijn modellen uit te breiden naar multiple sclerose en longziekten, en later ook naar autisme, ADHD en astma.
Meer informatie