Google testar Project Relate, en röstigenkännings- och syntesapp för personer med talskada

Källnod: 1463529

Google är söker hjälp att utvecklas en Android-app som syftar till att ge fler kommunikationsmöjligheter för personer med talskada. Project Relate, som insatsen och appen nu heter, ska ge rösttranskription och syntes som kan göra det lättare för användarna att bli förstådda.

Projektet härstammar från Projekt Euphonia, som vi täckte tillbaka 2019 när det först tillkännagavs och senare när företaget publicerade en del av sin forskning. Ansträngningen leddes av Googles forskare Dimitri Kanevsky, som själv har nedsatt tal och fört med sig förstahandskunskap till den AI-baserade lösningen. Nu är en av projektets huvudpartner och användare av appen Aubrie Lee, som är med i marknadsföringsteamet där (hon döpte appen) och på grund av muskeldystrofi har svårt att bli förstådd av både andra människor och appar. (Du kan se henne i videon här. eller under.)

Det enkla faktum är att taligenkänningsmotorer behöver massor av inspelat tal för att lära sig att tolka det korrekt, och att data är partisk till förmån för vanliga talmönster. Personer med accenter är inte lika väl representerade i dessa datamängder, så de förstås inte lika bra - och personer med talstörningar är ännu mindre vanliga, vilket gör det praktiskt taget omöjligt för dem att använda vanliga röstdrivna enheter.

Startups och förbättringar av den grundläggande tekniken förbättrar förståelsen av accentspråk, men det krävs en särskild ansträngning för att samla in och analysera de mycket individualiserade talmönstren hos personer med funktionsnedsättningar och funktionshinder. Varje röst är olika, men ovanliga och unika mönster som de som härrör från en stroke eller skada kan vara svåra för ett maskininlärningssystem att förstå tillförlitligt.

Project Relate är i sin kärna ett bättre verktyg för rösttranskription för personer med talstörningar. "Lyssna"-funktionen förvandlar användarens tal direkt till text, så att det kan klistras in någon annanstans eller läsas av andra. "Repeat" lyssnar först och upprepar sedan vad de har sagt med en röst som förhoppningsvis är tydligare. "Assistent" vidarebefordrar i princip sitt transkriberade tal direkt till Google Assistant för vanliga uppgifter som att spela musik eller fråga om vädret.

För att möjliggöra dessa möjligheter har arbetet på Google varit det första att samla in så mycket data som möjligt, och i det syftet noterar forskarna att de har byggt en databas med över en miljon talprover av frivilliga. Detta användes för att träna upp vad som kan kallas basnivån av intelligens för taligenkänning AI. Men som alla andra ML-system, ju mer data – och ju mer specifik data är för det individuella användningsfallet – desto bättre.

"Vi vet att samhället av personer med talskada är otroligt varierande och hur människor kommer att interagera med Project Relate kan vara olika", säger Julie Cattiau, produktchef för Google Research i ett mejl till TechCrunch. "Vi vill undvika att anta vad vår målgrupp behöver och det bästa sättet att göra det är att bygga vår produkt hand i hand med de människor som kommer att använda den. Genom att testa med en första grupp människor kan vi bättre förstå hur vår applikation kommer att fungera för människor i deras dagliga liv, hur exakt den kommer att vara och vilka förbättringsområden det kan finnas, innan vi expanderar till en bredare publik."

Företaget rekryterar en första omgång av verkliga testare för att använda appen regelbundet. Det första steget kommer att vara att spela in en uppsättning fraser, som kommer att integreras med talmodellen för att bättre tillgodose deras talmönster. Om du tror att detta kan vara till hjälp i din vardag, gör gärna det registrera dig som potentiell volontär och du kanske hjälper till att göra appen bättre för alla.

Källa: https://techcrunch.com/2021/11/09/google-project-relate-speech-ai-impairments/

Tidsstämpel:

Mer från TechCrunch