En omfattende guide til datainnsamling for taleprosjekter

Kilde node: 1551663
Shaip

Er det bare oss, eller blir virtuelle assistenter faktisk særere og frekkere for hver dag? Hvis du husker din første interaksjon med en virtuell assistent som Siri, Cortana eller Alexa, vil du huske blide svar og enkel utførelse av oppgaver.

Svarene deres er imidlertid ikke de samme de pleide å være. I løpet av årene har de vokst til å bli sarkastiske, vittige og med enkle ord - mer menneskelignende. Det er som om de bare er et skritt unna å knekke Turing-testen. Men dette har vært en reise, ikke sant?

For å komme hit har nesten et tiår med AI-trening skjedd i backend. Tusenvis av dataforskere og AI-eksperter har omhyggelig jobbet i timevis sammen for å finne de riktige datasettene for å trene taleprosjektene sine, kommentere nøkkelaspekter og få maskinene til å lære dem intakte. Fra å merke deler av tale til å lære maskiner quirkiness og morsomme svar, tonnevis av komplekse oppgaver har skjedd i utviklingsfasene.

Men hva er egentlig prosessen? Hva skal til for at eksperter skal trene og utvikle taleprosjekter? Hvis du jobber med et taleprosjekt, hva er faktorene du må huske på?

Et av de første trinnene i opplæring av talemoduler er å forstå hvordan publikum vil samhandle med dem. Arbeid med å få innsikt i hva de ville si for å aktivere talemodulen din, bruke den gjennom diktering og lytte til resultater. Så, i dette tilfellet, kjenn triggere, responser og utgangsmekanismer.

For dette må du samle inn enorme mengder representasjonsdata som er nøyaktig nær kilden din. Fra samtaletranskripsjoner til chatter og alt i mellom, bruk så mange datavolumer som mulig for å nullstille disse viktige aspektene.

Når du har en generell forståelse av hvordan publikumet ditt vil samhandle med talemodulen din, må du innse det spesifikke språket de vil bruke som er i tråd med driftsdomenet ditt. For eksempel, hvis taleprosjektet ditt er for en helseapplikasjon, må systemet ditt være kjent med helsesjargong, prosesser og diagnostiske setninger for å gjøre jobben sin nøyaktig. Hvis det er et prosjekt for en e-handelsløsning, vil språket og begrepene som brukes være helt annerledes. Så kjenn det domenespesifikke språket.

Nå har du en samling av setninger, setninger og tekst av verdi med deg. Nå må du gjøre disse om til et solid skript og ta det opp fra mennesker for deg maskinlæring moduler for å forstå og lære. I hvert opptak kan du be opptakere om å spesifisere demografi, aksent og annen nyttig informasjon du kan bruke som metadata under datakommentarer.

1. Hvordan Conversational AI kan automatisere kundeservice

2. Automated vs Live Chats: Hvordan vil fremtiden for kundeservice se ut?

3. Chatbots som medisinske assistenter i COVID-19-pandemi

4. Chatbot vs. Intelligent virtuell assistent - Hva er forskjellen og hvorfor bryr seg?

Hvor nøyaktig talemodulen din reagerer på utløsere avhenger av opptaksdataene dine. Det betyr at den bør ha data fra den faktiske målgruppen din. Ved å bruke det samme eksempelet på helseapplikasjoner, hvis det er en spesialisert modul for eldre, må du ha data registrert fra eldre mennesker for at modulen skal forstå nøyaktig.

Aksentene deres, måten de snakker på, diksjon, uttale, modulering og kommando er alle forskjellige fra folk som er yngre enn dem. Det er derfor vi nevnte at dataene dine bør være så nærme kilden din.

Avhengig av ditt domene og markedssegment, samle inn så mye data som mulig. Kompiler samtaleopptak, planlegg sanntidsopptak fra folk, crowdsource, henvend deg til leverandører av opplæringsdatatjenester og gjør mer for å få datasett.

Dine bidragsytere er ikke utdannede fagfolk (for det meste). Når de snakker, er det garantert noen feil som bruk av feil og umms. Det kan også være tilfeller av å gjenta ord eller setninger fordi de ikke kunne få dem riktig første gang.

Så, arbeid manuelt med å eliminere slike feil og transkriber opptakene dine. Hvis manuelt arbeid høres for mye ut som en oppgave, bruk tale-til-tekst-moduler. Lagre dem som dokumenter med riktige navnekonvensjoner som nøyaktig definerer typen opptak.

Du har en god kilde til taledata med deg nå. Med dataene du kompilerte i trinn 2 og med selve opptakene og transkripsjonene, kan du utløse opplæringsprosessen for utviklingen av talemodulen din. Mens du trener, test modulen din for nøyaktighet og effektivitet og fortsett å gjøre iterasjoner for optimalisering. Ikke gi slipp på feil fordi det tar en ny runde med trening. Rett opp alle smutthull, hull og feil og gi plass til en lufttett modul til slutt.

Vi forstår at dette kan være ganske overveldende i begynnelsen. Talemoduler krever kompleks innsats over en periode for å trene samtale AI / virtuelle assistenter. Derfor er slike prosjekter også kjedelige. Hvis du synes dette er for teknisk og tidkrevende, anbefaler vi å hente datasettene dine fra leverandører av kvalitetsopplæringsdata. De vil hente de mest relevante og kontekstuelle dataene for prosjektet ditt i tide som er maskinklare.

Beskrivelse av sosiale medier: Det er vanskelig å hente kvalitetsdata for taleprosjekter. Du må kjenne publikummet ditt, hvordan de snakker, hvordan de får tilgang til løsninger og mer for å utvikle en lufttett løsning. For de av dere som kommer i gang med et taleprosjekt, her er effektive trinn for hvordan du kan nærme deg datainnhenting.

Beskrivelse: Innhenting av data for taleprosjekter er forenklet når du tar en systematisk tilnærming. Les vårt eksklusive innlegg om datainnsamling for taleprosjekter og få klarhet.

Forfatter Bio Vatsal Ghiya er en seriegründer med mer enn 20 års erfaring innen AI-programvare og -tjenester for helsetjenester. Han er administrerende direktør og medgründer av Shaip, som muliggjør skalering på forespørsel av vår plattform, prosesser og mennesker for selskaper med de mest krevende maskinlærings- og kunstig intelligens-initiativene.

Source: https://chatbotslife.com/an-extensive-guide-to-data-collection-for-speech-projects-de550597555c?source=rss—-a49517e4c30b—4

Tidstempel:

Mer fra Chatbots liv