Topp maskinlæringsoppgaver å lese i 2023

Topp maskinlæringsoppgaver å lese i 2023

Kilde node: 2016455

Topp maskinlæringsoppgaver å lese i 2023
Bilde av pc.vektor on Freepik
 

Maskinlæring er et stort felt med ny forskning som kommer ut ofte. Det er et varmt felt der akademia og industri fortsetter å eksperimentere med nye ting for å forbedre hverdagen vår.

De siste årene har generativ AI endret verden på grunn av bruken av maskinlæring. For eksempel ChatGPT og Stable Diffusion. Selv med 2023 dominert av generativ AI, bør vi være klar over mange flere gjennombrudd for maskinlæring.

Her er de beste maskinlæringsoppgavene å lese i 2023, slik at du ikke vil gå glipp av de kommende trendene.

1) Lære skjønnheten i sanger: Neural Singing Voice Beautifier

Singing Voice Beautifying (SVB) er en ny oppgave innen generativ AI som tar sikte på å forbedre amatørsangstemmen til en vakker. Det er nettopp forskningsmålet Liu et al. (2022) da de foreslo en ny generativ modell kalt Neural Singing Voice Beautifier (NSVB). 

NSVB er en semi-overvåket læringsmodell som bruker en latent kartleggingsalgoritme som fungerer som en tonehøydekorrektor og forbedrer vokaltonen. Verket lover å forbedre musikkbransjen og er verdt å sjekke ut.

2) Symbolsk oppdagelse av optimaliseringsalgoritmer

Modeller med dype nevrale nettverk har blitt større enn noen gang, og mye forskning har blitt utført for å forenkle treningsprosessen. Nylig forskning utført av Google-teamet (Chen et al. (2023)) har foreslått en ny optimalisering for det nevrale nettverket kalt Lion (EvoLved Sign Momentum). Metoden viser at algoritmen er mer minneeffektiv og krever en mindre læringshastighet enn Adam. Det er flott forskning som viser mange løfter du ikke bør gå glipp av.

3) TimesNet: Temporal 2D-variasjonsmodellering for generell tidsserieanalyse

Tidsserieanalyse er en vanlig brukssak i mange virksomheter; For eksempel prisprognoser, anomalideteksjon osv. Det er imidlertid mange utfordringer med å analysere tidsdata kun basert på dagens data (1D-data). Det er hvorfor Wu et al. (2023) foreslå en ny metode kalt TimesNet for å transformere 1D-data til 2D-data, som oppnår god ytelse i eksperimentet. Du bør lese artikkelen for å forstå bedre denne nye metoden, da den vil hjelpe mye fremtidig tidsserieanalyse.

4) OPT: Åpne forhåndstrente transformatorspråkmodeller

For tiden er vi inne i en generativ AI-æra hvor mange store språkmodeller ble intensivt utviklet av selskaper. Stort sett vil denne typen forskning ikke gi ut modellen deres eller bare være kommersielt tilgjengelig. Imidlertid, Meta AI-forskningsgruppen (Zhang et al. (2022)) prøver å gjøre det motsatte ved å offentlig gi ut Open Pre-trained Transformers (OPT)-modellen som kan sammenlignes med GPT-3. Oppgaven er en flott start på å forstå OPT-modellen og forskningsdetaljene, ettersom gruppen logger alle detaljene i papiret.

5) REaLTabFormer: Generering av realistiske relasjons- og tabelldata ved hjelp av transformatorer

Den generative modellen er ikke begrenset til bare å generere tekst eller bilder, men også tabelldata. Disse genererte dataene kalles ofte syntetiske data. Mange modeller ble utviklet for å generere syntetiske tabelldata, men nesten ingen modell for å generere relasjonelle tabellformede syntetiske data. Det er nettopp dette som er målet Solatorio og Dupriez (2023) forskning; lage en modell kalt REaLTabFormer for syntetiske relasjonsdata. Eksperimentet har vist at resultatet er nøyaktig nær den eksisterende syntetiske modellen, som kan utvides til mange bruksområder.

6) Er forsterkende læring (ikke) for naturlig språkbehandling?: Benchmarks, baselines og byggesteiner for naturlig språkpolitikk optimalisering

Forsterkning Konseptuelt læring er et utmerket valg for oppgaven Natural Language Processing, men er det sant? Dette er et spørsmål som Ramamurthy et al. (2022) prøv å svare. Forskeren introduserer ulike bibliotek og algoritmer som viser hvor Reinforcement Learning-teknikker har en fordel sammenlignet med den veiledede metoden i NLP-oppgavene. Det er en anbefalt artikkel å lese hvis du vil ha et alternativ for ferdighetene dine.

7) Tune-A-Video: One-Shot Tuning av bildediffusjonsmodeller for tekst-til-video generering

Tekst-til-bilde-generering var stor i 2022, og 2023 ville bli projisert med tekst-til-video (T2V)-funksjonalitet. Forskning av Wu et al. (2022) viser hvordan T2V kan utvides på mange tilnærminger. Forskningen foreslår en ny Tune-a-Video-metode som støtter T2V-oppgaver som emne- og objektendring, stiloverføring, attributtredigering osv. Det er en flott artikkel å lese hvis du er interessert i tekst-til-video-forskning.

8) PyGlove: Effektiv utveksling av ML-ideer som kode

Effektivt samarbeid er nøkkelen til suksess i ethvert team, spesielt med den økende kompleksiteten innen maskinlæringsfelt. For å fremme effektivitet, Peng et al. (2023) presentere et PyGlove-bibliotek for å dele ML-ideer enkelt. PyGlove-konseptet er å fange opp prosessen med ML-forskning gjennom en liste over oppdateringsregler. Listen kan deretter gjenbrukes i en hvilken som helst eksperimentell scene, noe som forbedrer teamets effektivitet. Det er forskning som prøver å løse et maskinlæringsproblem som mange ikke har gjort ennå, så det er verdt å lese.

8) Hvor nært er ChatGPT menneskelige eksperter? Sammenligningskorpus, evaluering og deteksjon

ChatGPT har forandret verden så mye. Det er trygt å si at trenden vil gå oppover herfra siden publikum allerede er for å bruke ChatGPT. Men hvordan er ChatGPT nåværende resultat sammenlignet med menneskelige eksperter? Det er akkurat et spørsmål det Guo et al. (2023) prøv å svare. Teamet prøvde å samle inn data fra eksperter og ChatGPT-spørsmålsresultater, som de sammenlignet. Resultatet viser at implisitte forskjeller mellom ChatGPT og eksperter var der. Forskningen er noe jeg føler vil bli spurt om i fremtiden ettersom den generative AI-modellen vil fortsette å vokse over tid, så det er verdt å lese.

2023 er et flott år for maskinlæringsforskning vist av den nåværende trenden, spesielt generativ AI som ChatGPT og Stable Diffusion. Det er mye lovende forskning som jeg føler vi ikke bør gå glipp av fordi den har vist lovende resultater som kan endre gjeldende standard. I denne artikkelen har jeg vist deg 9 topp ML-artikler å lese, alt fra den generative modellen, tidsseriemodellen til arbeidsflyteffektivitet. Jeg håper det hjelper.
 
 
Cornellius Yudha Wijaya er assistentleder for datavitenskap og dataskribent. Mens han jobber på heltid i Allianz Indonesia, elsker han å dele Python- og Data-tips via sosiale medier og skrivemedier.
 

Tidstempel:

Mer fra KDnuggets