Top Machine Learning Papers at læse i 2023

Top Machine Learning Papers at læse i 2023

Kildeknude: 2016455

Top Machine Learning Papers at læse i 2023
Billede af pch. vektor on Freepik
 

Machine Learning er et stort felt, hvor der ofte kommer ny forskning. Det er et varmt felt, hvor den akademiske verden og industrien bliver ved med at eksperimentere med nye ting for at forbedre vores dagligdag.

I de senere år har generativ kunstig intelligens ændret verden på grund af anvendelsen af ​​maskinlæring. For eksempel ChatGPT og Stable Diffusion. Selv med 2023 domineret af generativ AI, bør vi være opmærksomme på mange flere maskinlæringsgennembrud.

Her er de bedste maskinlæringsartikler at læse i 2023, så du ikke vil gå glip af de kommende trends.

1) At lære skønheden i sange: Neural sangstemmeforskønnelse

Singing Voice Beautifying (SVB) er en ny opgave inden for generativ AI, der har til formål at forbedre amatørsangstemmen til en smuk. Det er netop forskningsmålet Liu et al. (2022) da de foreslog en ny generativ model kaldet Neural Singing Voice Beautifier (NSVB). 

NSVB er en semi-overvåget læringsmodel, der bruger en latent kortlægningsalgoritme, der fungerer som en tonehøjdekorrektor og forbedrer vokaltonen. Værket lover at forbedre den musikalske industri og er værd at tjekke ud.

2) Symbolsk opdagelse af optimeringsalgoritmer

Dybe neurale netværksmodeller er blevet større end nogensinde, og meget forskning er blevet udført for at forenkle træningsprocessen. Nylig undersøgelse foretaget af Google-teamet (Chen et al. (2023)) har foreslået en ny optimering til det neurale netværk kaldet Lion (EvoLved Sign Momentum). Metoden viser, at algoritmen er mere hukommelseseffektiv og kræver en mindre indlæringshastighed end Adam. Det er fantastisk forskning, der viser mange løfter, du ikke bør gå glip af.

3) TimesNet: Temporal 2D-variationsmodellering til generel tidsserieanalyse

Tidsserieanalyse er en almindelig anvendelse i mange virksomheder; Eksempelvis prisprognose, anomalidetektion osv. Der er dog mange udfordringer ved kun at analysere tidsmæssige data baseret på de aktuelle data (1D-data). Det er derfor Wu et al. (2023) foreslå en ny metode kaldet TimesNet til at omdanne 1D-dataene til 2D-data, som opnår stor ydeevne i eksperimentet. Du bør læse papiret for bedre at forstå denne nye metode, da det ville hjælpe meget fremtidig tidsserieanalyse.

4) OPT: Åbn fortrænede transformatorsprogmodeller

I øjeblikket befinder vi os i en generativ AI-æra, hvor mange store sprogmodeller blev intensivt udviklet af virksomheder. For det meste ville denne form for forskning ikke frigive deres model eller kun være kommercielt tilgængelig. Men Meta AI-forskningsgruppen (Zhang et al. (2022)) forsøger at gøre det modsatte ved offentligt at frigive Open Pre-trained Transformers (OPT)-modellen, der kunne sammenlignes med GPT-3. Papiret er en god start på at forstå OPT-modellen og forskningsdetaljen, da gruppen logger alle detaljerne i papiret.

5) REaLTabFormer: Generering af realistiske relations- og tabeldata ved hjælp af transformere

Den generative model er ikke begrænset til kun at generere tekst eller billeder, men også tabeldata. Disse genererede data kaldes ofte syntetiske data. Mange modeller blev udviklet til at generere syntetiske tabeldata, men næsten ingen model til at generere relationelle tabelbaserede syntetiske data. Dette er netop formålet Solatorio og Dupriez (2023) forskning; skabe en model kaldet REaLTabFormer for syntetiske relationelle data. Forsøget har vist, at resultatet er nøjagtigt tæt på den eksisterende syntetiske model, som kunne udvides til mange anvendelser.

6) Er forstærkningslæring (ikke) til naturlig sprogbehandling?: Benchmarks, basislinjer og byggesten til optimering af naturlig sprogpolitik

Forstærkning Begrebsmæssigt er læring et glimrende valg til opgaven Natural Language Processing, men er det sandt? Dette er et spørgsmål, der Ramamurthy et al. (2022) prøv at svare. Forskeren introducerer forskellige biblioteker og algoritmer, der viser, hvor Reinforcement Learning-teknikker har en fordel i forhold til den superviserede metode i NLP-opgaverne. Det er et anbefalet papir at læse, hvis du vil have et alternativ til dine færdigheder.

7) Tune-A-Video: One-Shot Tuning af billeddiffusionsmodeller til tekst-til-video-generering

Tekst-til-billede-generering var stor i 2022, og 2023 ville blive projiceret på tekst-til-video (T2V)-kapacitet. Forskning af Wu et al. (2022) viser, hvordan T2V kan udvides på mange tilgange. Forskningen foreslår en ny Tune-a-Video-metode, der understøtter T2V-opgaver såsom emne- og objektændring, stiloverførsel, attributredigering osv. Det er et godt papir at læse, hvis du er interesseret i tekst-til-video-forskning.

8) PyGlove: Effektiv udveksling af ML-ideer som kode

Effektivt samarbejde er nøglen til succes på ethvert hold, især med den stigende kompleksitet inden for maskinlæringsfelter. For at fremme effektiviteten, Peng et al. (2023) præsentere et PyGlove-bibliotek for nemt at dele ML-ideer. PyGlove-konceptet er at fange processen med ML-forskning gennem en liste over patching-regler. Listen kan derefter genbruges i enhver forsøgsscene, hvilket forbedrer holdets effektivitet. Det er forskning, der forsøger at løse et maskinlæringsproblem, som mange ikke har gjort endnu, så det er værd at læse.

8) Hvor tæt er ChatGPT på menneskelige eksperter? Sammenligningskorpus, evaluering og detektion

ChatGPT har ændret verden så meget. Det er sikkert at sige, at tendensen ville gå opad herfra, da offentligheden allerede går ind for at bruge ChatGPT. Men hvordan er ChatGPT nuværende resultat sammenlignet med menneskelige eksperter? Det er netop et spørgsmål Guo et al. (2023) prøv at svare. Holdet forsøgte at indsamle data fra eksperter og ChatGPT-promptresultater, som de sammenlignede. Resultatet viser, at der var implicitte forskelle mellem ChatGPT og eksperter. Forskningen er noget, som jeg føler, der vil blive stillet spørgsmålstegn ved i fremtiden, da den generative AI-model ville blive ved med at vokse over tid, så det er værd at læse.

2023 er et fantastisk år for maskinlæringsforskning vist af den nuværende trend, især generativ AI som ChatGPT og Stable Diffusion. Der er meget lovende forskning, som jeg føler, vi ikke bør gå glip af, fordi den har vist lovende resultater, der kan ændre den nuværende standard. I denne artikel har jeg vist dig 9 top ML-artikler at læse, lige fra den generative model, tidsseriemodel til workfloweffektivitet. Jeg håber det hjælper.
 
 
Cornellius Yudha Wijaya er en data science assisterende leder og dataskribent. Mens han arbejder på fuld tid hos Allianz Indonesia, elsker han at dele Python- og Data-tips via sociale medier og skrivemedier.
 

Tidsstempel:

Mere fra KDnuggets