I migliori documenti sul machine learning da leggere nel 2023

I migliori documenti sul machine learning da leggere nel 2023

Nodo di origine: 2016455

I migliori documenti sul machine learning da leggere nel 2023
Immagine di pc.vettore on Freepik
 

L'apprendimento automatico è un campo vasto con nuove ricerche che escono frequentemente. È un campo caldo in cui il mondo accademico e l'industria continuano a sperimentare cose nuove per migliorare la nostra vita quotidiana.

Negli ultimi anni, l'IA generativa ha cambiato il mondo grazie all'applicazione dell'apprendimento automatico. Ad esempio, ChatGPT e diffusione stabile. Anche con il 2023 dominato dall'IA generativa, dovremmo essere consapevoli di molte altre scoperte del machine learning.

Ecco i migliori documenti di machine learning da leggere nel 2023 per non perderti le tendenze imminenti.

1) Imparare la bellezza nelle canzoni: Neural Singing Voice Beautifier

Singing Voice Beautifying (SVB) è un nuovo compito nell'IA generativa che mira a migliorare la voce del canto amatoriale in una bella. È esattamente l'obiettivo della ricerca di Liu et al. (2022) quando hanno proposto un nuovo modello generativo chiamato Neural Singing Voice Beautifier (NSVB). 

L'NSVB è un modello di apprendimento semi-supervisionato che utilizza un algoritmo di mappatura latente che funge da correttore del tono e migliora il tono vocale. Il lavoro promette di migliorare l'industria musicale e vale la pena dare un'occhiata.

2) Scoperta simbolica di algoritmi di ottimizzazione

I modelli di reti neurali profonde sono diventati più grandi che mai e sono state condotte molte ricerche per semplificare il processo di formazione. Recenti ricerche del team di Google (Chen et al. (2023)) ha proposto una nuova ottimizzazione per la rete neurale chiamata Lion (EvoLved Sign Momentum). Il metodo mostra che l'algoritmo è più efficiente in termini di memoria e richiede un tasso di apprendimento inferiore rispetto ad Adam. È una grande ricerca che mostra molte promesse da non perdere.

3) TimesNet: modellazione delle variazioni temporali 2D per l'analisi generale delle serie temporali

L'analisi delle serie temporali è un caso d'uso comune in molte aziende; Ad esempio, previsione dei prezzi, rilevamento di anomalie, ecc. Tuttavia, ci sono molte sfide nell'analizzare i dati temporali solo sulla base dei dati correnti (dati 1D). È per questo Wu et al. (2023) proporre un nuovo metodo chiamato TimesNet per trasformare i dati 1D in dati 2D, che raggiunge grandi prestazioni nell'esperimento. Dovresti leggere il documento per comprendere meglio questo nuovo metodo in quanto aiuterebbe molto l'analisi delle serie temporali future.

4) OPT: aprire i modelli linguistici Transformer pre-addestrati

Attualmente, siamo in un'era di intelligenza artificiale generativa in cui molti modelli di linguaggio di grandi dimensioni sono stati sviluppati intensamente dalle aziende. Per lo più questo tipo di ricerca non rilascerebbe il loro modello o sarebbe solo disponibile in commercio. Tuttavia, il gruppo di ricerca Meta AI (Zhang et al. (2022)) cerca di fare il contrario rilasciando pubblicamente il modello Open Pre-trained Transformers (OPT) che potrebbe essere paragonabile al GPT-3. Il documento è un ottimo inizio per comprendere il modello OPT e i dettagli della ricerca, poiché il gruppo registra tutti i dettagli nel documento.

5) REaLTabFormer: generazione di dati relazionali e tabulari realistici utilizzando i trasformatori

Il modello generativo non si limita solo alla generazione di testo o immagini, ma anche di dati tabulari. Questi dati generati sono spesso chiamati dati sintetici. Molti modelli sono stati sviluppati per generare dati tabulari sintetici, ma quasi nessun modello per generare dati sintetici tabulari relazionali. Questo è esattamente lo scopo di Solatorio e Dupriez (2023) ricerca; creando un modello chiamato REaLTabFormer per dati relazionali sintetici. L'esperimento ha dimostrato che il risultato è accuratamente vicino al modello sintetico esistente, che potrebbe essere esteso a molte applicazioni.

6) L'apprendimento per rinforzo è (non) per l'elaborazione del linguaggio naturale?: benchmark, linee di base e elementi costitutivi per l'ottimizzazione delle politiche del linguaggio naturale

L'apprendimento per rinforzo è concettualmente una scelta eccellente per l'attività di elaborazione del linguaggio naturale, ma è vero? Questa è una domanda che Ramamurty et al. (2022) prova a rispondere. Il ricercatore introduce varie librerie e algoritmi che mostrano dove le tecniche di Apprendimento per Rinforzo hanno un vantaggio rispetto al metodo supervisionato nelle attività di PNL. È un documento consigliato da leggere se desideri un'alternativa per il tuo set di competenze.

7) Tune-A-Video: sintonizzazione one-shot dei modelli di diffusione dell'immagine per la generazione di testo in video

La generazione di testo in immagine era grande nel 2022 e il 2023 sarebbe stato proiettato sulla capacità di testo in video (T2V). Ricerca di Wu et al. (2022) mostra come T2V può essere esteso su molti approcci. La ricerca propone un nuovo metodo Tune-a-Video che supporta attività T2V come il cambio di soggetto e oggetto, il trasferimento di stile, la modifica di attributi, ecc. È un ottimo documento da leggere se sei interessato alla ricerca da testo a video.

8) PyGlove: scambio efficiente di idee ML come codice

Una collaborazione efficiente è la chiave del successo di qualsiasi team, in particolare con la crescente complessità nei campi del machine learning. Per coltivare l'efficienza, Peng et al. (2023) presentare una libreria PyGlove per condividere facilmente le idee ML. Il concetto di PyGlove è catturare il processo di ricerca ML attraverso un elenco di regole di patching. L'elenco può quindi essere riutilizzato in qualsiasi scena di esperimento, il che migliora l'efficienza del team. È una ricerca che cerca di risolvere un problema di machine learning che molti non hanno ancora fatto, quindi vale la pena leggerla.

8) Quanto è vicino ChatGPT agli esperti umani? Corpus di confronto, valutazione e rilevamento

ChatGPT ha cambiato così tanto il mondo. È sicuro dire che la tendenza aumenterebbe da qui poiché il pubblico è già favorevole all'utilizzo di ChatGPT. Tuttavia, com'è il risultato attuale di ChatGPT rispetto a Human Experts? È esattamente una domanda che Guo et al. (2023) prova a rispondere. Il team ha cercato di raccogliere dati da esperti e risultati immediati di ChatGPT, che hanno confrontato. Il risultato mostra che c'erano differenze implicite tra ChatGPT ed esperti. La ricerca è qualcosa che ritengo verrebbe chiesto in futuro poiché il modello di intelligenza artificiale generativa continuerà a crescere nel tempo, quindi vale la pena leggerlo.

Il 2023 è un anno eccezionale per la ricerca sull'apprendimento automatico, come dimostra la tendenza attuale, in particolare l'IA generativa come ChatGPT e Stable Diffusion. C'è molta ricerca promettente che ritengo non dovremmo perdere perché ha mostrato risultati promettenti che potrebbero cambiare lo standard attuale. In questo articolo, ti ho mostrato i 9 migliori documenti ML da leggere, che vanno dal modello generativo, al modello di serie temporali all'efficienza del flusso di lavoro. Spero possa essere d'aiuto.
 
 
Cornellio Yudha Wijaya è un assistente manager di data science e scrittore di dati. Mentre lavora a tempo pieno presso Allianz Indonesia, ama condividere suggerimenti su Python e dati tramite social media e mezzi di scrittura.
 

Timestamp:

Di più da KDnuggets