Najpopularniejsze artykuły o uczeniu maszynowym do przeczytania w 2023 r

Najpopularniejsze artykuły o uczeniu maszynowym do przeczytania w 2023 r

Węzeł źródłowy: 2016455

Najpopularniejsze artykuły o uczeniu maszynowym do przeczytania w 2023 r
Image by pc.wektor on Freepik
 

Uczenie maszynowe to duża dziedzina, w której często pojawiają się nowe badania. To gorąca dziedzina, w której środowisko akademickie i przemysł nieustannie eksperymentują z nowymi rzeczami, aby poprawić nasze codzienne życie.

W ostatnich latach generatywna sztuczna inteligencja zmienia świat dzięki zastosowaniu uczenia maszynowego. Na przykład ChatGPT i stabilna dyfuzja. Nawet jeśli rok 2023 będzie zdominowany przez generatywną sztuczną inteligencję, powinniśmy być świadomi wielu innych przełomowych odkryć w dziedzinie uczenia maszynowego.

Oto najważniejsze artykuły dotyczące uczenia maszynowego, które warto przeczytać w 2023 r., aby nie przegapić nadchodzących trendów.

1) Uczenie się piękna w piosenkach: neuronowe upiększanie głosu

Singing Voice Beautifying (SVB) to nowatorskie zadanie w generatywnej sztucznej inteligencji, które ma na celu ulepszenie amatorskiego głosu śpiewającego w piękny. To jest dokładnie cel badań Liu i in. (2022) kiedy zaproponowali nowy model generatywny o nazwie Neural Singing Voice Beautifier (NSVB). 

NSVB to częściowo nadzorowany model uczenia się wykorzystujący algorytm mapowania utajonego, który działa jako korektor wysokości tonu i poprawia ton głosu. Praca obiecuje ulepszyć przemysł muzyczny i jest warta sprawdzenia.

2) Symboliczne odkrywanie algorytmów optymalizacyjnych

Modele głębokich sieci neuronowych stały się większe niż kiedykolwiek i przeprowadzono wiele badań w celu uproszczenia procesu uczenia. Najnowsze badania przeprowadzone przez zespół Google (Chen i in. (2023)) zaproponował nową optymalizację sieci neuronowej o nazwie Lion (EvoLved Sign Momentum). Metoda pokazuje, że algorytm jest bardziej wydajny pamięciowo i wymaga mniejszego tempa uczenia się niż Adam. To wspaniałe badanie, które pokazuje wiele obietnic, których nie można przegapić.

3) TimesNet: Modelowanie zmienności czasowej 2D do ogólnej analizy szeregów czasowych

Analiza szeregów czasowych jest częstym przypadkiem użycia w wielu firmach; Na przykład prognozowanie cen, wykrywanie anomalii itp. Istnieje jednak wiele wyzwań związanych z analizą danych czasowych wyłącznie na podstawie danych bieżących (dane 1D). Dlatego Wu i in. (2023) zaproponować nową metodę o nazwie TimesNet do przekształcania danych 1D w dane 2D, która zapewnia doskonałą wydajność w eksperymencie. Powinieneś przeczytać artykuł, aby lepiej zrozumieć tę nową metodę, ponieważ pomogłaby ona w wielu przyszłych analizach szeregów czasowych.

4) OPT: Otwarte, wstępnie wytrenowane modele języka transformatora

Obecnie jesteśmy w epoce generatywnej sztucznej inteligencji, w której firmy intensywnie rozwijały wiele dużych modeli językowych. Przeważnie tego rodzaju badania nie ujawniłyby ich modelu lub byłyby dostępne tylko na rynku. Jednak grupa badawcza Meta AI (Zhang i in. (2022)) próbuje zrobić coś przeciwnego, publicznie udostępniając model Open Pre-trained Transformers (OPT), który mógłby być porównywalny z GPT-3. Artykuł jest świetnym początkiem zrozumienia modelu OPT i szczegółów badania, ponieważ grupa rejestruje wszystkie szczegóły w artykule.

5) REaLTabFormer: Generowanie realistycznych danych relacyjnych i tabelarycznych za pomocą transformatorów

Model generatywny nie ogranicza się tylko do generowania tekstu lub obrazów, ale także danych tabelarycznych. Te wygenerowane dane są często nazywane danymi syntetycznymi. Opracowano wiele modeli do generowania syntetycznych danych tabelarycznych, ale prawie żaden model do generowania relacyjnych tabelarycznych danych syntetycznych. To jest właśnie celem Solatorio i Dupriez (2023) badania; stworzenie modelu o nazwie REaLTabFormer dla syntetycznych danych relacyjnych. Eksperyment wykazał, że wynik jest dokładnie zbliżony do istniejącego modelu syntetycznego, który można rozszerzyć na wiele zastosowań.

6) Czy uczenie się przez wzmacnianie (nie) służy do przetwarzania języka naturalnego?: Benchmarki, linie bazowe i elementy składowe optymalizacji polityki dotyczącej języka naturalnego

Konceptualne uczenie się przez wzmacnianie jest doskonałym wyborem do zadania przetwarzania języka naturalnego, ale czy to prawda? To jest pytanie Ramamurthy i in. (2022) spróbuj odpowiedzieć. Badacz wprowadza różne biblioteki i algorytmy, które pokazują, gdzie techniki uczenia się ze wzmocnieniem mają przewagę nad metodą nadzorowaną w zadaniach NLP. Jest to zalecany artykuł do przeczytania, jeśli szukasz alternatywy dla swojego zestawu umiejętności.

7) Tune-A-Video: Jednorazowe dostrajanie modeli dyfuzji obrazu do generowania tekstu na wideo

Generowanie tekstu na obraz było duże w 2022 roku, a rok 2023 będzie przewidywany na możliwości zamiany tekstu na wideo (T2V). Badania wg Wu i in. (2022) pokazuje, jak T2V można rozszerzyć na wiele sposobów. Badanie proponuje nową metodę Tune-a-Video, która obsługuje zadania T2V, takie jak zmiana tematu i obiektu, transfer stylu, edycja atrybutów itp. To świetny artykuł do przeczytania, jeśli interesuje Cię badanie konwersji tekstu na wideo.

8) PyGlove: wydajna wymiana pomysłów ML jako kod

Wydajna współpraca jest kluczem do sukcesu każdego zespołu, zwłaszcza przy rosnącej złożoności dziedzin uczenia maszynowego. Aby pielęgnować efektywność, Peng i in. (2023) zaprezentuj bibliotekę PyGlove, aby łatwo dzielić się pomysłami ML. Koncepcja PyGlove polega na uchwyceniu procesu badań ML za pomocą listy reguł łatania. Listę można następnie ponownie wykorzystać w dowolnej scenie eksperymentów, co poprawia efektywność zespołu. To badanie, które próbuje rozwiązać problem uczenia maszynowego, którego wielu jeszcze nie zrobiło, więc warto je przeczytać.

8) Jak blisko jest ChatGPT do ludzkich ekspertów? Korpus porównawczy, ocena i wykrywanie

ChatGPT tak bardzo zmienił świat. Można śmiało powiedzieć, że od tego momentu trend wzrośnie, ponieważ opinia publiczna już opowiada się za korzystaniem z ChatGPT. Jak jednak wypada aktualny wynik ChatGPT w porównaniu z Human Experts? To jest właśnie pytanie Guo i in. (2023) spróbuj odpowiedzieć. Zespół próbował zebrać dane od ekspertów i szybkie wyniki ChatGPT, które porównali. Wynik pokazuje, że istniały ukryte różnice między ChatGPT a ekspertami. Uważam, że badania będą powtarzane w przyszłości, ponieważ generatywny model sztucznej inteligencji będzie się rozwijał w czasie, więc warto je przeczytać.

Rok 2023 to świetny rok dla badań nad uczeniem maszynowym, na co wskazuje obecny trend, zwłaszcza generatywnej sztucznej inteligencji, takiej jak ChatGPT i Stable Diffusion. Istnieje wiele obiecujących badań, których moim zdaniem nie powinniśmy przegapić, ponieważ wykazały obiecujące wyniki, które mogą zmienić obecny standard. W tym artykule pokazałem Ci 9 najlepszych artykułów ML do przeczytania, od modelu generatywnego, modelu szeregów czasowych po efektywność przepływu pracy. Mam nadzieję, że to pomoże.
 
 
Cornelius Yudha Wijaya jest kierownikiem i asystentem analityka danych oraz autorem danych. Pracując na pełny etat w Allianz Indonesia, uwielbia dzielić się wskazówkami dotyczącymi Pythona i danych za pośrednictwem mediów społecznościowych i mediów.
 

Znak czasu:

Więcej z Knuggety