Найкращі статті з машинного навчання, які варто прочитати у 2023 році

Найкращі статті з машинного навчання, які варто прочитати у 2023 році

Вихідний вузол: 2016455

Найкращі статті з машинного навчання, які варто прочитати у 2023 році
Зображення на pc.vector on Freepik
 

Машинне навчання — це велика сфера, у якій часто з’являються нові дослідження. Це гаряче поле, де академічні та промислові кола продовжують експериментувати з новими речами, щоб покращити наше повсякденне життя.

В останні роки генеративний ШІ змінює світ завдяки застосуванню машинного навчання. Наприклад, ChatGPT і Stable Diffusion. Навіть з огляду на те, що у 2023 році домінуватиме генеративний ШІ, ми повинні знати про ще багато проривів у машинному навчанні.

Ось найкращі статті з машинного навчання, які варто прочитати у 2023 році, щоб ви не пропустили майбутні тенденції.

1) Вивчення краси в піснях: Neural Singing Voice Beautifier

Удосконалення співочого голосу (SVB) — це нове завдання в генеративному штучному інтелекті, яке має на меті покращити аматорський співочий голос у красивий. Це саме мета дослідження Лю та ін. (2022) коли вони запропонували нову генеративну модель під назвою Neural Singing Voice Beautifier (NSVB). 

NSVB — це напівконтрольована модель навчання з використанням алгоритму латентного відображення, який діє як коректор висоти та покращує голосовий тон. Робота обіцяє покращити музичну індустрію, і її варто перевірити.

2) Символічне відкриття алгоритмів оптимізації

Моделі глибоких нейронних мереж стали масштабнішими, ніж будь-коли, і було проведено багато досліджень, щоб спростити процес навчання. Останні дослідження команди Google (Чен та ін. (2023)) запропонував нову оптимізацію для нейронної мережі під назвою Lion (EvoLved Sign Momentum). Метод показує, що алгоритм є більш ефективним з використанням пам’яті та вимагає меншої швидкості навчання, ніж Адам. Це чудове дослідження, яке показує багато обіцянок, які ви не повинні пропустити.

3) TimesNet: часове 2D-варіаційне моделювання для загального аналізу часових рядів

Аналіз часових рядів є типовим випадком для багатьох компаній; Наприклад, прогнозування цін, виявлення аномалій тощо. Однак існує багато проблем, пов’язаних з аналізом тимчасових даних лише на основі поточних даних (1D-даних). Ось чому Ву та ін. (2023) запропонував новий метод під назвою TimesNet для перетворення одновимірних даних у двовимірні, який досягає високої продуктивності в експерименті. Вам слід прочитати статтю, щоб краще зрозуміти цей новий метод, оскільки він значно допоможе в майбутньому аналізі часових рядів.

4) OPT: Відкрити попередньо підготовлені моделі мови трансформатора

Зараз ми перебуваємо в епоху генеративного штучного інтелекту, коли багато великих мовних моделей інтенсивно розроблялися компаніями. Здебільшого такі дослідження не випускають свою модель або є лише комерційно доступними. Однак дослідницька група Meta AI (Чжан та ін. (2022)) намагається зробити протилежне, публічно випустивши модель Open Pre-trained Transformers (OPT), яку можна порівняти з GPT-3. Стаття є чудовим початком для розуміння моделі OPT і деталей дослідження, оскільки група реєструє всі деталі в статті.

5) REaLTabFormer: генерація реалістичних реляційних і табличних даних за допомогою трансформаторів

Генеративна модель не обмежується лише генеруванням тексту чи зображень, а й табличних даних. Ці згенеровані дані часто називають синтетичними даними. Було розроблено багато моделей для генерації синтетичних табличних даних, але майже жодної моделі для генерації реляційних табличних синтетичних даних. Це саме мета Солаторій і Дюпріє (2023) дослідження; створення моделі під назвою REaLTabFormer для синтетичних реляційних даних. Експеримент показав, що результат дуже близький до існуючої синтетичної моделі, яка може бути розширена для багатьох застосувань.

6) Чи навчання з підкріпленням (не) для обробки природної мови?: Еталонні показники, вихідні параметри та будівельні блоки для оптимізації політики природної мови

Навчання з підкріпленням концептуально є чудовим вибором для завдання обробки природної мови, але чи це правда? Це питання, яке Рамамурті та ін. (2022) спробуйте відповісти. Дослідник представляє різні бібліотеки та алгоритми, які показують, де методи навчання з підкріпленням мають перевагу порівняно з методом під керівництвом у завданнях НЛП. Цей документ рекомендовано прочитати, якщо ви бажаєте отримати альтернативу для своїх навичок.

7) Tune-A-Video: одноразове налаштування моделей дифузії зображення для генерації тексту у відео

Генерація тексту в зображення була великою в 2022 році, а в 2023 році прогнозується можливість перетворення тексту в відео (T2V). Дослідження за Ву та ін. (2022) показує, як T2V можна розширити за допомогою багатьох підходів. Дослідження пропонує новий метод Tune-a-Video, який підтримує завдання T2V, такі як зміна суб’єкта та об’єкта, передача стилю, редагування атрибутів тощо. Це чудовий документ для прочитання, якщо ви зацікавлені в дослідженні тексту у відео.

8) PyGlove: ефективний обмін ідеями ML як коду

Ефективна співпраця є ключем до успіху в будь-якій команді, особливо в умовах зростання складності в сферах машинного навчання. Для виховання ефективності, Peng та ін. (2023) представити бібліотеку PyGlove, щоб легко ділитися ідеями ML. Концепція PyGlove полягає в тому, щоб охопити процес дослідження ML за допомогою списку правил виправлення. Потім список можна повторно використовувати в будь-якій сцені експериментів, що покращує ефективність команди. Це дослідження, яке намагається вирішити проблему машинного навчання, яку багато хто ще не робив, тому його варто прочитати.

8) Наскільки ChatGPT близький до експертів-людей? Корпус порівняння, оцінка та виявлення

ChatGPT дуже змінив світ. Можна з упевненістю сказати, що тенденція піде вгору, оскільки громадськість уже підтримує використання ChatGPT. Однак як виглядає поточний результат ChatGPT у порівнянні з Human Experts? Це саме питання Guo et al. (2023) спробуйте відповісти. Команда намагалася зібрати дані від експертів і оперативні результати ChatGPT, які вони порівнювали. Результат показує, що неявні відмінності між ChatGPT та експертами були. Я вважаю, що це дослідження буде актуальним у майбутньому, оскільки модель генеративного штучного інтелекту з часом зростатиме, тому його варто прочитати.

2023 рік — чудовий рік для досліджень машинного навчання, про що свідчить поточна тенденція, особливо генеративний ШІ, такий як ChatGPT і Stable Diffusion. Є багато багатообіцяючих досліджень, які, на мою думку, ми не повинні пропустити, оскільки вони показали багатообіцяючі результати, які можуть змінити поточний стандарт. У цій статті я показав вам 9 найпопулярніших документів з МЛ для читання, починаючи від генеративної моделі, моделі часових рядів і закінчуючи ефективністю робочого процесу. Сподіваюся, це допоможе.
 
 
Корнеліус Юдха Віджая є помічником менеджера з питань науки про дані та автора даних. Працюючи повний робочий день в Allianz Indonesia, він любить ділитися порадами щодо Python і даних у соціальних мережах і друкованих ЗМІ.
 

Часова мітка:

Більше від KDnuggets