Top Machine Learning Papers zum Lesen im Jahr 2023

Top Machine Learning Papers zum Lesen im Jahr 2023

Quellknoten: 2016455

Top Machine Learning Papers zum Lesen im Jahr 2023
Bild von pch.vektor on Freepik
 

Maschinelles Lernen ist ein großes Feld, in dem häufig neue Forschungsergebnisse veröffentlicht werden. Es ist ein heißes Feld, in dem Wissenschaft und Industrie ständig mit neuen Dingen experimentieren, um unser tägliches Leben zu verbessern.

In den letzten Jahren hat die generative KI die Welt durch die Anwendung des maschinellen Lernens verändert. Zum Beispiel ChatGPT und Stable Diffusion. Auch wenn 2023 von generativer KI dominiert wird, sollten wir uns vieler weiterer Durchbrüche beim maschinellen Lernen bewusst sein.

Hier sind die Top-Papiere zum maschinellen Lernen, die Sie 2023 lesen sollten, damit Sie die kommenden Trends nicht verpassen.

1) Die Schönheit in Liedern lernen: Neural Singing Voice Beautifier

Singing Voice Beautifying (SVB) ist eine neuartige Aufgabe in der generativen KI, die darauf abzielt, die Amateur-Singstimme zu einer schönen zu verbessern. Genau das ist das Forschungsziel von Liuet al. (2022) als sie ein neues generatives Modell namens Neural Singing Voice Beautifier (NSVB) vorschlugen. 

Das NSVB ist ein halbüberwachtes Lernmodell, das einen Latent-Mapping-Algorithmus verwendet, der als Tonhöhenkorrektor fungiert und den Stimmton verbessert. Die Arbeit verspricht, die Musikindustrie zu verbessern und ist einen Blick wert.

2) Symbolische Entdeckung von Optimierungsalgorithmen

Tiefe neuronale Netzmodelle sind größer denn je geworden, und es wurde viel geforscht, um den Trainingsprozess zu vereinfachen. Jüngste Untersuchungen des Google-Teams (Chenet al. (2023)) hat eine neue Optimierung für das neurale Netzwerk namens Lion (EvoLved Sign Momentum) vorgeschlagen. Die Methode zeigt, dass der Algorithmus speichereffizienter ist und eine geringere Lernrate als Adam erfordert. Es ist eine großartige Forschung, die viele Versprechungen zeigt, die Sie nicht verpassen sollten.

3) TimesNet: Zeitliche 2D-Variationsmodellierung für die allgemeine Zeitreihenanalyse

Die Zeitreihenanalyse ist ein häufiger Anwendungsfall in vielen Unternehmen; Zum Beispiel Preisprognosen, Erkennung von Anomalien usw. Es gibt jedoch viele Herausforderungen, zeitliche Daten nur auf der Grundlage der aktuellen Daten (1D-Daten) zu analysieren. Darum Wu et al. (2023) schlagen eine neue Methode namens TimesNet vor, um die 1D-Daten in 2D-Daten umzuwandeln, die im Experiment eine hervorragende Leistung erzielen. Sie sollten das Papier lesen, um diese neue Methode besser zu verstehen, da sie in vielen zukünftigen Zeitreihenanalysen hilfreich sein würde.

4) OPT: Öffnen Sie vortrainierte Transformer-Sprachmodelle

Derzeit befinden wir uns in einer Ära der generativen KI, in der viele große Sprachmodelle intensiv von Unternehmen entwickelt wurden. Meistens würde diese Art von Forschung ihr Modell nicht freigeben oder nur im Handel erhältlich sein. Die Forschungsgruppe Meta AI (Zhang et al. (2022)) versucht das Gegenteil, indem es das Open Pre-trained Transformers (OPT)-Modell veröffentlicht, das mit dem GPT-3 vergleichbar sein könnte. Das Papier ist ein guter Anfang, um das OPT-Modell und die Forschungsdetails zu verstehen, da die Gruppe alle Details im Papier protokolliert.

5) REaLTabFormer: Generieren realistischer relationaler und tabellarischer Daten mit Transformern

Das generative Modell beschränkt sich nicht nur auf die Generierung von Text oder Bildern, sondern auch auf tabellarische Daten. Diese generierten Daten werden oft als synthetische Daten bezeichnet. Viele Modelle wurden entwickelt, um synthetische tabellarische Daten zu generieren, aber fast kein Modell, um relationale tabellarische synthetische Daten zu generieren. Genau das ist das Ziel von Solatorio und Dupriez (2023) Forschung; Erstellen eines Modells namens REaLTabFormer für synthetische relationale Daten. Das Experiment hat gezeigt, dass das Ergebnis dem bestehenden synthetischen Modell, das auf viele Anwendungen erweitert werden könnte, genau nahe kommt.

6) Ist Verstärkungslernen (nicht) für die Verarbeitung natürlicher Sprache?: Benchmarks, Baselines und Bausteine ​​für die Optimierung von Richtlinien für natürliche Sprache

Reinforcement Learning ist konzeptionell eine ausgezeichnete Wahl für die Aufgabe der Verarbeitung natürlicher Sprache, aber ist es wahr? Dies ist eine Frage, die Ramamurthyet al. (2022) versuche zu antworten. Der Forscher stellt verschiedene Bibliotheken und Algorithmen vor, die zeigen, wo Reinforcement-Learning-Techniken im Vergleich zur überwachten Methode bei den NLP-Aufgaben einen Vorteil haben. Es ist eine empfohlene Lektüre, wenn Sie eine Alternative für Ihre Fähigkeiten suchen.

7) Tune-A-Video: One-Shot-Tuning von Bilddiffusionsmodellen für die Text-zu-Video-Erzeugung

Die Text-to-Image-Generierung war im Jahr 2022 groß und 2023 würde auf die Text-to-Video (T2V)-Fähigkeit projiziert. Forschung von Wu et al. (2022) zeigt, wie T2V auf viele Ansätze erweitert werden kann. Die Forschung schlägt eine neue Tune-a-Video-Methode vor, die T2V-Aufgaben wie Themen- und Objektwechsel, Stilübertragung, Attributbearbeitung usw. unterstützt. Es ist ein großartiges Papier zum Lesen, wenn Sie an Text-zu-Video-Forschung interessiert sind.

8) PyGlove: Effizienter Austausch von ML-Ideen als Code

Effiziente Zusammenarbeit ist der Schlüssel zum Erfolg in jedem Team, insbesondere angesichts der zunehmenden Komplexität in Bereichen des maschinellen Lernens. Um die Effizienz zu fördern, Penget al. (2023) Präsentieren Sie eine PyGlove-Bibliothek, um ML-Ideen einfach zu teilen. Das PyGlove-Konzept besteht darin, den Prozess der ML-Forschung durch eine Liste von Patching-Regeln zu erfassen. Die Liste kann dann in jeder Experimentszene wiederverwendet werden, was die Effizienz des Teams verbessert. Es ist eine Forschung, die versucht, ein maschinelles Lernproblem zu lösen, das viele noch nicht gemacht haben, also lohnt es sich, es zu lesen.

8) Wie nah ist ChatGPT an menschlichen Experten? Vergleichskorpus, Bewertung und Erkennung

ChatGPT hat die Welt so sehr verändert. Man kann mit Sicherheit sagen, dass der Trend von hier an nach oben gehen würde, da die Öffentlichkeit die Verwendung von ChatGPT bereits befürwortet. Wie ist jedoch das aktuelle Ergebnis von ChatGPT im Vergleich zu den Human Experts? Genau das ist eine Frage Guo et al. (2023) versuche zu antworten. Das Team versuchte, Daten von Experten und ChatGPT-Prompt-Ergebnissen zu sammeln, die sie verglichen. Das Ergebnis zeigt, dass es implizite Differenzen zwischen ChatGPT und Experten gab. Die Forschung ist etwas, von dem ich denke, dass es in Zukunft immer wieder gefragt werden würde, da das generative KI-Modell im Laufe der Zeit weiter wachsen würde, also lohnt es sich, es zu lesen.

2023 ist ein großartiges Jahr für die Forschung zum maschinellen Lernen, wie der aktuelle Trend zeigt, insbesondere generative KI wie ChatGPT und Stable Diffusion. Es gibt viele vielversprechende Forschungsergebnisse, die wir meiner Meinung nach nicht verpassen sollten, da sie vielversprechende Ergebnisse gezeigt haben, die den aktuellen Standard ändern könnten. In diesem Artikel habe ich Ihnen 9 Top-ML-Papiere zum Lesen gezeigt, die vom generativen Modell über das Zeitreihenmodell bis hin zur Workflow-Effizienz reichen. Ich hoffe, es hilft.
 
 
Cornellius Yudha Wijaya ist Data Science Assistant Manager und Data Writer. Während er Vollzeit bei Allianz Indonesien arbeitet, liebt er es, Python- und Datentipps über soziale Medien zu teilen und Medien zu schreiben.
 

Zeitstempel:

Mehr von KDnuggets