Les meilleurs articles sur l'apprentissage automatique à lire en 2023

Les meilleurs articles sur l'apprentissage automatique à lire en 2023

Nœud source: 2016455

Les meilleurs articles sur l'apprentissage automatique à lire en 2023
Image pc.vecteur on Freepik
 

L'apprentissage automatique est un vaste domaine avec de nouvelles recherches qui sortent fréquemment. C'est un domaine brûlant où les universités et l'industrie continuent d'expérimenter de nouvelles choses pour améliorer notre vie quotidienne.

Ces dernières années, l'IA générative a changé le monde grâce à l'application de l'apprentissage automatique. Par exemple, ChatGPT et Stable Diffusion. Même avec 2023 dominée par l'IA générative, nous devrions être conscients de nombreuses autres percées en matière d'apprentissage automatique.

Voici les meilleurs articles d'apprentissage automatique à lire en 2023 pour ne pas manquer les tendances à venir.

1) Apprendre la beauté dans les chansons : embellisseur de voix chantées neurales

Singing Voice Beautifying (SVB) est une nouvelle tâche dans l'IA générative qui vise à améliorer la voix de chant amateur en une belle voix. C'est exactement le but de la recherche de Liu et al. (2022) lorsqu'ils ont proposé un nouveau modèle génératif appelé Neural Singing Voice Beautifier (NSVB). 

Le NSVB est un modèle d'apprentissage semi-supervisé utilisant un algorithme de cartographie latente qui agit comme un correcteur de hauteur et améliore le ton vocal. Le travail promet d'améliorer l'industrie musicale et vaut le détour.

2) Découverte symbolique des algorithmes d'optimisation

Les modèles de réseaux de neurones profonds sont devenus plus grands que jamais et de nombreuses recherches ont été menées pour simplifier le processus de formation. Les recherches récentes de l'équipe Google (Chen et coll. (2023)) a proposé une nouvelle optimisation pour le réseau de neurones appelée Lion (EvoLved Sign Momentum). La méthode montre que l'algorithme est plus efficace en mémoire et nécessite un taux d'apprentissage plus faible qu'Adam. C'est une excellente recherche qui montre de nombreuses promesses à ne pas manquer.

3) TimesNet : Modélisation des variations temporelles 2D pour l'analyse générale des séries chronologiques

L'analyse de séries chronologiques est un cas d'utilisation courant dans de nombreuses entreprises. Par exemple, la prévision des prix, la détection d'anomalies, etc. Cependant, l'analyse de données temporelles uniquement basée sur les données actuelles (données 1D) présente de nombreux défis. C'est pourquoi Wu et coll. (2023) proposent une nouvelle méthode appelée TimesNet pour transformer les données 1D en données 2D, ce qui permet d'obtenir de grandes performances dans l'expérience. Vous devriez lire l'article pour mieux comprendre cette nouvelle méthode car elle aiderait beaucoup l'analyse future des séries chronologiques.

4) OPT : Modèles de langage de transformateur ouverts pré-formés

Actuellement, nous sommes dans une ère d'IA générative où de nombreux grands modèles de langage ont été développés de manière intensive par les entreprises. La plupart du temps, ce type de recherche ne publierait pas son modèle ou ne serait disponible que dans le commerce. Cependant, le groupe de recherche Meta AI (Zhang et al. (2022)) tente de faire le contraire en publiant publiquement le modèle Open Pre-trained Transformers (OPT) qui pourrait être comparable au GPT-3. Le document est un bon début pour comprendre le modèle OPT et les détails de la recherche, car le groupe enregistre tous les détails dans le document.

5) REaLTabFormer : générer des données relationnelles et tabulaires réalistes à l'aide de transformateurs

Le modèle génératif ne se limite pas à générer uniquement du texte ou des images, mais également des données tabulaires. Ces données générées sont souvent appelées données synthétiques. De nombreux modèles ont été développés pour générer des données tabulaires synthétiques, mais presque aucun modèle pour générer des données synthétiques tabulaires relationnelles. C'est exactement le but de Solatorio et Dupriez (2023) recherche; créer un modèle appelé REaLTabFormer pour les données relationnelles synthétiques. L'expérience a montré que le résultat est fidèlement proche du modèle synthétique existant, qui pourrait être étendu à de nombreuses applications.

6) L'apprentissage par renforcement (n'est-il pas) pour le traitement du langage naturel ? : repères, lignes de base et éléments de base pour l'optimisation des politiques de langage naturel

L'apprentissage par renforcement est conceptuellement un excellent choix pour la tâche de traitement du langage naturel, mais est-ce vrai ? C'est une question qui Ramamurthy et coll. (2022) essayer de répondre. Le chercheur présente diverses bibliothèques et algorithmes qui montrent où les techniques d'apprentissage par renforcement ont un avantage par rapport à la méthode supervisée dans les tâches de la PNL. C'est un document recommandé à lire si vous voulez une alternative pour vos compétences.

7) Tune-A-Video : réglage unique des modèles de diffusion d'images pour la génération de texte en vidéo

La génération de texte en image était importante en 2022, et 2023 serait projetée sur la capacité de texte en vidéo (T2V). Recherche par Wu et coll. (2022) montre comment T2V peut être étendu sur de nombreuses approches. La recherche propose une nouvelle méthode Tune-a-Video qui prend en charge les tâches T2V telles que le changement de sujet et d'objet, le transfert de style, l'édition d'attributs, etc. C'est un excellent article à lire si vous êtes intéressé par la recherche texte-vidéo.

8) PyGlove : échanger efficacement des idées de ML sous forme de code

Une collaboration efficace est la clé du succès de toute équipe, en particulier avec la complexité croissante des domaines de l'apprentissage automatique. Pour favoriser l'efficacité, Peng et coll. (2023) présenter une bibliothèque PyGlove pour partager facilement des idées de ML. Le concept de PyGlove consiste à capturer le processus de recherche ML à travers une liste de règles de correction. La liste peut ensuite être réutilisée dans n'importe quelle scène d'expérimentation, ce qui améliore l'efficacité de l'équipe. C'est une recherche qui tente de résoudre un problème d'apprentissage automatique que beaucoup n'ont pas encore fait, donc ça vaut la peine d'être lu.

8) Quelle est la proximité entre ChatGPT et les experts humains ? Corpus de comparaison, évaluation et détection

ChatGPT a tellement changé le monde. Il est prudent de dire que la tendance irait à la hausse à partir d'ici, car le public est déjà favorable à l'utilisation de ChatGPT. Cependant, comment est le résultat actuel de ChatGPT par rapport aux experts humains ? C'est exactement une question qui Guo et al. (2023) essayer de répondre. L'équipe a essayé de collecter des données auprès d'experts et des résultats rapides de ChatGPT, qu'ils ont comparés. Le résultat montre que des différences implicites entre ChatGPT et les experts étaient là. La recherche est quelque chose qui, à mon avis, serait demandé à l'avenir car le modèle d'IA générative continuerait de croître au fil du temps, donc cela vaut la peine d'être lu.

2023 est une excellente année pour la recherche en apprentissage automatique illustrée par la tendance actuelle, en particulier l'IA générative telle que ChatGPT et Stable Diffusion. Il y a beaucoup de recherches prometteuses que je pense que nous ne devrions pas manquer car elles ont montré des résultats prometteurs qui pourraient changer la norme actuelle. Dans cet article, je vous ai montré 9 meilleurs articles de ML à lire, allant du modèle génératif, du modèle de série chronologique à l'efficacité du flux de travail. J'espère que cela aide.
 
 
Cornellius Yudha Wijaya est un gestionnaire adjoint en science des données et un rédacteur de données. Tout en travaillant à plein temps chez Allianz Indonesia, il aime partager des conseils Python et Data via les réseaux sociaux et les supports d'écriture.
 

Horodatage:

Plus de KDnuggetsGenericName