Los mejores documentos de aprendizaje automático para leer en 2023

Los mejores documentos de aprendizaje automático para leer en 2023

Nodo de origen: 2016455

Los mejores documentos de aprendizaje automático para leer en 2023
Imagen de pc.vector on Freepik
 

El aprendizaje automático es un campo amplio en el que surgen nuevas investigaciones con frecuencia. Es un campo candente donde la academia y la industria siguen experimentando con cosas nuevas para mejorar nuestra vida diaria.

En los últimos años, la IA generativa ha cambiado el mundo gracias a la aplicación del aprendizaje automático. Por ejemplo, ChatGPT y Difusión estable. Incluso con 2023 dominado por la IA generativa, debemos estar al tanto de muchos más avances en el aprendizaje automático.

Estos son los principales documentos de aprendizaje automático para leer en 2023 para que no se pierda las próximas tendencias.

1) Aprendiendo la belleza de las canciones: Embellecedor de voz de canto neural

Singing Voice Beautifying (SVB) es una tarea novedosa en IA generativa que tiene como objetivo mejorar la voz de canto amateur en una hermosa. Es exactamente el objetivo de investigación de Liu et al. (2022) cuando propusieron un nuevo modelo generativo llamado Neural Singing Voice Beautifier (NSVB). 

El NSVB es un modelo de aprendizaje semisupervisado que utiliza un algoritmo de mapeo latente que actúa como corrector de tono y mejora el tono vocal. El trabajo promete mejorar la industria musical y vale la pena echarle un vistazo.

2) Descubrimiento simbólico de algoritmos de optimización

Los modelos de redes neuronales profundas se han vuelto más grandes que nunca y se han realizado muchas investigaciones para simplificar el proceso de entrenamiento. Investigaciones recientes del equipo de Google (Chen et al. (2023)) ha propuesto una nueva optimización para la Red Neural llamada Lion (EvoLved Sign Momentum). El método muestra que el algoritmo es más eficiente en memoria y requiere una tasa de aprendizaje menor que Adam. Es una gran investigación que muestra muchas promesas que no debe perderse.

3) TimesNet: modelado de variación 2D temporal para análisis general de series de tiempo

El análisis de series de tiempo es un caso de uso común en muchas empresas; Por ejemplo, pronóstico de precios, detección de anomalías, etc. Sin embargo, existen muchos desafíos para analizar datos temporales solo en función de los datos actuales (datos 1D). Es por eso que Wu et al. (2023) proponen un nuevo método llamado TimesNet para transformar los datos 1D en datos 2D, lo que logra un gran rendimiento en el experimento. Debe leer el documento para comprender mejor este nuevo método, ya que ayudaría mucho en el futuro análisis de series temporales.

4) OPT: modelos de lenguaje de transformadores preentrenados abiertos

Actualmente, nos encontramos en una era de IA generativa en la que las empresas desarrollaron intensamente muchos modelos de lenguaje grandes. En su mayoría, este tipo de investigación no lanzaría su modelo o solo estaría disponible comercialmente. Sin embargo, el grupo de investigación Meta AI (Zhang et al. (2022)) intenta hacer lo contrario lanzando públicamente el modelo Open Pre-trained Transformers (OPT) que podría ser comparable con el GPT-3. El documento es un excelente comienzo para comprender el modelo OPT y los detalles de la investigación, ya que el grupo registra todos los detalles en el documento.

5) REaLTabFormer: generación de datos relacionales y tabulares realistas mediante transformadores

El modelo generativo no se limita solo a generar texto o imágenes, sino también datos tabulares. Estos datos generados a menudo se denominan datos sintéticos. Se desarrollaron muchos modelos para generar datos tabulares sintéticos, pero casi ningún modelo para generar datos sintéticos tabulares relacionales. Este es exactamente el objetivo de Solatorio y Dupriez (2023) investigación; creando un modelo llamado REaLTabFormer para datos relacionales sintéticos. El experimento ha demostrado que el resultado se acerca con precisión al modelo sintético existente, que podría extenderse a muchas aplicaciones.

6) ¿Es el aprendizaje por refuerzo (no) para el procesamiento del lenguaje natural?: Puntos de referencia, líneas de base y componentes básicos para la optimización de políticas de lenguaje natural

El aprendizaje por refuerzo conceptualmente es una excelente opción para la tarea de procesamiento del lenguaje natural, pero ¿es cierto? Esta es una pregunta que Ramamurthy et al. (2022) tratar de responder El investigador presenta varias bibliotecas y algoritmos que muestran dónde las técnicas de aprendizaje por refuerzo tienen una ventaja en comparación con el método supervisado en las tareas de PNL. Es un documento recomendado para leer si desea una alternativa para su conjunto de habilidades.

7) Tune-A-Video: Ajuste One-Shot de modelos de difusión de imágenes para la generación de texto a video

La generación de texto a imagen fue grande en 2022, y 2023 se proyectaría en la capacidad de texto a video (T2V). Investigación por Wu et al. (2022) muestra cómo T2V se puede extender en muchos enfoques. La investigación propone un nuevo método Tune-a-Video que admite tareas de T2V, como el cambio de sujeto y objeto, la transferencia de estilo, la edición de atributos, etc. Es un excelente artículo para leer si está interesado en la investigación de texto a video.

8) PyGlove: intercambio eficiente de ideas de ML como código

La colaboración eficiente es la clave del éxito en cualquier equipo, especialmente con la creciente complejidad dentro de los campos de aprendizaje automático. Para fomentar la eficiencia, Peng et al. (2023) presente una biblioteca PyGlove para compartir ideas de ML fácilmente. El concepto de PyGlove es capturar el proceso de investigación de ML a través de una lista de reglas de aplicación de parches. Luego, la lista se puede reutilizar en cualquier escena de experimentos, lo que mejora la eficiencia del equipo. Es una investigación que intenta resolver un problema de aprendizaje automático que muchos aún no han hecho, por lo que vale la pena leerlo.

8) ¿Qué tan cerca está ChatGPT de los expertos humanos? Corpus de comparación, evaluación y detección

ChatGPT ha cambiado mucho el mundo. Es seguro decir que la tendencia iría hacia arriba desde aquí, ya que el público ya está a favor de usar ChatGPT. Sin embargo, ¿cómo es el resultado actual de ChatGPT en comparación con los expertos humanos? Es exactamente una pregunta que Guo et al. (2023) tratar de responder El equipo trató de recopilar datos de expertos y resultados rápidos de ChatGPT, que compararon. El resultado muestra que existían diferencias implícitas entre ChatGPT y los expertos. La investigación es algo que creo que se seguirá preguntando en el futuro, ya que el modelo de IA generativa seguirá creciendo con el tiempo, por lo que vale la pena leerlo.

2023 es un gran año para la investigación de aprendizaje automático que muestra la tendencia actual, especialmente la IA generativa como ChatGPT y Stable Diffusion. Hay muchas investigaciones prometedoras que creo que no debemos perdernos porque muestran resultados prometedores que podrían cambiar el estándar actual. En este artículo, le mostré 9 documentos principales de ML para leer, que van desde el modelo generativo, el modelo de series temporales hasta la eficiencia del flujo de trabajo. Espero que ayude.
 
 
Cornelio Yudha Wijaya es subgerente de ciencia de datos y escritor de datos. Mientras trabaja a tiempo completo en Allianz Indonesia, le encanta compartir consejos sobre Python y datos a través de las redes sociales y los medios de escritura.
 

Sello de tiempo:

Mas de nuggets