Các bài báo học máy hàng đầu nên đọc năm 2023

Các bài báo học máy hàng đầu nên đọc năm 2023

Nút nguồn: 2016455

Các bài báo học máy hàng đầu nên đọc năm 2023
Hình ảnh của pc.vector on Freepik
 

Học máy là một lĩnh vực lớn với các nghiên cứu mới được đưa ra thường xuyên. Đó là một lĩnh vực nóng bỏng nơi các học viện và ngành công nghiệp tiếp tục thử nghiệm những điều mới để cải thiện cuộc sống hàng ngày của chúng ta.

Trong những năm gần đây, AI tổng quát đã và đang thay đổi thế giới nhờ ứng dụng học máy. Ví dụ: ChatGPT và Khuếch tán ổn định. Ngay cả khi năm 2023 bị thống trị bởi trí tuệ nhân tạo tổng quát, chúng ta vẫn nên lưu ý đến nhiều đột phá hơn nữa về máy học.

Dưới đây là những bài báo hàng đầu về máy học nên đọc vào năm 2023 để bạn không bỏ lỡ các xu hướng sắp tới.

1) Tìm hiểu vẻ đẹp trong các bài hát: Công cụ làm đẹp giọng hát thần kinh

Làm đẹp giọng hát (SVB) là một nhiệm vụ mới trong AI tổng quát nhằm mục đích cải thiện giọng hát nghiệp dư thành một giọng hát hay. Đó chính là mục tiêu nghiên cứu của Liu và cộng sự (2022) khi họ đề xuất một mô hình tổng quát mới gọi là Công cụ làm đẹp giọng hát thần kinh (NSVB). 

NSVB là một mô hình học bán giám sát sử dụng thuật toán ánh xạ tiềm ẩn hoạt động như một bộ chỉnh sửa cao độ và cải thiện giọng hát. Tác phẩm hứa hẹn sẽ cải thiện ngành công nghiệp âm nhạc và rất đáng xem.

2) Khám phá tượng trưng các thuật toán tối ưu hóa

Các mô hình mạng lưới thần kinh sâu đã trở nên lớn hơn bao giờ hết và nhiều nghiên cứu đã được tiến hành để đơn giản hóa quá trình đào tạo. Nghiên cứu gần đây của nhóm Google (Chen và cộng sự. (2023)) đã đề xuất một cách tối ưu hóa mới cho Mạng nơ-ron có tên là Lion (EvoLved Sign Momentum). Phương pháp này cho thấy thuật toán sử dụng bộ nhớ hiệu quả hơn và yêu cầu tốc độ học nhỏ hơn so với Adam. Đó là nghiên cứu tuyệt vời cho thấy nhiều hứa hẹn mà bạn không nên bỏ lỡ.

3) TimesNet: Mô hình biến thể 2D tạm thời để phân tích chuỗi thời gian chung

Phân tích chuỗi thời gian là một trường hợp sử dụng phổ biến trong nhiều doanh nghiệp; Ví dụ: dự báo giá, phát hiện bất thường, v.v. Tuy nhiên, có nhiều thách thức đối với việc phân tích dữ liệu tạm thời chỉ dựa trên dữ liệu hiện tại (dữ liệu 1D). Đó là lý do tại sao Wu và cộng sự. (2023) đề xuất một phương pháp mới có tên là TimesNet để chuyển đổi dữ liệu 1D thành dữ liệu 2D, phương pháp này đạt được hiệu suất tuyệt vời trong thử nghiệm. Bạn nên đọc bài báo để hiểu rõ hơn về phương pháp mới này vì nó sẽ giúp ích rất nhiều cho việc phân tích chuỗi thời gian trong tương lai.

4) OPT: Mở các mô hình ngôn ngữ biến áp được đào tạo trước

Hiện tại, chúng ta đang ở trong kỷ nguyên AI tổng quát, nơi nhiều mô hình ngôn ngữ lớn được các công ty phát triển mạnh mẽ. Hầu hết loại nghiên cứu này sẽ không công bố mô hình của họ hoặc chỉ có sẵn trên thị trường. Tuy nhiên, nhóm nghiên cứu Meta AI (Zhang và cộng sự. (2022)) cố gắng làm điều ngược lại bằng cách phát hành công khai mẫu Máy biến áp được đào tạo trước mở (OPT) có thể so sánh với GPT-3. Bài báo là một khởi đầu tuyệt vời để hiểu mô hình OPT và chi tiết nghiên cứu, vì nhóm ghi lại tất cả các chi tiết trong bài báo.

5) REaLTabFormer: Tạo dữ liệu dạng bảng và quan hệ thực tế bằng Transformers

Mô hình tổng quát không chỉ giới hạn ở việc tạo văn bản hoặc hình ảnh mà còn cả dữ liệu dạng bảng. Dữ liệu được tạo ra này thường được gọi là dữ liệu tổng hợp. Nhiều mô hình đã được phát triển để tạo dữ liệu dạng bảng tổng hợp, nhưng hầu như không có mô hình nào để tạo dữ liệu tổng hợp dạng bảng quan hệ. Đây chính xác là mục tiêu của Solatorio Và Dupriez (2023) nghiên cứu; tạo một mô hình có tên là REaLTabFormer cho dữ liệu quan hệ tổng hợp. Thí nghiệm đã chỉ ra rằng kết quả gần chính xác với mô hình tổng hợp hiện có, có thể được mở rộng cho nhiều ứng dụng.

6) Học tăng cường (Không) có dành cho Xử lý ngôn ngữ tự nhiên không?: Điểm chuẩn, Đường cơ sở và Khối xây dựng để Tối ưu hóa chính sách ngôn ngữ tự nhiên

Học tăng cường về mặt khái niệm là một lựa chọn tuyệt vời cho nhiệm vụ Xử lý ngôn ngữ tự nhiên, nhưng liệu nó có đúng không? Đây là một câu hỏi mà Ramamurthy và cộng sự. (2022) cố gắng trả lời. Nhà nghiên cứu giới thiệu nhiều thư viện và thuật toán cho thấy các kỹ thuật Học tăng cường có lợi thế hơn so với phương pháp được giám sát trong các nhiệm vụ NLP. Đó là một bài báo nên đọc nếu bạn muốn có một giải pháp thay thế cho bộ kỹ năng của mình.

7) Tune-A-Video: Điều chỉnh một lần các mô hình khuếch tán hình ảnh để tạo văn bản thành video

Việc tạo văn bản thành hình ảnh sẽ phát triển mạnh vào năm 2022 và dự kiến ​​vào năm 2023 sẽ dựa trên khả năng chuyển văn bản thành video (T2V). Nghiên cứu của Wu và cộng sự. (2022) cho thấy cách T2V có thể được mở rộng trên nhiều phương pháp. Nghiên cứu đề xuất một phương pháp Tune-a-Video mới hỗ trợ các tác vụ T2V như thay đổi chủ thể và đối tượng, chuyển kiểu, chỉnh sửa thuộc tính, v.v. Đây là một bài báo tuyệt vời để đọc nếu bạn quan tâm đến nghiên cứu chuyển văn bản thành video.

8) PyGlove: Trao đổi hiệu quả các ý tưởng ML dưới dạng mã

Cộng tác hiệu quả là chìa khóa dẫn đến thành công trong bất kỳ nhóm nào, đặc biệt là với mức độ phức tạp ngày càng tăng trong các lĩnh vực máy học. Nuôi dưỡng hiệu quả, Peng và cộng sự. (2023) trình bày thư viện PyGlove để chia sẻ ý tưởng ML một cách dễ dàng. Khái niệm PyGlove là nắm bắt quá trình nghiên cứu ML thông qua danh sách các quy tắc vá lỗi. Sau đó, danh sách này có thể được sử dụng lại trong bất kỳ cảnh thử nghiệm nào, giúp cải thiện hiệu quả của nhóm. Đó là nghiên cứu cố gắng giải quyết vấn đề học máy mà nhiều người chưa làm được, vì vậy nó rất đáng đọc.

8) ChatGPT thân thiết với các chuyên gia như thế nào? So sánh kho dữ liệu, đánh giá và phát hiện

ChatGPT đã thay đổi thế giới rất nhiều. Có thể nói rằng xu hướng sẽ tăng lên từ đây vì công chúng đã ủng hộ việc sử dụng ChatGPT. Tuy nhiên, kết quả hiện tại của ChatGPT so với Chuyên gia con người như thế nào? Đó chính xác là một câu hỏi mà Quách et al. (2023) cố gắng trả lời. Nhóm đã cố gắng thu thập dữ liệu từ các chuyên gia và kết quả nhanh chóng của ChatGPT để họ so sánh. Kết quả cho thấy có sự khác biệt ngầm giữa ChatGPT và các chuyên gia. Nghiên cứu này là điều mà tôi cảm thấy sẽ được tiếp tục hỏi trong tương lai vì mô hình AI tổng quát sẽ tiếp tục phát triển theo thời gian, vì vậy nó rất đáng để đọc.

Năm 2023 là một năm tuyệt vời cho nghiên cứu máy học được thể hiện qua xu hướng hiện tại, đặc biệt là AI có tính sáng tạo như ChatGPT và Khuếch tán ổn định. Có nhiều nghiên cứu đầy triển vọng mà tôi cảm thấy chúng ta không nên bỏ lỡ vì nó cho thấy những kết quả đầy hứa hẹn có thể thay đổi tiêu chuẩn hiện tại. Trong bài viết này, tôi đã chỉ cho bạn 9 bài báo ML hàng đầu nên đọc, từ mô hình tổng quát, mô hình chuỗi thời gian đến hiệu quả của quy trình làm việc. Tôi hy vọng nó sẽ giúp.
 
 
Cornellius Yudha Wijaya là trợ lý quản lý khoa học dữ liệu và người viết dữ liệu. Trong khi làm việc toàn thời gian tại Allianz Indonesia, anh ấy thích chia sẻ các mẹo về Python và Dữ liệu qua mạng xã hội và phương tiện viết lách.
 

Dấu thời gian:

Thêm từ Xe đẩy