Chip thần kinh biến hình mới có thể mở ra kỷ nguyên AI hiệu quả cao

Nút nguồn: 1456889

Khi nói đến điện toán não bộ, thời gian là tất cả. Đó là cách các tế bào thần kinh kết nối thành mạch. Đó là cách các mạch này xử lý dữ liệu cực kỳ phức tạp, dẫn đến các hành động có thể dẫn đến sự sống hoặc cái chết. Đó là cách bộ não của chúng ta có thể đưa ra quyết định trong tích tắc, ngay cả khi đối mặt với hoàn cảnh hoàn toàn mới. Và chúng tôi làm như vậy mà không làm não bộ tiêu thụ nhiều năng lượng.

Nói lại, bộ não tạo ra một ví dụ tuyệt vời về một máy tính cực kỳ mạnh mẽ để bắt chước—và các nhà khoa học cũng như kỹ sư máy tính đã thực hiện những bước đầu tiên để làm như vậy. Lĩnh vực điện toán mô phỏng thần kinh có vẻ như sẽ tái tạo kiến ​​trúc của bộ não và khả năng xử lý dữ liệu bằng các chip phần cứng và thuật toán phần mềm mới. Nó có thể là một con đường hướng tới sự thật trí tuệ nhân tạo.

Nhưng một yếu tố quan trọng đang thiếu. Hầu hết các thuật toán cung cấp năng lượng cho chip mô phỏng thần kinh chỉ quan tâm đến sự đóng góp của từng nơ-ron nhân tạo—nghĩa là chúng kết nối với nhau mạnh đến mức nào, được gọi là “trọng lượng khớp thần kinh”. Điều còn thiếu—nhưng tương đương với hoạt động bên trong bộ não của chúng ta—là thời gian.

Trong tháng này, một nhóm liên kết với Dự án Não người, nỗ lực khoa học thần kinh dữ liệu lớn hàng đầu của Liên minh Châu Âu, đã bổ sung yếu tố thời gian đến một thuật toán mô phỏng thần kinh. Các kết quả sau đó được triển khai trên phần cứng vật lý—các BrainScaleS-2 nền tảng mô phỏng thần kinh—và đọ sức với các GPU tiên tiến nhất cũng như các giải pháp mô phỏng thần kinh thông thường.

Các tác giả cho biết: “So với các mạng nơ-ron trừu tượng được sử dụng trong học sâu, các nguyên mẫu sinh học hơn… vẫn bị tụt lại phía sau về hiệu suất và khả năng mở rộng” do tính phức tạp vốn có của chúng.

Trong một số thử nghiệm, thuật toán đã so sánh “thuận lợi về độ chính xác, độ trễ và hiệu suất năng lượng” trong một bài kiểm tra điểm chuẩn tiêu chuẩn, nói Tiến sĩ Charlotte Frenkel tại Đại học Zurich và ETH Zurich ở Thụy Sĩ, người không tham gia vào nghiên cứu. Bằng cách thêm một thành phần thời gian vào điện toán mô phỏng thần kinh, chúng ta có thể mở ra một kỷ nguyên mới của AI hiệu quả cao chuyển từ các tác vụ dữ liệu tĩnh—chẳng hạn như nhận dạng hình ảnh—sang một tác vụ gói gọn thời gian tốt hơn. Hãy suy nghĩ về video, tín hiệu sinh học hoặc lời nói giữa não với máy tính.

Đối với tác giả chính, Tiến sĩ Mihai Petrovici, tiềm năng đi theo cả hai hướng. “Công việc của chúng tôi không chỉ thú vị đối với điện toán thần kinh và phần cứng lấy cảm hứng từ sinh học. Nó cũng thừa nhận nhu cầu… chuyển cái gọi là phương pháp học sâu sang khoa học thần kinh và từ đó tiết lộ thêm những bí mật của bộ não con người,” ông nói.

Hãy nói chuyện gai

Cốt lõi của thuật toán mới là một nguyên tắc cơ bản trong điện toán não: gai.

Chúng ta hãy xem một tế bào thần kinh có tính trừu tượng cao. Nó giống như một chiếc bánh cuộn tootsie, với phần giữa hình củ hành, hai bên là hai lớp bao bọc vươn ra ngoài. Một bên là đầu vào—một cây phức tạp nhận tín hiệu từ nơ-ron trước đó. Cái còn lại là đầu ra, truyền tín hiệu đến các tế bào thần kinh khác bằng cách sử dụng các con tàu giống như bong bóng chứa đầy hóa chất, từ đó kích hoạt phản ứng điện ở đầu tiếp nhận.

Đây là mấu chốt: để toàn bộ chuỗi này xảy ra, tế bào thần kinh phải “tăng đột biến”. Nếu và chỉ khi, nơ-ron nhận được mức đầu vào đủ cao—một cơ chế giảm nhiễu tích hợp độc đáo—phần củ sẽ tạo ra một xung đột biến truyền xuống các kênh đầu ra để cảnh báo cho nơ-ron tiếp theo.

Nhưng các tế bào thần kinh không chỉ sử dụng một mũi nhọn để truyền tải thông tin. Thay vào đó, chúng tăng đột biến theo trình tự thời gian. Hãy nghĩ về nó giống như Mã Morse: thời điểm xảy ra một vụ nổ điện mang theo rất nhiều dữ liệu. Đó là cơ sở để các nơ-ron kết nối thành mạch và phân cấp, cho phép xử lý tiết kiệm năng lượng cao.

Vậy tại sao không áp dụng chiến lược tương tự cho máy tính thần kinh?

Một con chip giống như bộ não Spartan

Thay vì vạch ra các gai của nơ-ron nhân tạo đơn lẻ—một nhiệm vụ của Hercule—nhóm nghiên cứu đã mài dũa trên một thước đo duy nhất: mất bao lâu để một nơ-ron kích hoạt.

Ý tưởng đằng sau mã “thời gian tăng đột biến đầu tiên” rất đơn giản: nơ-ron càng mất nhiều thời gian để tăng đột biến thì mức độ hoạt động của nó càng thấp. So với việc đếm số lượng đột biến, đó là một cách cực kỳ thưa thớt để mã hóa hoạt động của nơ-ron, nhưng đi kèm với các đặc quyền. Do chỉ sử dụng độ trễ cho lần đầu tiên một nơ-ron khởi động để mã hóa kích hoạt, nên nó nắm bắt được khả năng phản hồi của nơ-ron mà không làm quá tải máy tính có quá nhiều điểm dữ liệu. Nói cách khác, nó nhanh, tiết kiệm năng lượng và dễ dàng.

Tiếp theo, nhóm đã mã hóa thuật toán vào một con chip thần kinh—con chip BrainScaleS-2, mô phỏng đại khái các “nơ-ron” đơn giản bên trong cấu trúc của nó, nhưng chạy nhanh hơn 1,000 lần hơn bộ não sinh học của chúng ta. Nền tảng này có hơn 500 tế bào thần kinh nhân tạo vật lý, mỗi tế bào có khả năng nhận 256 đầu vào thông qua các khớp thần kinh có thể định cấu hình, nơi các tế bào thần kinh sinh học trao đổi, xử lý và lưu trữ thông tin.

Các thiết lập là một lai. “Học tập” đạt được trên một con chip thực hiện thuật toán phụ thuộc vào thời gian. Tuy nhiên, bất kỳ cập nhật nào đối với mạch thần kinh—nghĩa là mức độ mạnh mẽ của một nơ-ron kết nối với một nơ-ron khác—đều đạt được thông qua một máy trạm bên ngoài, thứ được gọi là “đào tạo trong vòng lặp”.

Trong thử nghiệm đầu tiên, thuật toán đã được thử thách với nhiệm vụ “Âm-Dương”, yêu cầu thuật toán phân tích các khu vực khác nhau trong ký hiệu truyền thống của phương Đông. Thuật toán xuất sắc, với độ chính xác trung bình là 95 phần trăm.

Tiếp theo, nhóm thử thách thiết lập bằng một nhiệm vụ học sâu cổ điển—DANH SÁCH, một bộ dữ liệu gồm các số viết tay đã cách mạng hóa thị giác máy tính. Thuật toán xuất sắc trở lại, với độ chính xác gần 97 phần trăm. Ấn tượng hơn nữa, hệ thống BrainScaleS-2 chỉ mất chưa đến một giây để phân loại 10,000 mẫu thử nghiệm với mức tiêu thụ năng lượng tương đối cực thấp.

Đặt những kết quả này vào ngữ cảnh, tiếp theo, nhóm so sánh hiệu suất của BrainScaleS-2—được trang bị thuật toán mới—với các nền tảng thương mại và nền tảng biến đổi thần kinh khác. Lấy Máy quay, một kiến ​​trúc phân tán song song, đồ sộ cũng bắt chước điện toán thần kinh và các gai. Thuật toán mới nhận dạng hình ảnh nhanh hơn 100 lần trong khi chỉ tiêu thụ một phần điện năng mà SpiNNaker tiêu thụ. Kết quả tương tự đã được nhìn thấy với True North, con chip biến đổi thần kinh của IBM.

Điều gì tiếp theo?

Hai tính năng điện toán có giá trị nhất của bộ não—hiệu quả năng lượng và xử lý song song—hiện đang truyền cảm hứng mạnh mẽ cho thế hệ chip máy tính tiếp theo. Mục đích? Xây dựng những cỗ máy linh hoạt và thích ứng như bộ não của chính chúng ta trong khi chỉ sử dụng một phần năng lượng cần thiết cho các con chip dựa trên silicon hiện tại của chúng ta.

Tuy nhiên, so với học sâu, vốn dựa trên mạng lưới thần kinh nhân tạo, thì những thứ hợp lý về mặt sinh học đã bị lu mờ. Frenkel giải thích, một phần của điều này là khó khăn trong việc “cập nhật” các mạch này thông qua học tập. Tuy nhiên, với BrainScaleS-2 và một chút dữ liệu về thời gian, giờ đây điều đó có thể thực hiện được.

Đồng thời, việc có một trọng tài viên “bên ngoài” để cập nhật các kết nối khớp thần kinh giúp toàn bộ hệ thống có thời gian để thở. Phần cứng mô phỏng thần kinh, tương tự như sự lộn xộn trong quá trình tính toán bộ não của chúng ta, chứa đầy sự không phù hợp và sai sót. Với con chip và một trọng tài viên bên ngoài, toàn bộ hệ thống có thể học cách thích ứng với sự thay đổi này và cuối cùng bù đắp cho—hoặc thậm chí khai thác—những điểm kỳ quặc của nó để học nhanh hơn và linh hoạt hơn.

Đối với Frenkel, sức mạnh của thuật toán nằm ở sự thưa thớt của nó. Cô ấy giải thích rằng bộ não được cung cấp bởi các mã thưa thớt “có thể giải thích thời gian phản ứng nhanh… chẳng hạn như để xử lý hình ảnh.” Thay vì kích hoạt toàn bộ các vùng não bộ, chỉ cần một vài mạng lưới thần kinh—chẳng hạn như lao vút qua những con đường cao tốc vắng vẻ thay vì bị kẹt xe vào giờ cao điểm.

Bất chấp sức mạnh của nó, thuật toán vẫn có trục trặc. Nó gặp khó khăn trong việc giải thích dữ liệu tĩnh, mặc dù nó vượt trội với các chuỗi thời gian—ví dụ: lời nói hoặc tín hiệu sinh học. Nhưng đối với Frenkel, đó là sự khởi đầu của một khuôn khổ mới: thông tin quan trọng có thể được mã hóa bằng một số liệu linh hoạt nhưng đơn giản và được khái quát hóa để làm phong phú thêm quá trình xử lý dữ liệu dựa trên trí tuệ nhân tạo và trí tuệ nhân tạo với một phần nhỏ chi phí năng lượng truyền thống.

“[Nó]… có thể là một bước đệm quan trọng để thúc đẩy phần cứng mô phỏng thần kinh nhằm cuối cùng thể hiện lợi thế cạnh tranh so với các phương pháp tiếp cận mạng thần kinh thông thường,” cô nói.

Tín dụng hình ảnh: Phân loại các điểm dữ liệu trong bộ dữ liệu Yin-Yang, của Göltz và Kriener et al. (Heidelberg / Bern)

Nguồn: https://singularityhub.com/2021/11/09/new-spiking-neuromorphic-chip-could-usher-in-an-era-of-highly-efficiency-ai/

Dấu thời gian:

Thêm từ Trung tâm cá biệt