Khung phân tích mối nguy để tổng hợp mã cho các mô hình ngôn ngữ lớn

Khung phân tích mối nguy để tổng hợp mã cho các mô hình ngôn ngữ lớn

Nút nguồn: 2189489

Codex, một mô hình ngôn ngữ lớn (LLM) được đào tạo trên nhiều cơ sở mã khác nhau, vượt xa trạng thái hiện đại trước đây về khả năng tổng hợp và tạo mã. Mặc dù Codex mang lại rất nhiều lợi ích, nhưng các mô hình có thể tạo mã ở quy mô như vậy có những hạn chế đáng kể, các vấn đề liên kết, khả năng bị lạm dụng và khả năng tăng tốc độ tiến bộ trong các lĩnh vực kỹ thuật mà bản thân chúng có thể gây ra các tác động gây mất ổn định hoặc có khả năng bị lạm dụng. Tuy nhiên, những tác động an toàn như vậy vẫn chưa được biết đến hoặc vẫn đang được khám phá. Trong bài báo này, chúng tôi phác thảo một khung phân tích mối nguy được xây dựng tại OpenAI để phát hiện ra các mối nguy hoặc rủi ro an toàn mà việc triển khai các mô hình như Codex có thể gây ra về mặt kỹ thuật, xã hội, chính trị và kinh tế. Phân tích được thông báo bởi một khung đánh giá mới xác định năng lực của các kỹ thuật tạo mã tiên tiến so với sự phức tạp và tính biểu cảm của các lời nhắc đặc tả, cũng như khả năng hiểu và thực thi chúng so với khả năng của con người.

Dấu thời gian:

Thêm từ OpenAI