OpenAI phải đối mặt với những lời chỉ trích sau cuộc phỏng vấn của CTO về Sora

OpenAI phải đối mặt với những lời chỉ trích sau cuộc phỏng vấn của CTO về Sora

Nút nguồn: 2516272

OpenAI, phòng thí nghiệm nghiên cứu trí tuệ nhân tạo có ảnh hưởng đằng sau các công cụ đột phá như ChatGPT và Sora, đã gặp khó khăn sau cuộc phỏng vấn gần đây với Giám đốc Công nghệ, Mira Murati.

Phỏng vấn, được thực hiện bởi phóng viên Joanna Stern của Wall Street Journal, tập trung vào hệ thống tạo hình ảnh, hay đúng hơn là video, mới nhất của OpenAI, Sora.

Những lo ngại xoay quanh khả năng lạm dụng tác phẩm có bản quyền để đào tạo các mô hình AI và thiếu minh bạch từ OpenAI liên quan đến hoạt động dữ liệu của nó.

Dữ liệu đào tạo của Sora đang bị nghi ngờ

Trọng tâm của cuộc tranh cãi nằm ở vấn đề dữ liệu huấn luyện, các bộ dữ liệu khổng lồ được sử dụng để đào tạo các mô hình AI.

Khi được hỏi về nguồn dữ liệu được sử dụng cho Sora, Murati đưa ra câu trả lời tiêu chuẩn: mô hình đã được đào tạo về “dữ liệu được cấp phép và có sẵn công khai".

Tuy nhiên, việc thăm dò sâu hơn cho thấy sự do dự và không chắc chắn của Murati về các chi tiết cụ thể của bộ dữ liệu này.

Phản ứng này có giương cao cờ đỏ giữa các nghệ sĩ, nhiếp ảnh gia và chuyên gia sở hữu trí tuệ. Hệ thống tạo hình ảnh AI phụ thuộc rất nhiều vào việc nhập số lượng lớn hình ảnh, nhiều hình ảnh trong số đó có thể được bảo vệ bản quyền. Sự thiếu rõ ràng xung quanh dữ liệu đào tạo của Sora đặt ra câu hỏi về việc liệu OpenAI có bảo vệ đầy đủ quyền của người sáng tạo nội dung hay không.

Tranh cãi về dữ liệu đào tạo OpenAI SORA
Cơ sở dữ liệu đào tạo của Sora chưa được công bố trên bất kỳ nền tảng chính thức nào (Tín dụng hình ảnh)

Việc sử dụng Shutterstock được thừa nhận sau này

Đổ thêm dầu vào lửa là việc ban đầu Murati từ chối giải quyết liệu hình ảnh Shutterstock có phải là một phần trong tập dữ liệu huấn luyện của Sora hay không. Chỉ sau cuộc phỏng vấn, trong một chú thích được Wall Street Journal thêm vào, Murati mới xác nhận việc sử dụng thư viện hình ảnh của Shutterstock.

Xác nhận này mâu thuẫn với quan điểm đối mặt với công chúng của OpenAI về “dữ liệu được cấp phép và có sẵn công khai” và gợi ý một nỗ lực nhằm che giấu các hoạt động tìm nguồn cung ứng có thể có vấn đề.

Shutterstock và OpenAI đã thành lập một quan hệ đối tác cấp quyền cho OpenAI sử dụng thư viện hình ảnh của Shutterstock trong việc đào tạo các mô hình tạo hình ảnh như DALL-E 2 và có thể là Sora.

Đổi lại, những người đóng góp cho Shutterstock (các nhiếp ảnh gia và nghệ sĩ có hình ảnh trên nền tảng) sẽ nhận được tiền bồi thường khi tác phẩm của họ được sử dụng để phát triển các mô hình AI này.

Cơn ác mộng PR bắt đầu

Có thể nói rằng hầu hết những người làm quan hệ công chúng sẽ không coi cuộc phỏng vấn này là một kiệt tác PR.

Sự thiếu rõ ràng của Murati đến vào thời điểm nhạy cảm đối với OpenAI, đã phải đối mặt với các vụ kiện bản quyền lớn, bao gồm cả một thông tin quan trọng được đăng bởi New York Times.

Công chúng đang xem xét kỹ lưỡng các hoạt động như việc OpenAI bị cáo buộc bí mật sử dụng các video trên YouTube để đào tạo người mẫu. báo cáo trước đây của The Information. Với các bên liên quan từ nghệ sĩ đến chính trị gia đang yêu cầu trách nhiệm giải trình, sự né tránh của Murati chỉ đổ thêm dầu vào lửa.

Cách tiếp cận không rõ ràng của OpenAI đang phản tác dụng một cách ngoạn mục, biến cuộc phỏng vấn Sora thành thảm họa PR.

Minh bạch không phải là chủ đề được thảo luận nhiều nhất

Sự việc này nhấn mạnh một sự thật quan trọng: tiết lộ sự thật là điều tối quan trọng trong thế giới AI. Những phản ứng vấp ngã của OpenAI đã làm suy yếu nghiêm trọng niềm tin của công chúng và làm dấy lên những câu hỏi về thực tiễn đạo đức của nó. Cuộc tranh cãi về Sora làm nổi bật điệp khúc ngày càng lớn đòi hỏi trách nhiệm cao hơn trong ngành AI.

Murati miễn cưỡng tiết lộ chi tiết cụ thể về dữ liệu huấn luyện của Sora ngờ vực và tạo tiền lệ nguy hiểm.

Nếu không có sự rõ ràng mà các nghệ sĩ, người sáng tạo và công chúng đang đòi hỏi, các cuộc tranh luận về đạo đức và khả năng hành động pháp lý sẽ chỉ tăng cường.

Không có thiên thần ở vùng đất này

Mặc dù phần lớn sự giám sát hiện nay đều tập trung vào OpenAI, nhưng điều quan trọng cần nhớ là họ không phải là người chơi duy nhất trong trò chơi.

Nghiên cứu AI của Facebook mô hình LLaMASong Tử của Google cũng phải đối mặt với cáo buộc về nguồn dữ liệu đào tạo có vấn đề.

Tranh cãi về dữ liệu đào tạo OpenAI SORA
Vấn đề minh bạch trong phát triển AI đã được đưa vào chương trình nghị sự từ lâu (Tín dụng hình ảnh)

Điều này không có gì đáng ngạc nhiên, vì Báo cáo nội bộ doanh nghiệp mà Meta đã thừa nhận sử dụng bài đăng trên Instagram và Facebook để đào tạo các mô hình AI của mình. Ngoài ra, Sự kiểm soát của Google trên phạm vi rộng lớn của Internet mang lại cho họ quyền truy cập tuyệt vời vào dữ liệu đào tạo tiềm năng, gây ra những lo ngại về mặt đạo đức tương tự về sự đồng ý và bản quyền.

Tình huống với Sora của OpenAI là chỉ là một mảnh của câu đố lớn hơn. Toàn bộ lĩnh vực phát triển AI đang phải đối mặt với sự giám sát kỹ lưỡng liên quan đến hoạt động xử lý dữ liệu và các tác động đạo đức tiềm ẩn.


Tín dụng hình ảnh nổi bật: Freepik.

Dấu thời gian:

Thêm từ kinh tế dữ liệu