“AI nguy hiểm ngang ngửa vũ khí hạt nhân”, giáo sư Đại học Oxford cảnh báo

“AI nguy hiểm ngang ngửa vũ khí hạt nhân”, giáo sư Đại học Oxford cảnh báo

Nút nguồn: 1925142

“Đánh dấu lời nói của tôi, AI nguy hiểm hơn nhiều so với vũ khí hạt nhân. Nó làm tôi sợ chết khiếp.” Đó là tuyên bố của CEO Elon Musk của Tesla vào năm 2018 trong cuộc phỏng vấn với Jonathan Nolan trong Hội nghị South by Southwest ở Austin, Texas. Thật không may, Mus không đơn độc. Các nhà nghiên cứu và các chuyên gia nổi tiếng khác cũng đang cảnh báo về sự nguy hiểm của trí tuệ nhân tạo (AI). Câu hỏi trị giá 1 triệu bảng là chúng ta đã chuẩn bị chưa và chính phủ và các nhà hoạch định chính sách của chúng ta đang làm gì để ngăn chặn mối nguy hiểm này?

Mặc dù sự phổ biến gần đây của ChatGPT đã đưa AI trở thành xu hướng chủ đạo và thu hút nhiều người tham gia vào các lợi ích xã hội của nó, nhưng điều không thu hút được sự chú ý của công chúng là mặt tối của AI. Trong nhiều năm, các chuyên gia và nhân viên công nghệ đã lo lắng về việc trí tuệ nhân tạo (AI) sẽ lấy đi công việc của họ.

Tuy nhiên, các chuyên gia tin rằng có những rủi ro và nguy hiểm khác nghiêm trọng hơn cần quan tâm, bao gồm sai lệch thuật toán do dữ liệu xấu do AI sử dụng, giả mạo sâu, vi phạm quyền riêng tư, v.v. Mặc dù những nguy cơ này gây rủi ro nghiêm trọng cho xã hội, nhưng các nhà nghiên cứu và nhà khoa học lo lắng hơn về cách AI có thể được lập trình để làm một việc thậm chí còn nguy hiểm hơn: tự động hóa vũ khí.

Ngày nay, AI hiện đã được sử dụng trong việc phát triển các công nghệ bầy đàn và đạn dược lảng vảng, còn được gọi là máy bay không người lái kamikaze giống như những thứ đang được được sử dụng trong cuộc chiến Nga-Ukraine đang diễn ra. Không giống như những rô-bốt tương lai mà bạn thấy trong một số bộ phim khoa học viễn tưởng, những máy bay không người lái này sử dụng các nền tảng quân sự hiện có trước đây để tận dụng các công nghệ AI mới. Những máy bay không người lái này về bản chất đã trở thành vũ khí tự trị được lập trình để tiêu diệt.

Nhưng việc sử dụng sức mạnh của AI để tiêu diệt trong chiến đấu cấp quân đội mới chỉ là bước khởi đầu. Michael Osborne là Giáo sư AI và nhà nghiên cứu máy học tại Đại học Oxford. Ông cũng là người đồng sáng lập Mind Foundry. Trong khi mọi người đang say mê ChatGPT, Giáo sư Osborne hiện đang cảnh báo về những rủi ro của AI và dự đoán rằng AI tiên tiến có thể “gây ra nhiều rủi ro cho chúng ta như chúng ta đã gây ra cho các loài khác: chim dodo là một ví dụ”.

Đầu tháng này, một nhóm các nhà nghiên cứu từ Đại học Oxford đã nói với ủy ban khoa học và công nghệ tại quốc hội Anh rằng AI cuối cùng có thể gây ra “mối đe dọa hiện hữu” cho nhân loại. Giống như con người đã bị xóa sổ bởi dodo, các cỗ máy AI có thể loại bỏ chúng ta, họ nói, Times Of London báo cáo.

Trong suốt cuộc họp, Giáo sư Osborne đã cảnh báo các nghị sĩ Anh rằng trí tuệ nhân tạo thực sự mạnh mẽ có thể giết chết tất cả mọi người trên Trái đất. Ông nói: “AI có thể so sánh với mối nguy hiểm như vũ khí hạt nhân. Giáo sư Osborne cũng nói thêm rằng rủi ro không phải là AI không tuân theo chương trình của nó, mà là tuân theo nó một cách cứng nhắc theo những cách không lường trước được:

“Một AI siêu thông minh được yêu cầu chấm dứt ung thư, để đưa ra một ví dụ đơn giản, có thể tìm ra phương pháp dễ dàng nhất là loại bỏ con người. Khi được thăm dò ý kiến, khoảng một phần ba các nhà nghiên cứu cho rằng AI có thể dẫn đến thảm họa toàn cầu. Các chương trình an toàn AI tồn tại, nhưng các doanh nghiệp và quốc gia đang tham gia vào một “cuộc chạy đua vũ trang” khiến cho các cách tiếp cận thận trọng trở nên khó khăn.”

Michael Cohen, đồng nghiệp của Giáo sư Osbborne và là nghiên cứu sinh tiến sĩ tại Đại học Oxford, nói với The Times of London:

“Với AI siêu phàm, có một rủi ro đặc biệt thuộc một loại khác, đó là . . . nó có thể giết tất cả mọi người.”

Trong khi AI đã cải thiện cuộc sống của chúng ta, các nhà khoa học lo ngại rằng chúng ta có nguy cơ hy sinh nhân tính vì sự tiện lợi do AI thiếu đạo đức con người. Theo Cohen, một kịch bản đáng sợ là AI có thể học cách đạt được chỉ thị giúp đỡ con người bằng cách sử dụng các chiến thuật gây hại cho con người.

Anh ấy giải thích: “Nếu bạn tưởng tượng việc huấn luyện một con chó với phần thưởng: nó sẽ học cách chọn các hành động dẫn đến việc nhận phần thưởng, nhưng nếu con chó tìm thấy tủ đựng phần thưởng, nó có thể tự lấy phần thưởng mà không cần làm những gì chúng ta muốn nó làm. . “Nếu bạn có thứ gì đó thông minh hơn chúng tôi rất nhiều, đang cố gắng đạt được phản hồi tích cực này một cách điên cuồng, và nó chiếm lĩnh thế giới để đảm bảo điều đó, thì nó sẽ hướng nhiều năng lượng nhất có thể để đảm bảo giữ vững điều đó, và điều đó sẽ khiến chúng tôi không có bất kỳ nỗ lực nào. năng lượng cho chính chúng ta.”

Giáo sư Osborne và Michael Cohen không phải là hai nhà nghiên cứu duy nhất gióng lên hồi chuông cảnh báo về những rủi ro và nguy hiểm của AI. Nhiều nhà khoa học khác làm việc với AI cũng bày tỏ mối quan tâm tương tự. Một cuộc khảo sát vào tháng 2022 năm 327 với XNUMX nhà nghiên cứu tại Đại học New York cho thấy XNUMX/XNUMX tin rằng AI có thể gây ra ngày tận thế kiểu hạt nhân trong thế kỷ này, Times Of London cho biết.

Những mối quan tâm tương tự dường như được chia sẻ bởi nhiều nhà khoa học làm việc với AI. Một cuộc khảo sát vào tháng 2022 năm 327 với XNUMX nhà nghiên cứu tại Đại học New York cho thấy XNUMX/XNUMX tin rằng AI có thể gây ra thảm họa tương tự như ngày tận thế hạt nhân trong thế kỷ này, tờ Times Of London đưa tin.

36% các nhà nghiên cứu cho biết: “Có thể các quyết định do AI hoặc hệ thống máy học đưa ra có thể gây ra thảm họa trong thế kỷ này, ít nhất cũng tồi tệ như một cuộc chiến tranh hạt nhân toàn diện”.

Cho dù là một thế kỷ kể từ bây giờ, AI đang ngày càng trở nên quá thông minh và như một số chuyên gia đã đề xuất, điều bắt buộc là chúng ta phải duy trì sự kiểm soát của con người và phát triển các cơ chế như Công tắc tiêu diệt AI để kiểm soát những gì AI có thể và không thể làm. Việc thiếu giám sát hiện nay và thiếu chính sách AI toàn cầu rõ ràng là một hồi chuông cảnh tỉnh cho các chính phủ trên khắp thế giới. Chúng ta cần phải hành động ngay bây giờ trước khi quá muộn.

[Nhúng nội dung]

Dưới đây là một video khác về sự nguy hiểm của AI. Trong video, Stuart Russell, một nhà khoa học máy tính người Anh nổi tiếng với những đóng góp cho trí tuệ nhân tạo, cảnh báo về những rủi ro liên quan đến việc tạo ra các hệ thống AI.

[Nhúng nội dung]


Dấu thời gian:

Thêm từ khởi nghiệp công nghệ