"จำคำของฉันไว้, AI อันตรายกว่านิวเคลียร์มาก. มันทำให้ฉันกลัวจนแทบบ้า” นั่นคือคำกล่าวของ Elon Musk ซีอีโอของ Tesla ในปี 2018 ระหว่างการสัมภาษณ์ Jonathan Nolan ระหว่างการประชุม South by Southwest ในเมืองออสติน รัฐเท็กซัส น่าเสียดายที่ Mus ไม่ได้อยู่คนเดียว นักวิจัยและผู้เชี่ยวชาญที่มีชื่อเสียงอื่น ๆ ก็เตือนเกี่ยวกับอันตรายของปัญญาประดิษฐ์ (AI) คำถาม 1 ล้านปอนด์คือเราเตรียมพร้อมแล้ว และรัฐบาลและนักวางแผนนโยบายของเรากำลังทำอะไรเพื่อป้องกันอันตรายนี้
ในขณะที่ความนิยมล่าสุดของ ChatGPT ได้นำ AI มาสู่กระแสหลักและล่อลวงหลาย ๆ คนให้ได้รับประโยชน์ทางสังคม แต่สิ่งที่ไม่ได้รับความสนใจจากสาธารณชนทั่วไปก็คือด้านมืดของ AI เป็นเวลาหลายปีที่ผู้เชี่ยวชาญและผู้ทำงานด้านเทคโนโลยีกังวลว่าปัญญาประดิษฐ์ (AI) จะแย่งงานของพวกเขา
อย่างไรก็ตาม ผู้เชี่ยวชาญเชื่อว่ามีความเสี่ยงและอันตรายอื่น ๆ ที่ร้ายแรงกว่านั้นที่ต้องกังวล รวมถึงความเอนเอียงทางอัลกอริทึมที่เกิดจากข้อมูลที่ไม่ดีที่ AI ใช้ การปลอมแปลงลึก ๆ การละเมิดความเป็นส่วนตัว และอื่น ๆ อีกมากมาย แม้ว่าอันตรายเหล่านี้ก่อให้เกิดความเสี่ยงร้ายแรงต่อสังคม นักวิจัยและนักวิทยาศาสตร์กลับกังวลมากขึ้นว่า AI จะถูกตั้งโปรแกรมให้ทำสิ่งที่อันตรายยิ่งกว่านั้นได้อย่างไร นั่นคือ การปรับอาวุธให้เป็นอัตโนมัติ
ทุกวันนี้ AI ถูกนำมาใช้ในการพัฒนาเทคโนโลยีการจับกลุ่มและอาวุธยุทโธปกรณ์หรือที่เรียกว่าโดรนกามิกาเซ่เช่นเดียวกับที่เป็นอยู่ ใช้ในสงครามรัสเซีย-ยูเครนที่กำลังดำเนินอยู่. ไม่เหมือนหุ่นยนต์แห่งอนาคตที่คุณเห็นในภาพยนตร์ไซไฟบางเรื่อง โดรนเหล่านี้ใช้แพลตฟอร์มทางทหารที่มีอยู่ก่อนหน้านี้ซึ่งใช้ประโยชน์จากเทคโนโลยี AI ใหม่ โดยเนื้อแท้แล้วโดรนเหล่านี้กลายเป็นอาวุธอิสระที่ถูกตั้งโปรแกรมมาเพื่อสังหาร
แต่การใช้ AI เพื่อสังหารในการสู้รบนับล้านนั้นเป็นเพียงจุดเริ่มต้น Michael Osborne เป็นศาสตราจารย์ด้าน AI และนักวิจัยด้านแมชชีนเลิร์นนิงที่มหาวิทยาลัยอ็อกซ์ฟอร์ด เขายังเป็นผู้ร่วมก่อตั้ง Mind Foundry ในขณะที่ทุกคนกำลังคลั่งไคล้ ChatGPT ศาสตราจารย์ออสบอร์นกำลังเตือนเกี่ยวกับความเสี่ยงของ AI และคาดการณ์ว่า AI ขั้นสูงอาจ "ก่อให้เกิดความเสี่ยงต่อเรามากพอๆ กับที่เราก่อให้เกิดกับสายพันธุ์อื่น: โดโดเป็นตัวอย่างหนึ่ง"
เมื่อต้นเดือนนี้ กลุ่มนักวิจัยจากมหาวิทยาลัยอ็อกซ์ฟอร์ดบอกกับคณะกรรมการวิทยาศาสตร์และเทคโนโลยีในรัฐสภาอังกฤษว่า ในที่สุด AI อาจเป็น "ภัยคุกคามที่มีอยู่" ต่อมนุษยชาติ เช่นเดียวกับที่มนุษย์ถูกโดโดกำจัด เครื่องจักร AI อาจกำจัดเรา พวกเขากล่าว Times of London รายงาน.
ในระหว่างการประชุม ศาสตราจารย์ออสบอร์น เตือนสมาชิกรัฐสภาอังกฤษว่าปัญญาประดิษฐ์ที่ทรงพลังสามารถฆ่าทุกคนบนโลกได้ “AI เปรียบได้กับอันตรายพอๆ กับอาวุธนิวเคลียร์” เขากล่าว ศาสตราจารย์ออสบอร์นยังเสริมด้วยว่าความเสี่ยงไม่ใช่การที่ AI ฝ่าฝืนโปรแกรมของมัน แต่เป็นการเชื่อฟังอย่างเข้มงวดโดยไม่ตั้งใจ:
“AI ที่ฉลาดหลักแหลมบอกให้หยุดมะเร็ง เพื่อยกตัวอย่างที่เข้าใจง่ายเกินไป อาจพบว่าวิธีที่ง่ายที่สุดคือการกำจัดมนุษย์ เมื่อสำรวจความคิดเห็น นักวิจัยราวหนึ่งในสามคิดว่า AI อาจนำไปสู่หายนะทั่วโลก มีโปรแกรมความปลอดภัยของ AI แต่ธุรกิจและประเทศต่าง ๆ มีส่วนร่วมใน "การแข่งขันทางอาวุธ" ที่ทำให้วิธีการระมัดระวังเป็นเรื่องยาก”
Michael Cohen เพื่อนร่วมงานของศาสตราจารย์ Osbborne และนักศึกษาปริญญาเอกที่ Oxford University กล่าวกับ The Times of London ว่า:
“ด้วย AI เหนือมนุษย์ มีความเสี่ยงเฉพาะที่อยู่ในประเภทที่แตกต่างกัน ซึ่งก็คือ . . มันสามารถฆ่าทุกคนได้”
ในขณะที่ AI ช่วยให้ชีวิตของเราดีขึ้น นักวิทยาศาสตร์ก็กลัวว่าเรากำลังเสี่ยงที่จะเสียสละความเป็นมนุษย์เพื่อความสะดวก เนื่องจาก AI ขาดศีลธรรมของมนุษย์ สถานการณ์หนึ่งที่น่ากลัวตามที่โคเฮนกล่าวคือ AI สามารถเรียนรู้ที่จะบรรลุคำสั่งช่วยเหลือมนุษย์โดยใช้กลวิธีทำร้ายมนุษย์
“ถ้าคุณจินตนาการถึงการฝึกสุนัขด้วยขนม มันจะเรียนรู้ที่จะเลือกการกระทำที่นำไปสู่การได้รับขนม แต่ถ้าสุนัขพบตู้ขนม มันจะสามารถหยิบขนมได้เองโดยไม่ต้องทำตามที่เราต้องการ” เขาอธิบาย . “ถ้าคุณมีบางสิ่งที่ฉลาดกว่าเรามากที่พยายามจะรับผลตอบรับเชิงบวกนี้ด้วยความคลั่งไคล้ และมันถูกยึดไปทั่วโลกเพื่อรักษาสิ่งนั้นไว้ มันจะส่งพลังงานมากที่สุดเท่าที่จะเป็นไปได้เพื่อรักษาความปลอดภัยให้กับสิ่งนั้น และนั่นจะทำให้เราไม่มีสิ่งใดเลย พลังงานให้กับตัวเรา”
ศาสตราจารย์ออสบอร์นและไมเคิล โคเฮนไม่ใช่นักวิจัยเพียงสองคนที่ส่งสัญญาณเตือนภัยเกี่ยวกับความเสี่ยงและอันตรายของ AI นักวิทยาศาสตร์หลายคนที่ทำงานกับ AI ได้แสดงความกังวลในลักษณะเดียวกัน การสำรวจเมื่อเดือนกันยายน พ.ศ. 2022 ของนักวิจัย 327 คนจากมหาวิทยาลัยนิวยอร์ก พบว่าหนึ่งในสามเชื่อว่า AI อาจนำมาซึ่งการล้างโลกแบบนิวเคลียร์ภายในศตวรรษนี้ Times Of London กล่าว
นักวิทยาศาสตร์หลายคนที่ทำงานร่วมกับ AI ดูเหมือนจะมีความกังวลที่คล้ายกัน การสำรวจในเดือนกันยายน พ.ศ. 2022 ของนักวิจัย 327 คนจากมหาวิทยาลัยนิวยอร์กพบว่าหนึ่งในสามเชื่อว่า AI อาจก่อให้เกิดหายนะที่คล้ายกับการเปิดเผยของนิวเคลียร์ภายในศตวรรษนี้ Times Of London รายงาน
“เป็นไปได้ว่าการตัดสินใจโดย AI หรือระบบแมชชีนเลิร์นนิงอาจทำให้เกิดหายนะในศตวรรษนี้ ซึ่งอย่างน้อยก็เลวร้ายพอๆ กับสงครามนิวเคลียร์” 36% ของนักวิจัยกล่าว
ไม่ว่าจะผ่านไปอีก XNUMX ศตวรรษจากนี้ AI ก็ฉลาดขึ้นเรื่อยๆ และตามที่ผู้เชี่ยวชาญบางคนแนะนำไว้ จำเป็นอย่างยิ่งที่เราจะต้องรักษาการควบคุมของมนุษย์และพัฒนากลไกต่างๆ เช่น AI คิลสวิตช์ เพื่อควบคุมสิ่งที่ AI ทำได้และทำไม่ได้ การขาดการกำกับดูแลและการไม่มีนโยบาย AI ทั่วโลกที่ชัดเจนในปัจจุบัน เป็นสิ่งที่ปลุกให้รัฐบาลทั่วโลกตื่นตัว เราต้องดำเนินการเดี๋ยวนี้ก่อนที่จะสายเกินไป
[เนื้อหาฝัง]
ด้านล่างนี้เป็นวิดีโอเกี่ยวกับอันตรายของ AI ในวิดีโอ Stuart Russell นักวิทยาศาสตร์คอมพิวเตอร์ชาวอังกฤษที่เป็นที่รู้จักจากผลงานด้านปัญญาประดิษฐ์ เตือนเกี่ยวกับความเสี่ยงที่เกี่ยวข้องกับการสร้างระบบ AI
[เนื้อหาฝัง]
- เนื้อหาที่ขับเคลื่อนด้วย SEO และการเผยแพร่ประชาสัมพันธ์ รับการขยายวันนี้
- เพลโตบล็อคเชน Web3 Metaverse ข่าวกรอง ขยายความรู้. เข้าถึงได้ที่นี่.
- ที่มา: https://techstartups.com/2023/01/28/ai-is-as-comparable-a-danger-as-nuclear-weapons-oxford-university-researchers-warn/
- 2018
- 2022
- 7
- a
- AI
- เกี่ยวกับเรา
- AC
- ตาม
- บรรลุ
- การกระทำ
- การปฏิบัติ
- ที่เพิ่ม
- สูง
- AI
- ระบบ AI
- ขับเคลื่อนด้วย AI
- ปลุก
- อัลกอริทึม
- อัลกอริทึมอคติ
- คนเดียว
- และ
- อื่น
- ปรากฏ
- วิธีการ
- รอบ
- เทียม
- ปัญญาประดิษฐ์
- ปัญญาประดิษฐ์ (AI)
- ความสนใจ
- ออสติน
- อิสระ
- ไม่ดี
- ข้อมูลไม่ดี
- กลายเป็น
- สมควร
- ก่อน
- การเริ่มต้น
- กำลัง
- เชื่อ
- ระฆัง
- ประโยชน์ที่ได้รับ
- อคติ
- นำมาซึ่ง
- British
- นำ
- ธุรกิจ
- โทรศัพท์
- ที่เรียกว่า
- โทร
- สามารถรับ
- โรคมะเร็ง
- ไม่ได้
- ก่อให้เกิด
- ที่เกิดจาก
- ระมัดระวัง
- ศตวรรษ
- ผู้บริหารสูงสุด
- ChatGPT
- ชั้น
- ชัดเจน
- ผู้ร่วมก่อตั้ง
- เพื่อนร่วมงาน
- การต่อสู้
- กรรมการ
- เทียบเคียง
- คอมพิวเตอร์
- เกี่ยวข้อง
- ความกังวลเกี่ยวกับ
- การประชุม
- เนื้อหา
- ผลงาน
- ควบคุม
- ความสะดวกสบาย
- ได้
- ประเทศ
- การสร้าง
- ปัจจุบัน
- อันตราย
- Dangerous
- อันตราย
- มืด
- ข้อมูล
- การตัดสินใจ
- ลึก
- ของปลอม
- พัฒนา
- ที่กำลังพัฒนา
- พัฒนาการ
- ต่าง
- ยาก
- โดยตรง
- ภัยพิบัติ
- DODO
- สุนัข
- การทำ
- โดรน
- ในระหว่าง
- โลก
- ที่ง่ายที่สุด
- กำจัด
- Elon
- Elon Musk
- ที่ฝัง
- พลังงาน
- หมั้น
- แก่นแท้
- อีเธอร์ (ETH)
- แม้
- ในที่สุด
- ทุกคน
- ตัวอย่าง
- ที่มีอยู่
- ผู้เชี่ยวชาญ
- ผู้เชี่ยวชาญเชื่อ
- อธิบาย
- แสดง
- กลัว
- ข้อเสนอแนะ
- หา
- พบ
- พบ
- โรงหล่อ
- ราคาเริ่มต้นที่
- มากมาย
- ดึงดูด
- General
- ประชาชนทั่วไป
- ได้รับ
- ได้รับ
- ให้
- เหตุการณ์ที่
- รัฐบาล
- บัญชีกลุ่ม
- ถือ
- สรุป ความน่าเชื่อถือของ Olymp Trade?
- HTTPS
- เป็นมนุษย์
- มนุษยชาติ
- มนุษย์
- ความจำเป็น
- การปรับปรุง
- in
- รวมทั้ง
- ขึ้น
- บ้า
- Intelligence
- สัมภาษณ์
- ร่วมมือ
- IT
- ตัวเอง
- งาน
- ฆ่า
- ที่รู้จักกัน
- ไม่มี
- ปลาย
- นำ
- เรียนรู้
- การเรียนรู้
- ทิ้ง
- เลฟเวอเรจ
- ชีวิต
- ลอนดอน
- เครื่อง
- เรียนรู้เครื่อง
- เครื่อง
- ทำ
- หลัก
- ทำ
- หลาย
- ที่ประชุม
- วิธี
- ไมเคิล
- อาจ
- ทหาร
- ใจ
- เดือน
- ศีลธรรม
- ข้อมูลเพิ่มเติม
- Movies
- ชะมด
- จำเป็นต้อง
- ใหม่
- นิวยอร์ก
- มหาวิทยาลัยนิวยอร์ก
- นิวเคลียร์
- อาวุธนิวเคลียร์
- ONE
- ต่อเนื่อง
- อื่นๆ
- การควบคุม
- ฟอร์ด
- มหาวิทยาลัยออกซฟอร์ด
- รัฐสภา
- ในสิ่งที่สนใจ
- เลือก
- แพลตฟอร์ม
- เพลโต
- เพลโตดาต้าอินเทลลิเจนซ์
- เพลโตดาต้า
- นโยบาย
- ความนิยม
- บวก
- ที่มีประสิทธิภาพ
- เตรียม
- ก่อนหน้านี้
- ความเป็นส่วนตัว
- มืออาชีพ
- ศาสตราจารย์
- โปรแกรม
- การเขียนโปรแกรม
- โปรแกรม
- สาธารณะ
- คำถาม
- เมื่อเร็ว ๆ นี้
- ลบ
- มีชื่อเสียง
- รายงาน
- นักวิจัย
- นักวิจัย
- ความเสี่ยง
- ความเสี่ยง
- หุ่นยนต์
- เสียสละ
- ความปลอดภัย
- กล่าวว่า
- ประโยชน์
- Sci-Fi
- วิทยาศาสตร์
- วิทยาศาสตร์และเทคโนโลยี
- นักวิทยาศาสตร์
- นักวิทยาศาสตร์
- ปลอดภัย
- การรักษา
- กันยายน
- ร้ายแรง
- ที่ใช้ร่วมกัน
- คล้ายคลึงกัน
- สมาร์ท
- อย่างชาญฉลาด
- สังคม
- สังคม
- บาง
- บางสิ่งบางอย่าง
- ภาคใต้
- คำแถลง
- นักเรียน
- อย่างเช่น
- เหนือมนุษย์
- การสำรวจ
- สวิตซ์
- ระบบ
- กลยุทธ์
- เอา
- การ
- เทคโนโลยี
- เทคโนโลยี
- เทคโนโลยี
- เท็กซัส
- พื้นที่
- โลก
- ของพวกเขา
- ที่สาม
- ครั้ง
- ไปยัง
- เกินไป
- การฝึกอบรม
- รักษา
- ถือว่า
- มหาวิทยาลัย
- us
- ใช้
- วีดีโอ
- การละเมิด
- อยาก
- สงคราม
- คำเตือน
- เตือน
- วิธี
- อาวุธ
- อะไร
- ที่
- ในขณะที่
- WHO
- จะ
- ภายใน
- ไม่มี
- คำ
- งาน
- แรงงาน
- โลก
- กังวล
- จะ
- ปี
- YouTube
- ลมทะเล