ยุโรปวางแผนสำหรับกฎ AI ที่อิงกับความเสี่ยงเพื่อเพิ่มความไว้วางใจและการยอมรับ

โหนดต้นทาง: 822535

ฝ่ายนิติบัญญัติของสหภาพยุโรปได้นำเสนอ ข้อเสนอตามความเสี่ยง สำหรับควบคุมการใช้งานปัญญาประดิษฐ์ที่มีความเสี่ยงสูงภายในตลาดเดียวของกลุ่ม

แผนดังกล่าวรวมถึงข้อห้ามในกรณีการใช้งานจำนวนเล็กน้อยซึ่งถือว่าเป็นอันตรายต่อความปลอดภัยของประชาชนหรือสิทธิขั้นพื้นฐานของพลเมืองสหภาพยุโรปมากเกินไป เช่น ระบบให้คะแนนเครดิตทางสังคมแบบจีน หรือการเฝ้าระวังมวลชนบางประเภทที่ใช้ AI

การใช้ AI ส่วนใหญ่จะไม่ต้องเผชิญกับกฎระเบียบใด ๆ (นับประสาการห้าม) ภายใต้ข้อเสนอนี้ แต่ส่วนย่อยของการใช้งานที่เรียกว่า "ความเสี่ยงสูง" จะอยู่ภายใต้ข้อกำหนดด้านกฎระเบียบเฉพาะทั้งในอดีต (ก่อน) และอดีตโพสต์ (หลัง) ) เปิดตัวสู่ตลาด

นอกจากนี้ยังมีข้อกำหนดด้านความโปร่งใสสำหรับกรณีการใช้งาน AI บางอย่าง เช่น Chatbots และ Deepfakes ซึ่งฝ่ายนิติบัญญัติของสหภาพยุโรปเชื่อว่าความเสี่ยงที่อาจเกิดขึ้นสามารถบรรเทาได้ด้วยการแจ้งให้ผู้ใช้ทราบว่าพวกเขากำลังโต้ตอบกับสิ่งที่ปลอมแปลง

กฎหมายที่วางแผนไว้มีวัตถุประสงค์เพื่อใช้กับบริษัทใดๆ ที่จำหน่ายผลิตภัณฑ์หรือบริการ AI ในสหภาพยุโรป ไม่ใช่แค่กับบริษัทและบุคคลในสหภาพยุโรปเท่านั้น ดังนั้น เช่นเดียวกับระบอบการปกป้องข้อมูลของสหภาพยุโรป กฎหมายดังกล่าวจะอยู่ในขอบเขตนอกอาณาเขต

เป้าหมายที่ครอบคลุมสำหรับผู้ร่างกฎหมายของสหภาพยุโรปคือการส่งเสริมความไว้วางใจของสาธารณชนเกี่ยวกับวิธีการนำ AI ไปใช้เพื่อช่วยกระตุ้นการใช้เทคโนโลยี เจ้าหน้าที่คณะกรรมาธิการอาวุโสพูดถึงความต้องการพัฒนา "ระบบนิเวศที่เป็นเลิศ" ที่สอดคล้องกับค่านิยมของยุโรป

“วันนี้ เราตั้งเป้าที่จะทำให้ยุโรปเป็นระดับโลกในการพัฒนาปัญญาประดิษฐ์ที่มีมนุษย์เป็นศูนย์กลาง เชื่อถือได้ และใช้งานได้จริง” Margrethe Vestager รองประธานคณะกรรมาธิการฯ กล่าวประกาศการนำข้อเสนอนี้ไปใช้ในงานแถลงข่าว

“ในด้านหนึ่ง กฎระเบียบของเราจัดการกับความเสี่ยงของมนุษย์และสังคมที่เกี่ยวข้องกับการใช้ AI ที่เฉพาะเจาะจง นี่คือการสร้างความไว้วางใจ ในทางกลับกัน แผนประสานงานของเราได้สรุปขั้นตอนที่จำเป็นที่ประเทศสมาชิกควรทำเพื่อเพิ่มการลงทุนและนวัตกรรม เพื่อรับประกันความเป็นเลิศ ทั้งหมดนี้ เพื่อให้แน่ใจว่าเราจะเสริมความแข็งแกร่งให้กับ AI ทั่วยุโรป”

ภายใต้ข้อเสนอนี้ ข้อกำหนดบังคับจะแนบมากับแอปพลิเคชันประเภท "ความเสี่ยงสูง" ของ AI ซึ่งหมายความว่า those นำเสนอความเสี่ยงด้านความปลอดภัยที่ชัดเจนหรือคุกคามที่จะกระทบต่อ สิทธิพื้นฐานของสหภาพยุโรป (เช่น สิทธิในการไม่เลือกปฏิบัติ)

ตัวอย่างกรณีการใช้งาน AI ที่มีความเสี่ยงสูงซึ่งจะต้องอยู่ภายใต้ระเบียบข้อบังคับในการใช้งานระดับสูงสุดมีระบุไว้ในภาคผนวก 3 ของระเบียบนี้ ซึ่งคณะกรรมาธิการกล่าวว่าจะมีอำนาจขยายตามการกระทำของผู้รับมอบสิทธิ์ เช่น กรณีการใช้งานของ AI ยังคงพัฒนาและความเสี่ยงพัฒนาต่อไป

สำหรับตัวอย่างที่มีความเสี่ยงสูงที่อ้างถึงในขณะนี้จะจัดอยู่ในหมวดหมู่ต่อไปนี้: การระบุและการแบ่งประเภทไบโอเมตริกซ์ของบุคคลธรรมดา การจัดการและการดำเนินงานโครงสร้างพื้นฐานที่สำคัญ การศึกษาและอาชีวศึกษา การจ้างงาน การจัดการแรงงาน และการเข้าถึงการจ้างงานตนเอง การเข้าถึงและเพลิดเพลินกับบริการส่วนตัวที่จำเป็นและบริการสาธารณะและผลประโยชน์ การบังคับใช้กฎหมาย การจัดการการย้ายถิ่นฐาน ลี้ภัย และการควบคุมชายแดน การบริหารกระบวนการยุติธรรมและประชาธิปไตย

การใช้ AI ทางทหารนั้นไม่รวมอยู่ในขอบเขตโดยเฉพาะเนื่องจากกฎระเบียบมุ่งเน้นไปที่ตลาดภายในของกลุ่ม

ผู้ผลิตแอปพลิเคชันที่มีความเสี่ยงสูงจะมีชุดของภาระหน้าที่ที่ต้องปฏิบัติตามก่อนที่จะนำผลิตภัณฑ์ออกสู่ตลาด รวมถึงคุณภาพของชุดข้อมูลที่ใช้ในการฝึก AI และระดับการกำกับดูแลของมนุษย์ไม่ใช่แค่การออกแบบเท่านั้น แต่ยังใช้ ของระบบ - เช่นเดียวกับข้อกำหนดในอดีตที่ดำเนินการอยู่ ในรูปแบบของการเฝ้าระวังหลังการขาย

ข้อกำหนดอื่นๆ ได้แก่ ความจำเป็นในการสร้างบันทึกของระบบ AI เพื่อเปิดใช้งานการตรวจสอบการปฏิบัติตามข้อกำหนดและเพื่อให้ข้อมูลที่เกี่ยวข้องแก่ผู้ใช้ ความทนทาน ความแม่นยำ และความปลอดภัยของระบบ AI จะต้องเป็นไปตามระเบียบข้อบังคับด้วย

เจ้าหน้าที่คณะกรรมาธิการแนะนำว่าการใช้งาน AI ส่วนใหญ่จะอยู่นอกหมวดหมู่ที่มีการควบคุมอย่างเข้มงวดนี้ ผู้ผลิตระบบ AI ที่ 'มีความเสี่ยงต่ำ' เหล่านั้นจะได้รับการสนับสนุนให้ใช้หลักจรรยาบรรณในการใช้งาน (ไม่ผูกมัดทางกฎหมาย) เท่านั้น

บทลงโทษสำหรับการละเมิดกฎการแบนกรณีการใช้งาน AI ที่เฉพาะเจาะจงถูกกำหนดไว้ที่ 6% ของมูลค่าการซื้อขายประจำปีทั่วโลกหรือ 30 ล้านยูโร (แล้วแต่จำนวนใดจะสูงกว่า) ในขณะที่การละเมิดกฎที่เกี่ยวข้องกับแอปพลิเคชันที่มีความเสี่ยงสูงสามารถขยายได้ถึง 4% (หรือ 20 ล้านยูโร)

การบังคับใช้จะเกี่ยวข้องกับหลายหน่วยงานในแต่ละประเทศสมาชิกสหภาพยุโรป โดยข้อเสนอที่ตั้งใจให้มีการกำกับดูแลจะดำเนินการโดยหน่วยงานที่มีอยู่ (ที่เกี่ยวข้อง) เช่น หน่วยงานด้านความปลอดภัยของผลิตภัณฑ์และหน่วยงานคุ้มครองข้อมูล

นั่นทำให้เกิดคำถามในทันทีเกี่ยวกับการจัดหาหน่วยงานระดับชาติที่เพียงพอ เนื่องจากการทำงานเพิ่มเติมและความซับซ้อนทางเทคนิคที่พวกเขาต้องเผชิญในการรักษากฎของ AI และวิธีหลีกเลี่ยงปัญหาคอขวดในการบังคับใช้ในบางประเทศสมาชิก (โดยเฉพาะอย่างยิ่ง กฎระเบียบให้ความคุ้มครองข้อมูลส่วนบุคคลของผู้บริโภคของสหภาพยุโรปยังได้รับการดูแลในระดับประเทศสมาชิกและได้รับผลกระทบจากการขาดการบังคับใช้ที่เข้มงวดอย่างสม่ำเสมอ)

นอกจากนี้ยังมีการตั้งค่าฐานข้อมูลทั่วทั้งสหภาพยุโรปเพื่อสร้างการลงทะเบียนของระบบที่มีความเสี่ยงสูงที่ดำเนินการในกลุ่ม (ซึ่งจะได้รับการจัดการโดยคณะกรรมาธิการ)

หน่วยงานใหม่ที่เรียกว่า European Artificial Intelligence Board (EAIB) จะถูกจัดตั้งขึ้นเพื่อสนับสนุนการใช้กฎระเบียบที่สอดคล้องกัน - ในลักษณะเดียวกับ European Data Protection Board ซึ่งให้คำแนะนำสำหรับการใช้ GDPR

ตามกฎระเบียบเกี่ยวกับการใช้งาน AI บางอย่าง แผนดังกล่าวยังรวมถึงมาตรการในการประสานงานสนับสนุนประเทศสมาชิกสหภาพยุโรปสำหรับการพัฒนา AI เช่น โดยการสร้างกล่องทรายควบคุมเพื่อช่วยให้สตาร์ทอัพและ SMEs พัฒนาและทดสอบนวัตกรรมที่ใช้ AI และผ่านโอกาสของ กำหนดเป้าหมายการระดมทุนของสหภาพยุโรปเพื่อสนับสนุนนักพัฒนา AI

Thierry Breton กรรมาธิการตลาดภายในกล่าวว่าการลงทุนเป็นส่วนสำคัญของแผน

“ภายใต้โครงการ Digital Europe และ Horizon Europe ของเรา เราจะได้เงินฟรีพันล้านยูโรต่อปี และเหนือสิ่งอื่นใด เราต้องการสร้างการลงทุนภาคเอกชนและการลงทุนโดยรวมของสหภาพยุโรปจำนวน 20 พันล้านยูโรต่อปีในทศวรรษหน้า ซึ่งเป็น "ทศวรรษดิจิทัล" อย่างที่เราเรียกกันว่า “เรายังต้องการมี€ 140 พันล้านซึ่งจะสนับสนุนการลงทุนด้านดิจิทัลภายใต้ Next Generation EU [กองทุนกู้คืน COVID-19] – และเข้าสู่ AI บางส่วน”

การกำหนดกฎเกณฑ์สำหรับ AI ถือเป็นสิ่งสำคัญสำหรับประธานาธิบดีเออร์ซูลา ฟอน เดอร์ ลีเยน แห่งสหภาพยุโรป ซึ่งรับตำแหน่งเมื่อปลายปี 2019 เอกสารไวท์เปเปอร์ได้รับการตีพิมพ์ ปีก่อนต่อไปนี้ 2018 AI สำหรับกลยุทธ์ของสหภาพยุโรป — และ Vestager กล่าวว่าข้อเสนอของวันนี้คือจุดสุดยอดของงานสามปี

Breton กล่าวเสริมว่าการให้คำแนะนำสำหรับธุรกิจต่างๆ ในการใช้ AI จะทำให้พวกเขามีความมั่นใจทางกฎหมายและยุโรปได้เปรียบ “ความน่าเชื่อถือ… เราคิดว่าเป็นสิ่งสำคัญอย่างยิ่งที่จะอนุญาตให้มีการพัฒนาปัญญาประดิษฐ์ที่เราต้องการ” เขากล่าว [แอปพลิเคชันของ AI] จำเป็นต้องเชื่อถือได้ ปลอดภัย ไม่เลือกปฏิบัติ ซึ่งเป็นสิ่งสำคัญอย่างยิ่ง แต่แน่นอนว่าเราจำเป็นต้องสามารถเข้าใจว่าแอปพลิเคชันเหล่านี้ทำงานอย่างไร”

“สิ่งที่เราต้องมีคือการได้รับคำแนะนำ โดยเฉพาะอย่างยิ่งในเทคโนโลยีใหม่… เราเป็น เราจะเป็น ทวีปแรกที่เราจะให้แนวทาง — เราจะพูดว่า 'เฮ้ นี่คือสีเขียว นี่คือสีเขียวเข้ม นี่อาจเป็นสีส้มเล็กน้อย และนี่เป็นสิ่งต้องห้าม' . ดังนั้นตอนนี้หากคุณต้องการใช้แอพพลิเคชั่นปัญญาประดิษฐ์ ไปยุโรป! คุณจะรู้ว่าต้องทำอะไร คุณจะรู้ว่าต้องทำอย่างไร คุณจะมีพันธมิตรที่เข้าใจค่อนข้างดี และอีกอย่าง คุณจะมาในทวีปที่คุณจะมีข้อมูลอุตสาหกรรมจำนวนมากที่สุดที่สร้างขึ้นบนโลกใบนี้ ในอีกสิบปีข้างหน้า

“มาที่นี่เพราะปัญญาประดิษฐ์เกี่ยวกับข้อมูล เราจะให้แนวทางแก่คุณ เราจะมีเครื่องมือในการทำและโครงสร้างพื้นฐาน”

ข้อเสนอของวันนี้ รั่วไหลเมื่อสัปดาห์ที่แล้ว - นำไปสู่ เรียกร้องให้ส.ส.เร่งแผนเช่น โดยห้ามการเฝ้าระวังไบโอเมตริกซ์ระยะไกลในที่สาธารณะ

ในกรณีที่ข้อเสนอขั้นสุดท้ายถือว่าการเฝ้าระวังไบโอเมตริกซ์ระยะไกลเป็นการใช้ AI ที่มีความเสี่ยงสูงเป็นพิเศษ และมีการห้ามหลักในการใช้เทคโนโลยีในที่สาธารณะโดยการบังคับใช้กฎหมาย

อย่างไรก็ตาม การใช้งานไม่ได้ถูกห้ามโดยสมบูรณ์ โดยมีข้อยกเว้นหลายประการที่หน่วยงานบังคับใช้กฎหมายยังคงสามารถใช้งานได้ โดยอยู่ภายใต้พื้นฐานทางกฎหมายที่ถูกต้องและการกำกับดูแลที่เหมาะสม

การป้องกันโจมตีอ่อนแอเกินไป

ปฏิกิริยาต่อข้อเสนอของคณะกรรมาธิการรวมถึงการวิพากษ์วิจารณ์การยกเว้นอย่างกว้างขวางเกินไปสำหรับการบังคับใช้กฎหมาย ตลอดจนความกังวลว่ามาตรการในการจัดการกับความเสี่ยงของการเลือกปฏิบัติของระบบ AI นั้นยังไม่เพียงพอ

องค์กรพัฒนาเอกชนด้านกระบวนการยุติธรรมทางอาญา (Fair Trials) กล่าวว่า จำเป็นต้องมีการปรับปรุงอย่างจริงจัง หากข้อบังคับดังกล่าวต้องมีการป้องกันที่มีความหมายซึ่งเกี่ยวข้องกับกระบวนการยุติธรรมทางอาญา แสดงความคิดเห็นในแถลงการณ์ว่า Griff Ferris เจ้าหน้าที่กฎหมายและนโยบายของ NGO กล่าวว่า “ข้อเสนอของสหภาพยุโรปจำเป็นต้องมีการเปลี่ยนแปลงที่รุนแรงเพื่อป้องกันการเลือกปฏิบัติอย่างแข็งขันในผลลัพธ์ของกระบวนการยุติธรรมทางอาญา ปกป้องข้อสันนิษฐานของความไร้เดียงสาและรับรอง ความรับผิดชอบที่มีความหมายสำหรับ AI ในกระบวนการยุติธรรมทางอาญา 

“กฎหมายไม่มีการป้องกันการเลือกปฏิบัติ ในขณะที่การยกเว้นอย่างกว้างขวางสำหรับ 'การปกป้องความมั่นคงสาธารณะ' เป็นการบ่อนทำลายสิ่งที่มีการป้องกันเพียงเล็กน้อยที่เกี่ยวข้องกับกระบวนการยุติธรรมทางอาญา กรอบต้องประกอบด้วย การป้องกันและข้อจำกัดที่เข้มงวดเพื่อป้องกันการเลือกปฏิบัติและปกป้องสิทธิ์ในการพิจารณาคดีอย่างยุติธรรม สิ่งนี้ควรรวมถึงการจำกัดการใช้ระบบที่พยายามสร้างโปรไฟล์ผู้คนและคาดการณ์ความเสี่ยงของอาชญากรรม” 

สหภาพเสรีภาพพลเมืองเพื่อยุโรป (เสรีภาพ) ยังโจมตีช่องโหว่ที่องค์กรพัฒนาเอกชนกล่าวว่าจะอนุญาตให้ประเทศสมาชิกสหภาพยุโรปหลีกเลี่ยงการห้ามใช้ AI ที่มีปัญหา

“มีการอนุญาตให้ใช้เทคโนโลยีที่เป็นปัญหามากเกินไป เช่น การใช้อัลกอริธึมในการพยากรณ์อาชญากรรมหรือให้คอมพิวเตอร์ประเมินสถานะทางอารมณ์ของผู้คนที่ควบคุมชายแดน ซึ่งทั้งสองอย่างนี้ถือเป็นความเสี่ยงด้านสิทธิมนุษยชนอย่างร้ายแรงและเป็นภัยคุกคาม ต่อค่านิยมของสหภาพยุโรป” Orsolya Reich เจ้าหน้าที่สนับสนุนอาวุโสกล่าวในแถลงการณ์ “เรายังกังวลว่าตำรวจจะใช้เทคโนโลยีการจดจำใบหน้าในลักษณะที่เป็นอันตรายต่อสิทธิและเสรีภาพขั้นพื้นฐานของเรา”

แพทริก เบรเยอร์ ส.ส.โจรสลัดแห่งเยอรมนี ยังเตือนด้วยว่าข้อเสนอนี้ไม่สอดคล้องกับมาตรฐานการเคารพ 'ค่านิยมยุโรป' MEP เป็นหนึ่งใน 40 คนที่ลงนามในจดหมายถึงคณะกรรมาธิการ สัปดาห์ที่ผ่านมา เตือนว่าข้อเสนอฉบับรั่วไหลยังไม่เพียงพอในการปกป้องสิทธิขั้นพื้นฐาน

“เราต้องคว้าโอกาสที่จะปล่อยให้สหภาพยุโรปนำปัญญาประดิษฐ์มาสอดคล้องกับข้อกำหนดทางจริยธรรมและค่านิยมทางประชาธิปไตย น่าเสียดายที่ข้อเสนอของคณะกรรมาธิการไม่สามารถปกป้องเราจากอันตรายของความยุติธรรมทางเพศและการปฏิบัติที่เท่าเทียมกันของทุกกลุ่มเช่นผ่านระบบจดจำใบหน้าหรือการเฝ้าระวังมวลชนประเภทอื่น ๆ "Breyer กล่าวในแถลงการณ์ที่ตอบสนองต่อข้อเสนออย่างเป็นทางการในวันนี้

“เทคโนโลยีการเฝ้าระวังทางชีวภาพและมวลชน การทำโปรไฟล์ และการทำนายพฤติกรรมในที่สาธารณะของเรา บ่อนทำลายเสรีภาพของเราและคุกคามสังคมเปิดของเรา ข้อเสนอของคณะกรรมาธิการยุโรปจะนำการใช้การจดจำใบหน้าอัตโนมัติที่มีความเสี่ยงสูงในที่สาธารณะมาสู่สหภาพยุโรปทั้งหมด ตรงกันข้ามกับเจตจำนงของประชาชนส่วนใหญ่ของเรา ข้อกำหนดขั้นตอนที่เสนอเป็นเพียงการรมควัน เราไม่สามารถอนุญาตให้มีการเลือกปฏิบัติของคนบางกลุ่มและการใส่ร้ายบุคคลจำนวนนับไม่ถ้วนด้วยเทคโนโลยีเหล่านี้”

BEUC ซึ่งเป็นกลุ่มร่มสิทธิผู้บริโภคก็วิจารณ์อย่างรวดเร็วเช่นกัน โดยโจมตีข้อเสนอของคณะกรรมาธิการว่าอ่อนแอต่อการคุ้มครองผู้บริโภค เนื่องจากมุ่งเน้นที่การควบคุม "การใช้งานและปัญหา AI ที่มีขอบเขตจำกัด"

“คณะกรรมาธิการยุโรปควรให้ความสำคัญกับการช่วยเหลือผู้บริโภคให้ไว้วางใจ AI ในชีวิตประจำวันของพวกเขา” Monique Goyens ผู้อำนวยการทั่วไปของ Beuc กล่าวในแถลงการณ์ว่า “ผู้คนควรจะสามารถไว้วางใจผลิตภัณฑ์หรือบริการใด ๆ ที่ขับเคลื่อนโดยปัญญาประดิษฐ์ไม่ว่าจะเป็น 'ความเสี่ยงสูง', 'ความเสี่ยงปานกลาง' หรือ 'ความเสี่ยงต่ำ' สหภาพยุโรปต้องทำมากกว่านี้เพื่อให้แน่ใจว่าผู้บริโภคมีสิทธิที่บังคับใช้ เช่นเดียวกับการเข้าถึงการชดใช้และการเยียวยาในกรณีที่มีสิ่งผิดปกติเกิดขึ้น”

กลุ่มอุตสาหกรรมเทคโนโลยี Dot Europe (เดิมคือ Edima) ซึ่งสมาชิก ได้แก่ Airbnb, Apple, Facebook, Google, Microsoft และยักษ์ใหญ่ด้านแพลตฟอร์มอื่น ๆ - ยินดีต้อนรับการเปิดตัวข้อเสนอ แต่ยังไม่ได้ให้ข้อสังเกตโดยละเอียดในขณะที่เขียนว่ากำลังจัดทำ ตำแหน่งของมัน

กลุ่มล็อบบี้เทคโนโลยีอื่น ๆ ไม่ได้รอที่จะโจมตีเมื่อคาดว่าจะมี AI ห่อด้วยเทปสีแดง โดยอ้างว่ากฎระเบียบดังกล่าวจะ "คุกเข่าอุตสาหกรรม AI ที่เพิ่งตั้งขึ้นของสหภาพยุโรปก่อนที่จะสามารถเรียนรู้ที่จะเดิน" เป็นนโยบายด้านเทคโนโลยีของวอชิงตันและบรัสเซลส์ Thinktank (ศูนย์นวัตกรรมข้อมูล) วางไว้

สมาคมการค้า CCIA ยังเตือนอย่างรวดเร็วถึง "เทปสีแดงที่ไม่จำเป็นสำหรับนักพัฒนาและผู้ใช้" โดยเสริมว่า การควบคุม เพียงอย่างเดียวจะไม่ทำให้สหภาพยุโรปเป็นผู้นำใน AI.

ข้อเสนอวันนี้เริ่มต้นการอภิปรายจำนวนมากภายใต้กระบวนการร่วมนิติบัญญัติของสหภาพยุโรป โดยรัฐสภายุโรปและประเทศสมาชิกผ่านทางสภาสหภาพยุโรปจำเป็นต้องพูดในร่าง ซึ่งหมายความว่าอาจมีการเปลี่ยนแปลงได้มากก่อนที่สถาบันของสหภาพยุโรปจะบรรลุข้อตกลงเกี่ยวกับ รูปแบบสุดท้ายของกฎระเบียบ AI ของ Pan-EU

คณะกรรมาธิการปฏิเสธที่จะให้กรอบเวลาว่าเมื่อใดที่กฎหมายอาจถูกนำมาใช้ในวันนี้ โดยกล่าวเพียงว่าพวกเขาหวังว่าสถาบันอื่น ๆ ในสหภาพยุโรปจะมีส่วนร่วมทันทีและกระบวนการนี้จะเสร็จสิ้นโดยเร็วที่สุด อย่างไรก็ตาม อาจต้องใช้เวลาหลายปีกว่าที่กฎระเบียบจะมีผลใช้บังคับและมีผลบังคับใช้

รายงานนี้ได้รับการปรับปรุงด้วยการตอบสนองต่อข้อเสนอของคณะกรรมาธิการ

ที่มา: https://techcrunch.com/2021/04/21/europe-lays-out-plan-for-risk-based-ai-rules-to-boost-trust-and-uptake/

ประทับเวลา:

เพิ่มเติมจาก TechCrunch