यूरोप ने विश्वास और उत्थान को बढ़ावा देने के लिए जोखिम-आधारित AI नियमों की योजना तैयार की है

स्रोत नोड: 822535

यूरोपीय संघ के सांसदों ने अपना पक्ष रखा है जोखिम आधारित प्रस्ताव ब्लॉक के एकल बाजार के भीतर कृत्रिम बुद्धिमत्ता के उच्च जोखिम वाले अनुप्रयोगों को विनियमित करने के लिए।

इस योजना में कम संख्या में ऐसे उपयोग-मामलों पर प्रतिबंध शामिल है, जिन्हें लोगों की सुरक्षा या यूरोपीय संघ के नागरिकों के मौलिक अधिकारों के लिए बहुत खतरनाक माना जाता है, जैसे कि चीन-शैली की सामाजिक क्रेडिट स्कोरिंग प्रणाली या कुछ प्रकार की एआई-सक्षम जन निगरानी।

प्रस्ताव के तहत एआई के अधिकांश उपयोगों को किसी भी विनियमन (प्रतिबंध की तो बात ही छोड़ दें) का सामना नहीं करना पड़ेगा, लेकिन तथाकथित "उच्च जोखिम" उपयोगों का एक उपसमूह विशिष्ट नियामक आवश्यकताओं के अधीन होगा, पूर्व पूर्व (पहले) और पूर्व पोस्ट (बाद में) दोनों ) बाज़ार में लॉन्च करना।

एआई के कुछ उपयोग-मामलों जैसे चैटबॉट और डीपफेक के लिए भी पारदर्शिता की आवश्यकताएं हैं - जहां यूरोपीय संघ के कानून निर्माताओं का मानना ​​​​है कि उपयोगकर्ताओं को यह सूचित करके संभावित जोखिम को कम किया जा सकता है कि वे किसी कृत्रिम चीज़ के साथ बातचीत कर रहे हैं।

नियोजित कानून का उद्देश्य यूरोपीय संघ में एआई उत्पाद या सेवा बेचने वाली किसी भी कंपनी पर लागू करना है, न कि केवल यूरोपीय संघ-आधारित कंपनियों और व्यक्तियों पर - इसलिए, यूरोपीय संघ के डेटा संरक्षण शासन के साथ, यह दायरे में अलौकिक होगा।

यूरोपीय संघ के सांसदों के लिए व्यापक लक्ष्य प्रौद्योगिकी को बढ़ावा देने में मदद करने के लिए एआई को कैसे लागू किया जाता है, इस पर जनता का विश्वास बढ़ाना है। आयोग के वरिष्ठ अधिकारी एक "उत्कृष्ट पारिस्थितिकी तंत्र" विकसित करने की इच्छा के बारे में बात करते हैं जो यूरोपीय मूल्यों के अनुरूप हो।

आयोग के ईवीपी, मार्ग्रेथ वेस्टेगर ने एक संवाददाता सम्मेलन में प्रस्ताव को अपनाने की घोषणा करते हुए कहा, "आज, हमारा लक्ष्य सुरक्षित, भरोसेमंद और मानव-केंद्रित आर्टिफिशियल इंटेलिजेंस के विकास और इसके उपयोग में यूरोप को विश्व स्तरीय बनाना है।"

“एक ओर, हमारा विनियमन एआई के विशिष्ट उपयोग से जुड़े मानवीय और सामाजिक जोखिमों को संबोधित करता है। यह विश्वास पैदा करना है. दूसरी ओर, हमारी समन्वित योजना उन आवश्यक कदमों की रूपरेखा तैयार करती है जो सदस्य देशों को निवेश और नवाचार को बढ़ावा देने के लिए उठाने चाहिए। उत्कृष्टता की गारंटी के लिए. यह सब, यह सुनिश्चित करने के लिए कि हम पूरे यूरोप में एआई को मजबूत करें।"

प्रस्ताव के तहत, एआई के अनुप्रयोगों की "उच्च जोखिम" श्रेणी से अनिवार्य आवश्यकताएं जुड़ी हुई हैं - जिसका अर्थ है स्पष्ट सुरक्षा जोखिम प्रस्तुत करें या अतिक्रमण करने की धमकी दें यूरोपीय संघ के मौलिक अधिकार (जैसे कि भेदभाव न करने का अधिकार)।

उच्च जोखिम वाले एआई उपयोग-मामलों के उदाहरण जो उपयोग पर उच्चतम स्तर के विनियमन के अधीन होंगे, विनियमन के अनुबंध 3 में दिए गए हैं - जिसके बारे में आयोग ने कहा कि उसके पास उपयोग-मामलों के रूप में प्रतिनिधि कृत्यों द्वारा विस्तार करने की शक्ति होगी। एआई का विकास जारी है और जोखिम भी विकसित हो रहे हैं।

अभी उद्धृत उच्च जोखिम वाले उदाहरण निम्नलिखित श्रेणियों में आते हैं: प्राकृतिक व्यक्तियों की बायोमेट्रिक पहचान और वर्गीकरण; महत्वपूर्ण बुनियादी ढांचे का प्रबंधन और संचालन; शिक्षा और व्यावसायिक प्रशिक्षण; रोज़गार, श्रमिक प्रबंधन और स्व-रोज़गार तक पहुंच; आवश्यक निजी सेवाओं और सार्वजनिक सेवाओं और लाभों तक पहुंच और उनका आनंद; कानून प्रवर्तन; प्रवासन, शरण और सीमा नियंत्रण प्रबंधन; न्याय प्रशासन और लोकतांत्रिक प्रक्रियाएँ।

एआई के सैन्य उपयोग को विशेष रूप से दायरे से बाहर रखा गया है क्योंकि विनियमन ब्लॉक के आंतरिक बाजार पर केंद्रित है।

उच्च जोखिम वाले अनुप्रयोगों के निर्माताओं को अपने उत्पाद को बाजार में लाने से पहले अनुपालन करने के लिए पूर्व-निर्धारित दायित्वों का एक सेट होगा, जिसमें उनके एआई को प्रशिक्षित करने के लिए उपयोग किए जाने वाले डेटा-सेट की गुणवत्ता और न केवल डिजाइन बल्कि उपयोग पर मानवीय निरीक्षण का स्तर भी शामिल है। सिस्टम की - साथ ही बाजार के बाद की निगरानी के रूप में चल रही, पूर्व-पोस्ट आवश्यकताएँ।

अन्य आवश्यकताओं में अनुपालन जांच को सक्षम करने और उपयोगकर्ताओं को प्रासंगिक जानकारी प्रदान करने के लिए एआई प्रणाली के रिकॉर्ड बनाने की आवश्यकता शामिल है। एआई प्रणाली की मजबूती, सटीकता और सुरक्षा भी विनियमन के अधीन होगी।

आयोग के अधिकारियों ने सुझाव दिया कि एआई के अधिकांश अनुप्रयोग इस उच्च विनियमित श्रेणी से बाहर होंगे। उन 'कम जोखिम' वाले एआई सिस्टम के निर्माताओं को केवल उपयोग पर आचार संहिता (गैर-कानूनी रूप से बाध्यकारी) अपनाने के लिए प्रोत्साहित किया जाएगा।

विशिष्ट एआई उपयोग-मामले प्रतिबंधों पर नियमों का उल्लंघन करने पर जुर्माना वैश्विक वार्षिक कारोबार का 6% या €30M (जो भी अधिक हो) निर्धारित किया गया है। जबकि उच्च जोखिम वाले अनुप्रयोगों से संबंधित नियमों का उल्लंघन 4% (या €20M) तक हो सकता है।

प्रवर्तन में प्रत्येक यूरोपीय संघ के सदस्य राज्य में कई एजेंसियां ​​शामिल होंगी - प्रस्ताव में मौजूदा (प्रासंगिक) एजेंसियों, जैसे उत्पाद सुरक्षा निकायों और डेटा सुरक्षा एजेंसियों द्वारा निगरानी करने का इरादा है।

यह राष्ट्रीय निकायों के पर्याप्त संसाधनों पर तत्काल सवाल उठाता है, अतिरिक्त कार्य और तकनीकी जटिलता को देखते हुए उन्हें एआई नियमों को नियंत्रित करने में सामना करना पड़ेगा; और यह भी कि कुछ सदस्य राज्यों में प्रवर्तन बाधाओं से कैसे बचा जाएगा। (विशेष रूप से, यूरोपीय संघ के सामान्य डेटा संरक्षण विनियमन की देखरेख सदस्य राज्य स्तर पर भी की जाती है और यह समान रूप से सशक्त प्रवर्तन की कमी से ग्रस्त है।)

ब्लॉक में लागू उच्च जोखिम प्रणालियों का एक रजिस्टर बनाने के लिए एक ईयू-व्यापी डेटाबेस भी स्थापित किया जाएगा (जिसे आयोग द्वारा प्रबंधित किया जाएगा)।

विनियमन के सुसंगत अनुप्रयोग का समर्थन करने के लिए यूरोपीय आर्टिफिशियल इंटेलिजेंस बोर्ड (ईएआईबी) नामक एक नई संस्था भी स्थापित की जाएगी - यूरोपीय डेटा संरक्षण बोर्ड के दर्पण में जो जीडीपीआर लागू करने के लिए मार्गदर्शन प्रदान करता है।

एआई के कुछ उपयोगों पर नियमों के अनुरूप, योजना में एआई विकास के लिए यूरोपीय संघ के सदस्य राज्य के समर्थन को समन्वित करने के उपाय शामिल हैं - जैसे कि स्टार्टअप और एसएमई को एआई-ईंधन वाले नवाचारों को विकसित करने और परीक्षण करने में मदद करने के लिए नियामक सैंडबॉक्स स्थापित करना - और की संभावना के माध्यम से एआई डेवलपर्स का समर्थन करने के लिए लक्षित ईयू फंडिंग।

आंतरिक बाज़ार आयुक्त थिएरी ब्रेटन ने कहा कि निवेश योजना का एक महत्वपूर्ण हिस्सा है।

“हमारे डिजिटल यूरोप और होराइजन यूरोप कार्यक्रम के तहत हम प्रति वर्ष एक अरब यूरो मुक्त करने जा रहे हैं। और इसके शीर्ष पर, हम आने वाले दशक में प्रति वर्ष €20BN का निजी निवेश और सामूहिक EU-व्यापी निवेश उत्पन्न करना चाहते हैं - 'डिजिटल दशक' जैसा कि हमने इसे कहा है,'' उन्होंने कहा। "हम €140बीएन भी चाहते हैं जो नेक्स्ट जेनरेशन ईयू [कोविड-19 रिकवरी फंड] के तहत डिजिटल निवेश को वित्तपोषित करेगा - और आंशिक रूप से एआई में जाएगा।"

एआई के लिए नियमों को आकार देना यूरोपीय संघ के अध्यक्ष उर्सुला वॉन डेर लेयेन के लिए एक प्रमुख प्राथमिकता रही है, जिन्होंने 2019 के अंत में अपना पद संभाला था। एक श्वेत पत्र प्रकाशित किया गया था पिछले साल, निम्नलिखित एक ईयू रणनीति के लिए 2018 एआई - और वेस्टेगर ने कहा कि आज का प्रस्ताव तीन साल के काम की परिणति है।

ब्रेटन ने कहा कि व्यवसायों को एआई लागू करने के लिए मार्गदर्शन प्रदान करने से उन्हें कानूनी निश्चितता मिलेगी और यूरोप को बढ़त मिलेगी। उन्होंने कहा, "विश्वास... हमें लगता है कि कृत्रिम बुद्धिमत्ता के जिस विकास को हम चाहते हैं, उसे संभव बनाने के लिए यह अत्यंत महत्वपूर्ण है।" [एआई के अनुप्रयोग] को भरोसेमंद, सुरक्षित, गैर-भेदभावपूर्ण होना चाहिए - यह बिल्कुल महत्वपूर्ण है - लेकिन निश्चित रूप से हमें यह समझने में भी सक्षम होना चाहिए कि ये एप्लिकेशन वास्तव में कैसे काम करेंगे।"

“हमें मार्गदर्शन की आवश्यकता है। विशेष रूप से एक नई तकनीक में... हम हैं, हम होंगे, पहला महाद्वीप जहां हम दिशानिर्देश देंगे - हम कहेंगे 'अरे, यह हरा है, यह गहरा हरा है, यह शायद थोड़ा नारंगी है और यह निषिद्ध है' . तो अब यदि आप कृत्रिम बुद्धिमत्ता अनुप्रयोगों का उपयोग करना चाहते हैं, तो यूरोप जाएँ! आपको पता होगा कि क्या करना है, आपको पता होगा कि इसे कैसे करना है, आपके पास ऐसे साझेदार होंगे जो बहुत अच्छी तरह से समझते हैं और, वैसे, आप उस महाद्वीप में भी आएंगे जहां आपके पास ग्रह पर निर्मित औद्योगिक डेटा की सबसे बड़ी मात्रा होगी अगले दस वर्षों के लिए.

“तो यहां आएं - क्योंकि कृत्रिम बुद्धिमत्ता डेटा के बारे में है - हम आपको दिशानिर्देश देंगे। हमारे पास इसे करने के लिए उपकरण और बुनियादी ढांचा भी होगा।”

आज के प्रस्ताव का एक संस्करण पिछले हफ्ते लीक हुआ - के लिए अग्रणी एमईपी द्वारा योजना को मजबूत बनाने का आह्वानइस तरह के रूप में, सार्वजनिक स्थानों पर दूरस्थ बायोमेट्रिक निगरानी पर प्रतिबंध लगाकर।

ऐसी स्थिति में अंतिम प्रस्ताव दूरस्थ बायोमेट्रिक निगरानी को एआई के विशेष रूप से उच्च जोखिम वाले अनुप्रयोग के रूप में मानता है - और कानून प्रवर्तन द्वारा सार्वजनिक रूप से प्रौद्योगिकी के उपयोग पर सिद्धांत रूप से प्रतिबंध है।

हालाँकि उपयोग पूरी तरह से प्रतिबंधित नहीं है, कई अपवादों के साथ जहां कानून प्रवर्तन अभी भी इसका उपयोग करने में सक्षम होगा, वैध कानूनी आधार और उचित निरीक्षण के अधीन।

सुरक्षा को बहुत कमजोर मानकर हमला किया गया

आयोग के प्रस्ताव पर प्रतिक्रियाओं में कानून प्रवर्तन के लिए अत्यधिक व्यापक छूट की आलोचना के साथ-साथ यह चिंता भी शामिल थी कि भेदभाव करने वाले एआई सिस्टम के जोखिम को दूर करने के उपाय पर्याप्त नहीं हैं।

आपराधिक न्याय एनजीओ, फेयर ट्रायल्स ने कहा कि यदि विनियमन में आपराधिक न्याय के संबंध में सार्थक सुरक्षा उपाय शामिल करने हैं तो आमूल-चूल सुधार की आवश्यकता है। एक बयान में टिप्पणी करते हुए, एनजीओ के कानूनी और नीति अधिकारी ग्रिफ फेरिस ने कहा: "यूरोपीय संघ के प्रस्तावों में आपराधिक न्याय परिणामों में भेदभाव की कठोरता को रोकने, निर्दोषता की धारणा की रक्षा करने और यह सुनिश्चित करने के लिए आमूल-चूल परिवर्तन की आवश्यकता है आपराधिक न्याय में एआई के लिए सार्थक जवाबदेही। 

“कानून में भेदभाव के खिलाफ किसी भी सुरक्षा उपाय का अभाव है, जबकि 'सार्वजनिक सुरक्षा की सुरक्षा' के लिए व्यापक छूट आपराधिक न्याय के संबंध में जो कुछ छोटे सुरक्षा उपाय हैं, उन्हें पूरी तरह से कम कर देती है। रूपरेखा में शामिल होना चाहिए भेदभाव को रोकने और निष्पक्ष सुनवाई के अधिकार की रक्षा के लिए कठोर सुरक्षा उपाय और प्रतिबंध। इसमें उन प्रणालियों के उपयोग को प्रतिबंधित करना शामिल होना चाहिए जो लोगों की प्रोफ़ाइल बनाने और आपराधिकता के जोखिम की भविष्यवाणी करने का प्रयास करते हैं। 

यूरोप के लिए सिविल लिबर्टीज यूनियन (लिबर्टीज) ने भी उन खामियों पर प्रहार किया, जिनके बारे में एनजीओ ने कहा था कि इससे यूरोपीय संघ के सदस्य देशों को एआई के समस्याग्रस्त उपयोग पर प्रतिबंध लगाने में मदद मिलेगी।

"प्रौद्योगिकी के बहुत सारे समस्याग्रस्त उपयोग हैं जिनकी अनुमति है, जैसे कि अपराध का पूर्वानुमान लगाने के लिए एल्गोरिदम का उपयोग करना या कंप्यूटर द्वारा सीमा नियंत्रण पर लोगों की भावनात्मक स्थिति का आकलन करना, ये दोनों गंभीर मानवाधिकार जोखिम पैदा करते हैं और खतरा पैदा करते हैं यूरोपीय संघ के मूल्यों के प्रति, वरिष्ठ वकालत अधिकारी ओरसोल्या रीच ने एक बयान में चेतावनी दी। "हमें इस बात की भी चिंता है कि पुलिस चेहरे की पहचान तकनीक का इस्तेमाल ऐसे तरीकों से कर सकती है जो हमारे मौलिक अधिकारों और स्वतंत्रता को खतरे में डाल सकती है।"

जर्मन पाइरेट एमईपी, पैट्रिक ब्रेयर ने भी चेतावनी दी कि यह प्रस्ताव 'यूरोपीय मूल्यों' के सम्मान के दावे के स्तर को पूरा करने में विफल है। एमईपी उन 40 में से एक था जिन्होंने आयोग को एक पत्र पर हस्ताक्षर किए थे पहले सप्ताह से आखरी सप्ताह तब चेतावनी दी गई थी कि प्रस्ताव का लीक हुआ संस्करण मौलिक अधिकारों की रक्षा के लिए पर्याप्त नहीं है।

“हमें यूरोपीय संघ को नैतिक आवश्यकताओं और लोकतांत्रिक मूल्यों के अनुरूप कृत्रिम बुद्धिमत्ता लाने देने के अवसर का लाभ उठाना चाहिए। दुर्भाग्य से, आयोग का प्रस्ताव हमें लैंगिक न्याय और सभी समूहों के साथ समान व्यवहार जैसे कि चेहरे की पहचान प्रणाली या अन्य प्रकार की सामूहिक निगरानी के खतरों से बचाने में विफल रहता है, ”ब्रेयर ने आज औपचारिक प्रस्ताव पर प्रतिक्रिया व्यक्त करते हुए एक बयान में कहा।

“हमारे सार्वजनिक स्थानों पर बायोमेट्रिक और बड़े पैमाने पर निगरानी, ​​​​प्रोफाइलिंग और व्यवहार संबंधी भविष्यवाणी तकनीक हमारी स्वतंत्रता को कमजोर करती है और हमारे खुले समाजों को खतरे में डालती है। यूरोपीय आयोग का प्रस्ताव हमारे अधिकांश लोगों की इच्छा के विपरीत, पूरे यूरोपीय संघ में सार्वजनिक स्थानों पर स्वचालित चेहरे की पहचान के उच्च जोखिम वाले उपयोग को लाएगा। प्रस्तावित प्रक्रियात्मक आवश्यकताएँ महज दिखावा मात्र हैं। हम इन तकनीकों द्वारा लोगों के कुछ समूहों के साथ भेदभाव और अनगिनत व्यक्तियों पर गलत आरोप लगाने की अनुमति नहीं दे सकते।

उपभोक्ता अधिकार समूह, बीईयूसी, भी तेजी से आलोचनात्मक था - उपभोक्ता संरक्षण पर आयोग के प्रस्ताव को कमजोर बताते हुए हमला किया क्योंकि यह "एआई उपयोग और मुद्दों की एक बहुत ही सीमित सीमा" को विनियमित करने पर केंद्रित है।

बीयूसी के महानिदेशक मोनिक गोयन्स ने एक बयान में कहा, "यूरोपीय आयोग को उपभोक्ताओं को अपने दैनिक जीवन में एआई पर भरोसा करने में मदद करने पर अधिक ध्यान केंद्रित करना चाहिए।" लोगों को कृत्रिम बुद्धिमत्ता द्वारा संचालित किसी भी उत्पाद या सेवा पर भरोसा करने में सक्षम होना चाहिए। 'उच्च जोखिम', 'मध्यम जोखिम' या 'कम जोखिम'। यूरोपीय संघ को यह सुनिश्चित करने के लिए और अधिक प्रयास करना चाहिए कि उपभोक्ताओं के पास प्रवर्तनीय अधिकार हों, साथ ही कुछ गलत होने पर निवारण और उपचार तक पहुंच हो।

टेक उद्योग समूह डॉट यूरोप (पूर्व में एडिमा) - जिसके सदस्यों में एयरबीएनबी, ऐप्पल, फेसबुक, गूगल, माइक्रोसॉफ्ट और अन्य प्लेटफ़ॉर्म दिग्गज शामिल हैं - ने प्रस्ताव जारी होने का स्वागत किया, लेकिन लेखन के समय अभी तक विस्तृत टिप्पणी नहीं दी थी, यह कहते हुए कि यह तैयार हो रहा था इसकी स्थिति.

अन्य तकनीकी लॉबी समूहों ने एआई को लालफीताशाही में लपेटने की संभावना पर हमले के लिए इंतजार नहीं किया - यह दावा करते हुए कि विनियमन "यूरोपीय संघ के नवजात एआई उद्योग को चलना सीखने से पहले ही खत्म कर देगा" वाशिंगटन और ब्रुसेल्स-आधारित तकनीकी नीति के रूप में थिंकटैंक (सेंटर फॉर डेटा इनोवेशन) ने इसे रखा।

सीसीआईए ट्रेड एसोसिएशन ने भी तुरंत "डेवलपर्स और उपयोगकर्ताओं के लिए अनावश्यक लालफीताशाही" के खिलाफ चेतावनी दी विनियमन अकेले ईयू को नेता नहीं बनाया जा सकता AI.

आज का प्रस्ताव यूरोपीय संघ की सह-विधायी प्रक्रिया के तहत काफी बहस की शुरुआत करता है, यूरोपीय संसद और यूरोपीय संघ परिषद के माध्यम से सदस्य राज्यों को मसौदे पर अपनी राय देने की आवश्यकता है - जिसका अर्थ है कि यूरोपीय संघ संस्थानों के समझौते पर पहुंचने से पहले बहुत कुछ बदल सकता है। पैन-ईयू एआई विनियमन का अंतिम आकार।

आयुक्तों ने आज कानून कब अपनाया जा सकता है, इसके लिए कोई समय-सीमा देने से इनकार कर दिया, उन्होंने केवल इतना कहा कि उन्हें उम्मीद है कि अन्य यूरोपीय संघ संस्थान तुरंत इसमें शामिल होंगे और यह प्रक्रिया जल्द से जल्द पूरी की जा सकती है। फिर भी, विनियमन को मंजूरी मिलने और लागू होने में कई साल लग सकते हैं।

इस रिपोर्ट को आयोग के प्रस्ताव पर प्रतिक्रियाओं के साथ अद्यतन किया गया था

स्रोत: https://techcrunch.com/2021/04/21/europe-lays-out-plan-for-risk-आधारित-ai-rules-to-boost-trust-and-uptake/

समय टिकट:

से अधिक Techcrunch