اروپا برای تقویت اعتماد و جذب ، برنامه ای را برای قوانین AI مبتنی بر ریسک تنظیم می کند

گره منبع: 822535

قانون گذاران اتحادیه اروپا موارد خود را ارائه داده اند پیشنهاد مبتنی بر ریسک برای تنظیم برنامه های پر خطر هوش مصنوعی در بازار واحد بلوک.

این طرح شامل ممنوعیت هایی برای تعداد کمی از موارد استفاده است که برای ایمنی افراد یا حقوق اساسی شهروندان اتحادیه اروپا بسیار خطرناک تلقی می شوند، مانند سیستم امتیازدهی اعتبار اجتماعی به سبک چین یا انواع خاصی از نظارت انبوه مبتنی بر هوش مصنوعی.

اکثر استفاده‌های هوش مصنوعی تحت این پیشنهاد با هیچ مقرراتی (چه رسد به ممنوعیت) مواجه نخواهند شد، اما زیرمجموعه‌ای از استفاده‌های به اصطلاح «خطر بالا» مشمول الزامات قانونی خاص، هم پیش از (قبل) و هم پس از آن (بعد) خواهند بود. ) راه اندازی به بازار.

همچنین الزامات شفافیتی برای موارد استفاده خاص از هوش مصنوعی وجود دارد - مانند چت بات ها و دیپ فیک ها - که در آن قانونگذاران اتحادیه اروپا معتقدند که خطرات احتمالی را می توان با اطلاع دادن به کاربران که در حال تعامل با چیزی مصنوعی هستند، کاهش داد.

قانون برنامه‌ریزی‌شده برای هر شرکتی که محصول یا خدمات هوش مصنوعی را به اتحادیه اروپا می‌فروشد، اعمال می‌شود، نه فقط برای شرکت‌ها و افراد مستقر در اتحادیه اروپا - بنابراین، مانند رژیم حفاظت از داده‌های اتحادیه اروپا، دامنه آن فراسرزمینی خواهد بود.

هدف اصلی قانونگذاران اتحادیه اروپا تقویت اعتماد عمومی به نحوه پیاده سازی هوش مصنوعی برای کمک به افزایش جذب این فناوری است. مقامات ارشد کمیسیون در مورد تمایل به ایجاد یک "اکوسیستم برتر" که با ارزش های اروپایی همسو باشد صحبت می کنند.

مارگرت وستاگر، کمیسیون EVP، با اعلام پذیرش این پیشنهاد در یک کنفرانس مطبوعاتی، گفت: "امروز، ما قصد داریم اروپا را در توسعه یک هوش مصنوعی ایمن، قابل اعتماد و انسان محور و استفاده از آن در سطح جهانی قرار دهیم."

"از یک طرف ، مقررات ما خطرات انسانی و اجتماعی مرتبط با کاربردهای خاص هوش مصنوعی را برطرف می کند. این برای ایجاد اعتماد است. از طرف دیگر ، برنامه هماهنگ ما گام های لازم را که کشورهای عضو برای تقویت سرمایه گذاری و نوآوری باید بردارند ، مشخص می کند. برای تضمین تعالی. همه اینها برای اطمینان از تقویت جذب هوش مصنوعی در سراسر اروپا است. "

براساس این پیشنهاد ، الزامات اجباری به یک دسته "با ریسک بالا" از برنامه های کاربردی هوش مصنوعی پیوست می شوند - به معنی مواردی که خطر ایمنی مشخصی را تهدید می کند یا تهدید به آن می شود حقوق اساسی اتحادیه اروپا (مانند حق عدم تبعیض).

نمونه‌هایی از موارد استفاده از هوش مصنوعی با ریسک بالا که مشمول بالاترین سطح مقررات در مورد استفاده می‌شوند، در پیوست 3 آیین‌نامه آمده است - که کمیسیون گفت که این اختیار را خواهد داشت که با اعمال تفویض اختیار، به عنوان موارد استفاده، آن را گسترش دهد. هوش مصنوعی به توسعه خود ادامه می دهد و خطرات نیز در حال تکامل هستند.

در حال حاضر مثالهای پرخطر ذکر شده در دسته های زیر قرار می گیرند: شناسایی و طبقه بندی بیومتریک اشخاص حقیقی. مدیریت و بهره برداری از زیرساخت های حیاتی آموزش و حرفه آموزی اشتغال ، مدیریت کارگران و دسترسی به مشاغل آزاد. دسترسی و بهره مندی از خدمات ضروری خصوصی و خدمات و مزایای عمومی ؛ اجرای قانون؛ مهاجرت ، پناهندگی و مدیریت کنترل مرز ؛ اجرای عدالت و فرایندهای دموکراتیک.

استفاده از نظامی هوش مصنوعی به طور خاص از حوزه خارج می شود زیرا مقررات مربوط به بازار داخلی اتحادیه است.

سازندگان برنامه های پر خطر مجموعه ای از تعهدات قبلی را باید قبل از عرضه محصول خود به بازار رعایت کنند ، از جمله کیفیت مجموعه داده های مورد استفاده برای آموزش هوش مصنوعی خود و سطح نظارت انسانی نه تنها بر طراحی ، بلکه استفاده سیستم - و همچنین الزامات مداوم ، پس از پست ، به صورت نظارت پس از بازار.

سایر نیازها عبارتند از نیاز به ایجاد سوابق سیستم AI برای امکان کنترل انطباق و همچنین ارائه اطلاعات مربوط به کاربران. استحکام ، دقت و امنیت سیستم AI نیز منوط به تنظیم خواهد بود.

مقامات کمیسیون اظهار داشتند که اکثر قریب به اتفاق برنامه های کاربردی هوش مصنوعی خارج از این گروه بسیار منظم است. سازندگان این سیستم های AI "کم خطر" صرفاً تشویق می شوند که کدهای رفتاری (غیرقانونی) را در مورد استفاده اتخاذ کنند.

مجازات های نقض قوانین مربوط به ممنوعیت های خاص استفاده از هوش مصنوعی حداکثر تا 6٪ گردش مالی سالانه جهانی یا 30 میلیون یورو (هر کدام که بیشتر باشد) تعیین شده است. در حالی که نقض قوانین مربوط به کاربردهای پر خطر می تواند تا 4٪ (یا 20 میلیون یورو) باشد.

اجرا شامل چندین آژانس در هر کشور عضو اتحادیه اروپا خواهد بود - با پیشنهادی که نظارت بر آن توسط آژانس های موجود (مربوط) مانند ارگان های ایمنی محصول و آژانس های محافظت از داده انجام می شود.

با توجه به کار اضافی و پیچیدگی فنی که آنها در نظارت بر قوانین هوش مصنوعی با آن مواجه خواهند شد، این سؤالات فوری را در مورد منابع کافی برای نهادهای ملی ایجاد می کند. و همچنین چگونگی جلوگیری از تنگناهای اجرایی در برخی از کشورهای عضو. (به ویژه، مقررات عمومی حفاظت از داده های اتحادیه اروپا نیز در سطح کشورهای عضو نظارت می شود و از عدم اجرای یکنواخت شدید رنج می برد.)

همچنین یک پایگاه داده در سطح اتحادیه اروپا برای ایجاد یک ثبت نام از سیستم های با خطر بالا که در اتحادیه اجرا می شود (که توسط کمیسیون مدیریت می شود) ایجاد می شود.

یک هیئت جدید ، به نام شورای هوش مصنوعی اروپا (EAIB) ، نیز برای پشتیبانی از یک کار ثابت از مقررات - در آینه ای برای هیئت محافظت از داده های اروپا که راهنمایی برای استفاده از GDPR ارائه می دهد ، تشکیل می شود.

در راستای قوانین استفاده از هوش مصنوعی، این طرح شامل اقداماتی برای هماهنگ کردن حمایت کشورهای عضو اتحادیه اروپا برای توسعه هوش مصنوعی است - مانند ایجاد جعبه‌های ایمنی نظارتی برای کمک به استارت‌آپ‌ها و SMEها در توسعه و آزمایش نوآوری‌های مبتنی بر هوش مصنوعی - و از طریق چشم انداز هدفمندی بودجه اتحادیه اروپا برای حمایت از توسعه دهندگان هوش مصنوعی.

کمیسر بازار داخلی تیری برتون گفت که سرمایه گذاری بخش مهمی از این طرح است.

تحت برنامه اروپای دیجیتال و Horizon Europe ما سالانه یک میلیارد یورو آزاد خواهیم کرد. و علاوه بر آن، ما می‌خواهیم سرمایه‌گذاری خصوصی و سرمایه‌گذاری جمعی در سراسر اتحادیه اروپا به میزان 20 میلیارد یورو در سال در دهه آینده ایجاد کنیم - همانطور که ما آن را «دهه دیجیتال» نامیده‌ایم.» ما همچنین می‌خواهیم 140 میلیارد یورو داشته باشیم که سرمایه‌گذاری‌های دیجیتالی را تحت نسل بعدی اتحادیه اروپا [صندوق بازیابی کووید-19] تأمین مالی می‌کند – و بخشی از آن به هوش مصنوعی می‌رود.»

شکل دادن به قوانین برای هوش مصنوعی یک اولویت کلیدی برای اورسولا فون در لاین رئیس اتحادیه اروپا بوده است که در پایان سال 2019 سمت خود را آغاز کرد. مقاله سفید منتشر شد. پارسال، به دنبال یک هوش مصنوعی 2018 برای استراتژی اتحادیه اروپا - و وستاگر گفت كه پیشنهاد امروز اوج كار سه ساله است.

برتون افزود که ارائه راهنمایی برای کسب و کارها برای استفاده از هوش مصنوعی به آنها اطمینان حقوقی و اروپا برتری می دهد. او گفت: "اعتماد... ما فکر می کنیم برای اجازه دادن به توسعه هوش مصنوعی که می خواهیم بسیار مهم است." [کاربردهای هوش مصنوعی] باید قابل اعتماد، ایمن و بدون تبعیض باشند – که کاملاً حیاتی است – اما البته ما همچنین باید بتوانیم بفهمیم این برنامه‌ها دقیقا چگونه کار می‌کنند.

«آنچه ما نیاز داریم این است که راهنمایی داشته باشیم. به خصوص در یک فناوری جدید... ما هستیم، خواهیم بود، اولین قاره ای که دستورالعمل هایی را در آن ارائه خواهیم کرد - می گوییم "هی، این سبز است، این سبز تیره است، این شاید کمی نارنجی باشد و این ممنوع است". . پس حالا اگر می خواهید از اپلیکیشن های هوش مصنوعی استفاده کنید، به اروپا بروید! شما می دانید چه کاری باید انجام دهید، می دانید چگونه آن را انجام دهید، شرکای خواهید داشت که به خوبی درک می کنند و اتفاقاً به قاره ای خواهید رسید که در آن بیشترین حجم داده های صنعتی ایجاد شده در این سیاره را خواهید داشت. برای ده سال آینده

بنابراین به اینجا بیایید - زیرا هوش مصنوعی در مورد داده است - ما دستورالعمل ها را به شما ارائه خواهیم داد. ما همچنین ابزار و زیرساخت های لازم برای انجام آن را خواهیم داشت.»

نسخه ای از پیشنهاد امروز هفته گذشته لو رفت - منجر به تماس های نماینده های مجلس برای تقویت طرح، از جمله با ممنوعیت نظارت بیومتریک از راه دور در مکان های عمومی.

در صورت پیشنهاد نهایی ، نظارت بیومتریک از راه دور به عنوان یک کاربرد بسیار خطرناک از هوش مصنوعی در نظر گرفته می شود - و اصولاً استفاده از این فناوری در مجامع قانونی توسط قانون ممنوع است.

با این حال ، استفاده از این موارد کاملاً منع نشده است ، به استثنای مواردی که مجری قانون هنوز هم می تواند از آن استفاده کند ، منوط به داشتن قانونی قانونی معتبر و نظارت مناسب.

حفاظت به عنوان بسیار ضعیف مورد حمله قرار گرفت

واکنش‌ها به پیشنهاد کمیسیون شامل انتقاد از معافیت‌های بسیار گسترده برای مجریان قانون و همچنین نگرانی از این بود که اقدامات برای مقابله با خطر تبعیض‌آمیز بودن سیستم‌های هوش مصنوعی به اندازه کافی پیش نمی‌رود.

دادرسی عادلانه، سازمان غیردولتی عدالت کیفری، گفت که اگر قرار است مقررات تضمینی در رابطه با عدالت کیفری داشته باشد، به بهبودهای اساسی نیاز است. اظهار نظر در بیانیه ای، گریف فریس، مسئول حقوقی و سیاستگذاری سازمان غیردولتی گفت:پیشنهادات اتحادیه اروپا به تغییرات اساسی نیاز دارد تا از تبعیض سخت در نتایج عدالت کیفری جلوگیری شود، از فرض بی گناهی محافظت شود و تضمین شود. پاسخگویی معنادار برای هوش مصنوعی در عدالت کیفری 

«این قانون فاقد هرگونه ضمانت‌هایی در برابر تبعیض است، در حالی که معافیت‌های گسترده برای «حفاظت از امنیت عمومی» به طور کامل تضمین‌های ناچیز در رابطه با عدالت کیفری را تضعیف می‌کند. چارچوب باید شامل شود تدابیر و محدودیت های سختگیرانه برای جلوگیری از تبعیض و حمایت از حق محاکمه عادلانه. این باید شامل محدود کردن استفاده از سیستم‌هایی باشد که سعی در نمایاندن افراد و پیش‌بینی خطر جنایت دارند.» 

اتحادیه آزادی‌های مدنی برای اروپا (آزادی‌ها) همچنین به حفره‌هایی که سازمان غیردولتی گفته است به کشورهای عضو اتحادیه اروپا اجازه می‌دهد تا ممنوعیت‌های استفاده مشکل‌ساز از هوش مصنوعی را دور بزنند، برخورد کرد.

استفاده‌های مشکل‌ساز زیادی از فناوری مجاز وجود دارد، مانند استفاده از الگوریتم‌ها برای پیش‌بینی جرم یا ارزیابی رایانه‌ها از وضعیت عاطفی افراد در کنترل مرز، که هر دو خطرات جدی حقوق بشر را به همراه دارند و تهدیدی را به همراه دارند. اورسلیا رایش، افسر ارشد وکالت در بیانیه ای هشدار داد به ارزش های اتحادیه اروپا. ما همچنین نگران این هستیم که پلیس بتواند از فناوری تشخیص چهره به گونه‌ای استفاده کند که حقوق و آزادی‌های اساسی ما را به خطر بیندازد.»

پاتریک بریر، نماینده دزدان دریایی آلمان در پارلمان اروپا، همچنین هشدار داد که این پیشنهاد مطابق با معیار ادعایی احترام به "ارزش های اروپایی" نیست. نماینده پارلمان اروپا یکی از 40 نفری بود که نامه ای را به کمیسیون امضا کرد هفته گذشته سپس هشدار داد که نسخه فاش شده این پیشنهاد به اندازه کافی در حمایت از حقوق اساسی پیش نمی رود.

ما باید از فرصت استفاده کنیم و به اتحادیه اروپا اجازه دهیم هوش مصنوعی را با الزامات اخلاقی و ارزش‌های دموکراتیک هماهنگ کند. بریر در بیانیه‌ای در واکنش به پیشنهاد رسمی امروز گفت: متأسفانه، پیشنهاد کمیسیون نمی‌تواند از ما در برابر خطرات عدالت جنسیتی و رفتار برابر با همه گروه‌ها، مانند سیستم‌های تشخیص چهره یا سایر انواع نظارت جمعی محافظت کند.

فناوری نظارت بیومتریک و انبوه، نمایه سازی و پیش بینی رفتار در فضاهای عمومی ما آزادی ما را تضعیف می کند و جوامع باز ما را تهدید می کند. پیشنهاد کمیسیون اروپا برخلاف میل اکثریت مردم ما، استفاده پرخطر از تشخیص خودکار چهره در فضاهای عمومی را برای کل اتحادیه اروپا به ارمغان خواهد آورد. الزامات رویه ای پیشنهادی صرفاً یک پرده دود است. ما نمی‌توانیم اجازه تبعیض گروه‌های خاصی از مردم و متهم کردن کاذب افراد بی‌شماری توسط این فناوری‌ها را بدهیم.»

گروه چتر حقوق مصرف کننده، BEUC، نیز به سرعت انتقاد کرد - پیشنهاد کمیسیون را به عنوان ضعیف در حمایت از مصرف کننده مورد حمله قرار داد، زیرا بر تنظیم "محدوده بسیار محدودی از استفاده ها و مسائل هوش مصنوعی" تمرکز دارد.

Monique Goyens، مدیر کل Beuc، در بیانیه‌ای گفت: کمیسیون اروپا باید تمرکز بیشتری روی کمک به مصرف‌کنندگان در زندگی روزمره خود به هوش مصنوعی بگذارد: «مردم باید بتوانند به هر محصول یا خدماتی که از هوش مصنوعی پشتیبانی می‌کند اعتماد کنند. «پرخطر»، «متوسط ​​خطر» یا «کم خطر». اتحادیه اروپا باید بیشتر تلاش کند تا اطمینان حاصل شود که مصرف کنندگان از حقوق قابل اجرا برخوردار هستند و همچنین در صورت بروز مشکل، به جبران خسارت و راه حل های جبران خسارت دسترسی دارند.

گروه صنعت فناوری Dot Europe (Edima سابق) - که اعضای آن شامل Airbnb، اپل، فیس بوک، گوگل، مایکروسافت و دیگر غول های پلتفرم هستند - از انتشار این پیشنهاد استقبال کردند، اما هنوز اظهارات مفصلی در زمان نگارش ارائه نکرده بودند و گفتند که در حال تدوین است. موقعیت آن

دیگر گروه‌های لابی فناوری منتظر حمله به چشم‌انداز تشدید تشریفات هوش مصنوعی نبودند - ادعا می‌کردند که این مقررات «صنعت نوپای هوش مصنوعی اتحادیه اروپا را قبل از اینکه بتواند راه رفتن را بیاموزد» به عنوان یک سیاست فناوری مبتنی بر واشنگتن و بروکسل «زانو می‌زند» thinktank (مرکز نوآوری داده ها) آن را بیان کرده است.

انجمن تجاری CCIA همچنین به سرعت نسبت به "بوروکراسی غیر ضروری برای توسعه دهندگان و کاربران" هشدار داد و افزود که تنظیم به تنهایی اتحادیه اروپا را به یک رهبر تبدیل نمی کند AI.

پیشنهاد امروز آغازگر بحث‌های فراوان تحت فرآیند قانون‌گذاری مشترک اتحادیه اروپا است، به طوری که پارلمان اروپا و کشورهای عضو از طریق شورای اتحادیه اروپا باید نظر خود را در مورد این پیش‌نویس بیان کنند - به این معنی که قبل از اینکه نهادهای اتحادیه اروپا به توافق برسند ممکن است چیزهای زیادی تغییر کند. شکل نهایی یک مقررات هوش مصنوعی در سراسر اتحادیه اروپا

کمیسیونرها از ارائه چارچوب زمانی برای زمان تصویب قوانین امروز خودداری کردند و تنها گفتند که امیدوارند سایر نهادهای اتحادیه اروپا فوراً وارد عمل شوند و این روند می تواند در اسرع وقت انجام شود. با این حال، ممکن است چندین سال قبل از تصویب و اجرایی شدن این مقررات بگذرد.

این گزارش با واکنش به پیشنهاد کمیسیون به روز شد

منبع: https://techcrunch.com/2021/04/21/europe-lays-out-plan-for-risk-based-ai-rules-to-boost-trust-and-uptake/

تمبر زمان:

بیشتر از تک کرانچ