قانون گذاران اتحادیه اروپا موارد خود را ارائه داده اند پیشنهاد مبتنی بر ریسک برای تنظیم برنامه های پر خطر هوش مصنوعی در بازار واحد بلوک.
این طرح شامل ممنوعیت هایی برای تعداد کمی از موارد استفاده است که برای ایمنی افراد یا حقوق اساسی شهروندان اتحادیه اروپا بسیار خطرناک تلقی می شوند، مانند سیستم امتیازدهی اعتبار اجتماعی به سبک چین یا انواع خاصی از نظارت انبوه مبتنی بر هوش مصنوعی.
اکثر استفادههای هوش مصنوعی تحت این پیشنهاد با هیچ مقرراتی (چه رسد به ممنوعیت) مواجه نخواهند شد، اما زیرمجموعهای از استفادههای به اصطلاح «خطر بالا» مشمول الزامات قانونی خاص، هم پیش از (قبل) و هم پس از آن (بعد) خواهند بود. ) راه اندازی به بازار.
همچنین الزامات شفافیتی برای موارد استفاده خاص از هوش مصنوعی وجود دارد - مانند چت بات ها و دیپ فیک ها - که در آن قانونگذاران اتحادیه اروپا معتقدند که خطرات احتمالی را می توان با اطلاع دادن به کاربران که در حال تعامل با چیزی مصنوعی هستند، کاهش داد.
قانون برنامهریزیشده برای هر شرکتی که محصول یا خدمات هوش مصنوعی را به اتحادیه اروپا میفروشد، اعمال میشود، نه فقط برای شرکتها و افراد مستقر در اتحادیه اروپا - بنابراین، مانند رژیم حفاظت از دادههای اتحادیه اروپا، دامنه آن فراسرزمینی خواهد بود.
هدف اصلی قانونگذاران اتحادیه اروپا تقویت اعتماد عمومی به نحوه پیاده سازی هوش مصنوعی برای کمک به افزایش جذب این فناوری است. مقامات ارشد کمیسیون در مورد تمایل به ایجاد یک "اکوسیستم برتر" که با ارزش های اروپایی همسو باشد صحبت می کنند.
مارگرت وستاگر، کمیسیون EVP، با اعلام پذیرش این پیشنهاد در یک کنفرانس مطبوعاتی، گفت: "امروز، ما قصد داریم اروپا را در توسعه یک هوش مصنوعی ایمن، قابل اعتماد و انسان محور و استفاده از آن در سطح جهانی قرار دهیم."
"از یک طرف ، مقررات ما خطرات انسانی و اجتماعی مرتبط با کاربردهای خاص هوش مصنوعی را برطرف می کند. این برای ایجاد اعتماد است. از طرف دیگر ، برنامه هماهنگ ما گام های لازم را که کشورهای عضو برای تقویت سرمایه گذاری و نوآوری باید بردارند ، مشخص می کند. برای تضمین تعالی. همه اینها برای اطمینان از تقویت جذب هوش مصنوعی در سراسر اروپا است. "
براساس این پیشنهاد ، الزامات اجباری به یک دسته "با ریسک بالا" از برنامه های کاربردی هوش مصنوعی پیوست می شوند - به معنی مواردی که خطر ایمنی مشخصی را تهدید می کند یا تهدید به آن می شود حقوق اساسی اتحادیه اروپا (مانند حق عدم تبعیض).
نمونههایی از موارد استفاده از هوش مصنوعی با ریسک بالا که مشمول بالاترین سطح مقررات در مورد استفاده میشوند، در پیوست 3 آییننامه آمده است - که کمیسیون گفت که این اختیار را خواهد داشت که با اعمال تفویض اختیار، به عنوان موارد استفاده، آن را گسترش دهد. هوش مصنوعی به توسعه خود ادامه می دهد و خطرات نیز در حال تکامل هستند.
در حال حاضر مثالهای پرخطر ذکر شده در دسته های زیر قرار می گیرند: شناسایی و طبقه بندی بیومتریک اشخاص حقیقی. مدیریت و بهره برداری از زیرساخت های حیاتی آموزش و حرفه آموزی اشتغال ، مدیریت کارگران و دسترسی به مشاغل آزاد. دسترسی و بهره مندی از خدمات ضروری خصوصی و خدمات و مزایای عمومی ؛ اجرای قانون؛ مهاجرت ، پناهندگی و مدیریت کنترل مرز ؛ اجرای عدالت و فرایندهای دموکراتیک.
استفاده از نظامی هوش مصنوعی به طور خاص از حوزه خارج می شود زیرا مقررات مربوط به بازار داخلی اتحادیه است.
سازندگان برنامه های پر خطر مجموعه ای از تعهدات قبلی را باید قبل از عرضه محصول خود به بازار رعایت کنند ، از جمله کیفیت مجموعه داده های مورد استفاده برای آموزش هوش مصنوعی خود و سطح نظارت انسانی نه تنها بر طراحی ، بلکه استفاده سیستم - و همچنین الزامات مداوم ، پس از پست ، به صورت نظارت پس از بازار.
سایر نیازها عبارتند از نیاز به ایجاد سوابق سیستم AI برای امکان کنترل انطباق و همچنین ارائه اطلاعات مربوط به کاربران. استحکام ، دقت و امنیت سیستم AI نیز منوط به تنظیم خواهد بود.
مقامات کمیسیون اظهار داشتند که اکثر قریب به اتفاق برنامه های کاربردی هوش مصنوعی خارج از این گروه بسیار منظم است. سازندگان این سیستم های AI "کم خطر" صرفاً تشویق می شوند که کدهای رفتاری (غیرقانونی) را در مورد استفاده اتخاذ کنند.
مجازات های نقض قوانین مربوط به ممنوعیت های خاص استفاده از هوش مصنوعی حداکثر تا 6٪ گردش مالی سالانه جهانی یا 30 میلیون یورو (هر کدام که بیشتر باشد) تعیین شده است. در حالی که نقض قوانین مربوط به کاربردهای پر خطر می تواند تا 4٪ (یا 20 میلیون یورو) باشد.
اجرا شامل چندین آژانس در هر کشور عضو اتحادیه اروپا خواهد بود - با پیشنهادی که نظارت بر آن توسط آژانس های موجود (مربوط) مانند ارگان های ایمنی محصول و آژانس های محافظت از داده انجام می شود.
با توجه به کار اضافی و پیچیدگی فنی که آنها در نظارت بر قوانین هوش مصنوعی با آن مواجه خواهند شد، این سؤالات فوری را در مورد منابع کافی برای نهادهای ملی ایجاد می کند. و همچنین چگونگی جلوگیری از تنگناهای اجرایی در برخی از کشورهای عضو. (به ویژه، مقررات عمومی حفاظت از داده های اتحادیه اروپا نیز در سطح کشورهای عضو نظارت می شود و از عدم اجرای یکنواخت شدید رنج می برد.)
همچنین یک پایگاه داده در سطح اتحادیه اروپا برای ایجاد یک ثبت نام از سیستم های با خطر بالا که در اتحادیه اجرا می شود (که توسط کمیسیون مدیریت می شود) ایجاد می شود.
یک هیئت جدید ، به نام شورای هوش مصنوعی اروپا (EAIB) ، نیز برای پشتیبانی از یک کار ثابت از مقررات - در آینه ای برای هیئت محافظت از داده های اروپا که راهنمایی برای استفاده از GDPR ارائه می دهد ، تشکیل می شود.
در راستای قوانین استفاده از هوش مصنوعی، این طرح شامل اقداماتی برای هماهنگ کردن حمایت کشورهای عضو اتحادیه اروپا برای توسعه هوش مصنوعی است - مانند ایجاد جعبههای ایمنی نظارتی برای کمک به استارتآپها و SMEها در توسعه و آزمایش نوآوریهای مبتنی بر هوش مصنوعی - و از طریق چشم انداز هدفمندی بودجه اتحادیه اروپا برای حمایت از توسعه دهندگان هوش مصنوعی.
کمیسر بازار داخلی تیری برتون گفت که سرمایه گذاری بخش مهمی از این طرح است.
تحت برنامه اروپای دیجیتال و Horizon Europe ما سالانه یک میلیارد یورو آزاد خواهیم کرد. و علاوه بر آن، ما میخواهیم سرمایهگذاری خصوصی و سرمایهگذاری جمعی در سراسر اتحادیه اروپا به میزان 20 میلیارد یورو در سال در دهه آینده ایجاد کنیم - همانطور که ما آن را «دهه دیجیتال» نامیدهایم.» ما همچنین میخواهیم 140 میلیارد یورو داشته باشیم که سرمایهگذاریهای دیجیتالی را تحت نسل بعدی اتحادیه اروپا [صندوق بازیابی کووید-19] تأمین مالی میکند – و بخشی از آن به هوش مصنوعی میرود.»
شکل دادن به قوانین برای هوش مصنوعی یک اولویت کلیدی برای اورسولا فون در لاین رئیس اتحادیه اروپا بوده است که در پایان سال 2019 سمت خود را آغاز کرد. مقاله سفید منتشر شد. پارسال، به دنبال یک هوش مصنوعی 2018 برای استراتژی اتحادیه اروپا - و وستاگر گفت كه پیشنهاد امروز اوج كار سه ساله است.
برتون افزود که ارائه راهنمایی برای کسب و کارها برای استفاده از هوش مصنوعی به آنها اطمینان حقوقی و اروپا برتری می دهد. او گفت: "اعتماد... ما فکر می کنیم برای اجازه دادن به توسعه هوش مصنوعی که می خواهیم بسیار مهم است." [کاربردهای هوش مصنوعی] باید قابل اعتماد، ایمن و بدون تبعیض باشند – که کاملاً حیاتی است – اما البته ما همچنین باید بتوانیم بفهمیم این برنامهها دقیقا چگونه کار میکنند.
«آنچه ما نیاز داریم این است که راهنمایی داشته باشیم. به خصوص در یک فناوری جدید... ما هستیم، خواهیم بود، اولین قاره ای که دستورالعمل هایی را در آن ارائه خواهیم کرد - می گوییم "هی، این سبز است، این سبز تیره است، این شاید کمی نارنجی باشد و این ممنوع است". . پس حالا اگر می خواهید از اپلیکیشن های هوش مصنوعی استفاده کنید، به اروپا بروید! شما می دانید چه کاری باید انجام دهید، می دانید چگونه آن را انجام دهید، شرکای خواهید داشت که به خوبی درک می کنند و اتفاقاً به قاره ای خواهید رسید که در آن بیشترین حجم داده های صنعتی ایجاد شده در این سیاره را خواهید داشت. برای ده سال آینده
بنابراین به اینجا بیایید - زیرا هوش مصنوعی در مورد داده است - ما دستورالعمل ها را به شما ارائه خواهیم داد. ما همچنین ابزار و زیرساخت های لازم برای انجام آن را خواهیم داشت.»
نسخه ای از پیشنهاد امروز هفته گذشته لو رفت - منجر به تماس های نماینده های مجلس برای تقویت طرح، از جمله با ممنوعیت نظارت بیومتریک از راه دور در مکان های عمومی.
در صورت پیشنهاد نهایی ، نظارت بیومتریک از راه دور به عنوان یک کاربرد بسیار خطرناک از هوش مصنوعی در نظر گرفته می شود - و اصولاً استفاده از این فناوری در مجامع قانونی توسط قانون ممنوع است.
با این حال ، استفاده از این موارد کاملاً منع نشده است ، به استثنای مواردی که مجری قانون هنوز هم می تواند از آن استفاده کند ، منوط به داشتن قانونی قانونی معتبر و نظارت مناسب.
حفاظت به عنوان بسیار ضعیف مورد حمله قرار گرفت
واکنشها به پیشنهاد کمیسیون شامل انتقاد از معافیتهای بسیار گسترده برای مجریان قانون و همچنین نگرانی از این بود که اقدامات برای مقابله با خطر تبعیضآمیز بودن سیستمهای هوش مصنوعی به اندازه کافی پیش نمیرود.
دادرسی عادلانه، سازمان غیردولتی عدالت کیفری، گفت که اگر قرار است مقررات تضمینی در رابطه با عدالت کیفری داشته باشد، به بهبودهای اساسی نیاز است. اظهار نظر در بیانیه ای، گریف فریس، مسئول حقوقی و سیاستگذاری سازمان غیردولتی گفت:پیشنهادات اتحادیه اروپا به تغییرات اساسی نیاز دارد تا از تبعیض سخت در نتایج عدالت کیفری جلوگیری شود، از فرض بی گناهی محافظت شود و تضمین شود.
«این قانون فاقد هرگونه ضمانتهایی در برابر تبعیض است، در حالی که معافیتهای گسترده برای «حفاظت از امنیت عمومی» به طور کامل تضمینهای ناچیز در رابطه با عدالت کیفری را تضعیف میکند. چارچوب باید شامل شود
اتحادیه آزادیهای مدنی برای اروپا (آزادیها) همچنین به حفرههایی که سازمان غیردولتی گفته است به کشورهای عضو اتحادیه اروپا اجازه میدهد تا ممنوعیتهای استفاده مشکلساز از هوش مصنوعی را دور بزنند، برخورد کرد.
استفادههای مشکلساز زیادی از فناوری مجاز وجود دارد، مانند استفاده از الگوریتمها برای پیشبینی جرم یا ارزیابی رایانهها از وضعیت عاطفی افراد در کنترل مرز، که هر دو خطرات جدی حقوق بشر را به همراه دارند و تهدیدی را به همراه دارند. اورسلیا رایش، افسر ارشد وکالت در بیانیه ای هشدار داد به ارزش های اتحادیه اروپا. ما همچنین نگران این هستیم که پلیس بتواند از فناوری تشخیص چهره به گونهای استفاده کند که حقوق و آزادیهای اساسی ما را به خطر بیندازد.»
پاتریک بریر، نماینده دزدان دریایی آلمان در پارلمان اروپا، همچنین هشدار داد که این پیشنهاد مطابق با معیار ادعایی احترام به "ارزش های اروپایی" نیست. نماینده پارلمان اروپا یکی از 40 نفری بود که نامه ای را به کمیسیون امضا کرد هفته گذشته سپس هشدار داد که نسخه فاش شده این پیشنهاد به اندازه کافی در حمایت از حقوق اساسی پیش نمی رود.
ما باید از فرصت استفاده کنیم و به اتحادیه اروپا اجازه دهیم هوش مصنوعی را با الزامات اخلاقی و ارزشهای دموکراتیک هماهنگ کند. بریر در بیانیهای در واکنش به پیشنهاد رسمی امروز گفت: متأسفانه، پیشنهاد کمیسیون نمیتواند از ما در برابر خطرات عدالت جنسیتی و رفتار برابر با همه گروهها، مانند سیستمهای تشخیص چهره یا سایر انواع نظارت جمعی محافظت کند.
فناوری نظارت بیومتریک و انبوه، نمایه سازی و پیش بینی رفتار در فضاهای عمومی ما آزادی ما را تضعیف می کند و جوامع باز ما را تهدید می کند. پیشنهاد کمیسیون اروپا برخلاف میل اکثریت مردم ما، استفاده پرخطر از تشخیص خودکار چهره در فضاهای عمومی را برای کل اتحادیه اروپا به ارمغان خواهد آورد. الزامات رویه ای پیشنهادی صرفاً یک پرده دود است. ما نمیتوانیم اجازه تبعیض گروههای خاصی از مردم و متهم کردن کاذب افراد بیشماری توسط این فناوریها را بدهیم.»
گروه چتر حقوق مصرف کننده، BEUC، نیز به سرعت انتقاد کرد - پیشنهاد کمیسیون را به عنوان ضعیف در حمایت از مصرف کننده مورد حمله قرار داد، زیرا بر تنظیم "محدوده بسیار محدودی از استفاده ها و مسائل هوش مصنوعی" تمرکز دارد.
Monique Goyens، مدیر کل Beuc، در بیانیهای گفت: کمیسیون اروپا باید تمرکز بیشتری روی کمک به مصرفکنندگان در زندگی روزمره خود به هوش مصنوعی بگذارد: «مردم باید بتوانند به هر محصول یا خدماتی که از هوش مصنوعی پشتیبانی میکند اعتماد کنند. «پرخطر»، «متوسط خطر» یا «کم خطر». اتحادیه اروپا باید بیشتر تلاش کند تا اطمینان حاصل شود که مصرف کنندگان از حقوق قابل اجرا برخوردار هستند و همچنین در صورت بروز مشکل، به جبران خسارت و راه حل های جبران خسارت دسترسی دارند.
گروه صنعت فناوری Dot Europe (Edima سابق) - که اعضای آن شامل Airbnb، اپل، فیس بوک، گوگل، مایکروسافت و دیگر غول های پلتفرم هستند - از انتشار این پیشنهاد استقبال کردند، اما هنوز اظهارات مفصلی در زمان نگارش ارائه نکرده بودند و گفتند که در حال تدوین است. موقعیت آن
دیگر گروههای لابی فناوری منتظر حمله به چشمانداز تشدید تشریفات هوش مصنوعی نبودند - ادعا میکردند که این مقررات «صنعت نوپای هوش مصنوعی اتحادیه اروپا را قبل از اینکه بتواند راه رفتن را بیاموزد» به عنوان یک سیاست فناوری مبتنی بر واشنگتن و بروکسل «زانو میزند» thinktank (مرکز نوآوری داده ها) آن را بیان کرده است.
انجمن تجاری CCIA همچنین به سرعت نسبت به "بوروکراسی غیر ضروری برای توسعه دهندگان و کاربران" هشدار داد و افزود که تنظیم به تنهایی اتحادیه اروپا را به یک رهبر تبدیل نمی کند AI.
پیشنهاد امروز آغازگر بحثهای فراوان تحت فرآیند قانونگذاری مشترک اتحادیه اروپا است، به طوری که پارلمان اروپا و کشورهای عضو از طریق شورای اتحادیه اروپا باید نظر خود را در مورد این پیشنویس بیان کنند - به این معنی که قبل از اینکه نهادهای اتحادیه اروپا به توافق برسند ممکن است چیزهای زیادی تغییر کند. شکل نهایی یک مقررات هوش مصنوعی در سراسر اتحادیه اروپا
کمیسیونرها از ارائه چارچوب زمانی برای زمان تصویب قوانین امروز خودداری کردند و تنها گفتند که امیدوارند سایر نهادهای اتحادیه اروپا فوراً وارد عمل شوند و این روند می تواند در اسرع وقت انجام شود. با این حال، ممکن است چندین سال قبل از تصویب و اجرایی شدن این مقررات بگذرد.
این گزارش با واکنش به پیشنهاد کمیسیون به روز شد
- دسترسی
- اضافی
- اتخاذ
- دفاع
- توافق
- AI
- مقررات هوش مصنوعی
- Airbnb
- الگوریتم
- اپل
- کاربرد
- برنامه های کاربردی
- دور و بر
- هوش مصنوعی
- بان کی مون
- ممنوعیت
- گوشت گاو
- بیلیون
- بیت
- تخته
- بدن
- مرز
- کسب و کار
- تغییر دادن
- chatbots
- چک
- آزادی های مدنی
- آینده
- کمیسیون
- شرکت
- شرکت
- انطباق
- کامپیوتر
- کنفرانس
- مصرف کننده
- مصرف کنندگان
- ادامه دادن
- شورا
- Covid-19
- اعتبار
- جرم
- کیفری
- عدالت کیفری
- زیرساخت های بحرانی
- داده ها
- حفاظت از داده ها
- پایگاه داده
- مناظره
- deepfakes
- طرح
- توسعه
- توسعه دهندگان
- پروژه
- دیجیتال
- مدیر
- تبعیض
- EC
- لبه
- آموزش
- استخدام
- EU
- اروپا
- اروپایی
- کمیسیون اروپایی
- اتحادیه اروپا
- یورو
- واقعه
- گسترش
- چهره
- فیس بوک
- تشخیص چهره
- فناوری تشخیص چهره
- منصفانه
- سرمایه گذاری
- نام خانوادگی
- تمرکز
- فرم
- چارچوب
- رایگان
- آزادی
- صندوق
- بودجه
- GDPR
- جنس
- سوالات عمومی
- مقررات حفاظت از اطلاعات عمومی
- جهانی
- گوگل
- سبز
- گروه
- دستورالعمل ها
- اینجا کلیک نمایید
- زیاد
- چگونه
- چگونه
- HTTPS
- حقوق بشر
- شناسایی
- از جمله
- صنعتی
- صنعت
- اطلاعات
- شالوده
- ابداع
- موسسات
- اطلاعات
- سرمایه گذاری
- سرمایه گذاری
- IT
- عدالت
- کلید
- قانون
- اجرای قانون
- قانونگذاران
- برجسته
- یاد گرفتن
- قانونی
- قانون
- سطح
- محدود شده
- لاین
- اکثریت
- مدیریت
- مارگارت Vestager
- بازار
- اعضا
- مایکروسافت
- آینه
- ارائه
- پیشنهادات
- افسر
- باز کن
- فرصت
- دیگر
- مقاله
- مردم
- سیاره
- سکو
- بسیاری
- پلیس
- سیاست
- قدرت
- پیش گویی
- در حال حاضر
- رئيس جمهور
- فشار
- خصوصی
- محصول
- برنامه
- ممنوعیت
- طرح پیشنهادی
- محافظت از
- حفاظت
- عمومی
- کیفیت
- افزایش
- محدوده
- واکنش
- سوابق
- بهبود
- تنظیم
- گزارش
- مورد نیاز
- خطر
- قوانین
- امن
- ایمنی
- مقیاس
- تیم امنیت لاتاری
- تصاحب کردن
- خدمات
- تنظیم
- کوتاه
- کوچک
- شرکتهای کوچک و متوسط
- So
- آگاهی
- شروع
- نوپا
- دولت
- بیانیه
- ایالات
- پشتیبانی
- نظارت
- سیستم
- سیستم های
- فن آوری
- سیاست فنی
- فنی
- پیشرفته
- آزمون
- زمان
- بالا
- تجارت
- آموزش
- شفافیت
- درمان
- رفتار
- محاکمه
- اعتماد
- اتحادیه
- us
- موارد استفاده
- کاربران
- صبر کنيد
- کتاب سفید
- WHO
- در داخل
- مهاجرت کاری
- کارگران
- نوشته
- سال
- سال