برای اطمینان از فراگیری، دولت بایدن باید ابتکارات توسعه هوش مصنوعی را دو برابر کند

گره منبع: 823954

کمیسیون امنیت ملی در زمینه هوش مصنوعی (NSCAI) الف گزارش ماه گذشته با ارائه یک پیام عمومی ناراحت کننده: آمریکا آمادگی دفاع یا رقابت در عصر هوش مصنوعی را ندارد. این منجر به دو سوال کلیدی می شود که پاسخ فوری ما را می طلبد: آیا ایالات متحده اگر در توسعه و استقرار هوش مصنوعی عقب بماند، همچنان ابرقدرت جهانی خواهد بود؟ و برای تغییر این مسیر چه کنیم؟

ابزارهای هوش مصنوعی (AI) به ظاهر خنثی که کنترل نشده اند، می توانند نابرابری ها را تداوم بخشند و در واقع تبعیض را خودکار می کنند. آسیب های مبتنی بر فناوری قبلاً در تصمیمات اعتباری ظاهر شده است. خدمات درمانیو تبلیغات.

برای جلوگیری از این تکرار و رشد در مقیاس، دولت بایدن باید قوانین فعلی مربوط به هوش مصنوعی و مدل‌های یادگیری ماشین را روشن کند - هم از نظر نحوه ارزیابی استفاده توسط بازیگران خصوصی و هم اینکه چگونه استفاده از هوش مصنوعی را در سیستم‌های دولتی خود کنترل می‌کنیم.

دولت از انتصابات کلیدی در حوزه فناوری گرفته تا صدور یک انتصابات قوی به جلو گذاشته است فرمان اجرایی در اولین روزی که یک کارگروه Equitable Data را تأسیس کرد. این موضوع باعث دلجویی شکاکان در مورد تعهد ایالات متحده به توسعه هوش مصنوعی و تضمین برابری در فضای دیجیتال شده است.

اما این امر زودگذر خواهد بود مگر اینکه دولت عزم قوی در تحقق بودجه هوش مصنوعی و ایجاد رهبران و ساختارهای لازم برای محافظت از توسعه و استفاده از آن نشان دهد.

نیاز به شفافیت در اولویت ها

There has been a seismic shift at the federal level in AI policy and in stated commitments to equality in tech. A number of high profile appointments by the Biden administration — from Dr. Alondra Nelson as Deputy of OSTP, to Tim Wu at the NEC, to (our former senior advisor) Kurt Campbell at the NSC — signal that significant attention will be paid to inclusive AI development by experts on the inside.

La گزارش نهایی NSCAI شامل توصیه‌هایی است که می‌تواند برای فعال کردن پایه‌های بهتر برای توسعه فراگیر هوش مصنوعی، مانند ایجاد خطوط لوله استعدادهای جدید از طریق آکادمی خدمات دیجیتال ایالات متحده برای آموزش کارکنان فعلی و آینده

این گزارش همچنین توصیه می‌کند که یک سیستم جدید ایجاد شود شورای رقابت فناوری led by the Vice President. This could prove essential in ensuring that the nation’s commitment to AI leadership remains a priority at the highest levels. It makes good sense to have the administration’s leadership on AI spearheaded by VP Harris in light of her strategic partnership with the President, her آگاه در سیاست های فناوری و تمرکز او بر حقوق مدنی.

ایالات متحده باید الگو باشد

ما می دانیم که هوش مصنوعی در توانایی خود برای ایجاد کارایی، مانند بررسی هزاران رزومه برای شناسایی نامزدهای بالقوه مناسب، قدرتمند است. اما همچنین می‌تواند تبعیض را افزایش دهد، مانند ابزار استخدام آمازون که کاندیداهای مرد را در اولویت قرار می دهد یاخط قرمز دیجیتال” اعتبار بر اساس نژاد.

The Biden administration should issue an Executive Order (EO) to agencies inviting ideation on ways AI can improve government operations. The EO should also mandate checks on AI used by the USG to ensure it’s not spreading discriminatory outcomes unintentionally.

برای مثال، باید یک برنامه زمانی معمولی وجود داشته باشد که در آن سیستم‌های هوش مصنوعی ارزیابی شوند تا اطمینان حاصل شود که سوگیری‌های مضر و جاسازی شده منجر به توصیه‌هایی نمی‌شوند که تبعیض‌آمیز یا ناسازگار با ارزش‌های دموکراتیک و فراگیر ما هستند - و با توجه به اینکه هوش مصنوعی دائماً در حال تکرار و یادگیری است، به‌طور معمول مورد ارزیابی مجدد قرار می‌گیرد. الگوهای جدید

استقرار یک سیستم مدیریتی مسئول هوش مصنوعی به ویژه در دولت ایالات متحده ضروری است که باید ارائه دهد دو روند محافظت در هنگام انکار مزایای خاص به عنوان مثال، زمانی که هوش مصنوعی برای تعیین تخصیص استفاده می شود مزایای Medicaidو چنین مزایایی بر اساس یک الگوریتم اصلاح یا رد می شوند، دولت باید بتواند آن نتیجه را توضیح دهد، به درستی فرآیند قانونی تکنولوژیکی نامیده می شود.

اگر تصمیمات به سیستم های خودکار بدون توضیح پذیریرهنمودها و نظارت انسانی، در موقعیتی غیرقابل دفاع قرار می گیریم که این حق اساسی قانون اساسی در حال انکار است.

به همین ترتیب، دولت قدرت بسیار زیادی دارد تا تضمین کند که پادمان‌های هوش مصنوعی توسط بازیگران کلیدی شرکت از طریق قدرت تدارکات خود وجود دارد. مخارج قرارداد فدرال انتظار می رفت بیش از 600 میلیارد دلار در سال مالی 2020، حتی قبل از گنجاندن صندوق های محرک اقتصادی همه گیر. USG می‌تواند با صدور چک لیستی برای تدارکات فدرال سیستم‌های هوش مصنوعی تأثیرات شگرفی داشته باشد - این امر تضمین می‌کند که فرآیند دولت هم دقیق و هم به طور جهانی اعمال شود، از جمله ملاحظات مربوط به حقوق مدنی.

محافظت در برابر تبعیض ناشی از سیستم های هوش مصنوعی

The government holds another powerful lever to protect us from AI harms: its investigative and prosecutorial authority. An Executive Order instructing agencies to clarify applicability of current laws and regulations (e.g., ADA, Fair Housing, Fair Lending, Civil Rights Act, etc.) when determinations are reliant on AI-powered systems could result in a global reckoning. Companies operating in the U.S. would have unquestionable motivation to check their AI systems for harms against protected classes.

افراد کم درآمد به طور نامتناسبی در برابر بسیاری از اثرات منفی هوش مصنوعی آسیب پذیر هستند. این امر به ویژه با توجه به اعتبار و ایجاد وام، زیرا احتمال دسترسی کمتری به محصولات مالی سنتی یا توانایی کسب امتیازات بالا بر اساس چارچوب‌های سنتی را دارند. سپس این به داده هایی تبدیل می شود که برای ایجاد سیستم های هوش مصنوعی استفاده می شود که چنین تصمیماتی را خودکار می کند.

دفتر حمایت از امور مالی مصرف‌کننده (CFPB) می‌تواند نقشی اساسی در مسئول نگه داشتن موسسات مالی در قبال فرآیندهای وام‌دهی تبعیض آمیز که ناشی از اتکا به سیستم‌های هوش مصنوعی تبعیض‌آمیز است، ایفا کند. مأموریت یک EO یک عملکرد اجباری برای بیانیه‌هایی در مورد نحوه ارزیابی سیستم‌های مجهز به هوش مصنوعی خواهد بود، شرکت‌ها را در جریان قرار می‌دهد و با انتظارات روشن در مورد استفاده از هوش مصنوعی از مردم محافظت می‌کند.

زمانی که فردی به شیوه ای تبعیض آمیز عمل می کند، مسیر روشنی برای مسئولیت وجود دارد یک روند قانونی نقض زمانی که منفعت عمومی به طور خودسرانه و بدون توضیح انکار شود. از نظر تئوری، زمانی که یک سیستم هوش مصنوعی درگیر باشد، این مسئولیت‌ها و حقوق به راحتی منتقل می‌شوند، اما بررسی اقدامات آژانس و سابقه قانونی (یا بهتر بگوییم، فقدان آن) چیز دیگری را نشان می‌دهد.

دولت شروع خوبی دارد، مانند عقب نشینی a قانون HUD پیشنهادی که باعث می شد چالش های قانونی علیه هوش مصنوعی تبعیض آمیز اساساً دست نیافتنی باشد. در مرحله بعد، آژانس‌های فدرال دارای اختیارات تحقیقاتی یا دادستانی باید روشن کنند که کدام شیوه‌های هوش مصنوعی تحت بررسی آنها قرار می‌گیرد و قوانین فعلی قابل اجرا خواهند بود - به عنوان مثال، HUD برای تبعیض غیرقانونی مسکن. CFPB در AI مورد استفاده در وام های اعتباری؛ و وزارت کار در زمینه هوش مصنوعی در تصمیم گیری های انجام شده در استخدام، ارزیابی و خاتمه استفاده می شود.

چنین اقدامی مزیت افزوده ایجاد الف را به همراه خواهد داشت سابقه مفید برای اقدامات شاکی در شکایات.

The Biden administration has taken encouraging first steps signaling its intent to ensure inclusive, less discriminatory AI. However, it must put its own house in order by directing that federal agencies require the development, acquisition and use of AI — internally and by those it does business with — is done in a manner that protects privacy, civil rights, civil liberties, and American values.

منبع: https://techcrunch.com/2021/04/22/to-ensure-inclusivity-the-biden-administration-must-double-down-on-ai-development-initiatives/

تمبر زمان:

بیشتر از تک کرانچ