اخلاقی AI ٹیم کا کہنا ہے کہ تعصب کے انعامات زیادہ تیزی سے الگورتھمک خامیوں کو بے نقاب کر سکتے ہیں۔

ماخذ نوڈ: 1732021

AI سسٹمز میں تعصب ٹیکنالوجی کو ہمارے معاشرے میں وسیع پیمانے پر مربوط کرنے کی کوششوں میں ایک بڑی رکاوٹ ثابت ہو رہا ہے۔ ایک نیا اقدام جو محققین کو کسی بھی تعصب کو تلاش کرنے پر انعام دے گا۔ اے آئی سسٹمز مسئلہ کو حل کرنے میں مدد مل سکتی ہے.

یہ کوشش ان بگ باؤنٹیز پر بنائی گئی ہے جو سافٹ ویئر کمپنیاں سائبر سیکیورٹی ماہرین کو ادا کرتی ہیں جو انہیں آگاہ کرتے ہیں۔ان کی مصنوعات میں کسی بھی ممکنہ حفاظتی خامیوں کو۔ خیال کوئی نیا نہیں ہے۔ "متعصبانہ انعامات" تھے۔ پہلے تجویز کردہ اےمیں 2018 میں محقق اور کاروباری JB Rubinovitz واپس آیا، اور مختلف تنظیمیں پہلے ہی اس طرح کے چیلنجز کا سامنا کر چکی ہیں۔

لیکن نئی کوشش تعصب باؤنٹی مقابلوں کے لیے ایک جاری فورم بنانے کی کوشش کرتی ہے جو کسی خاص تنظیم سے آزاد ہو۔ ٹویٹر سمیت متعدد کمپنیوں کے رضاکاروں پر مشتمل ہے، نام نہاد "بائیس بوکینرز" باقاعدہ مقابلے منعقد کرنے کا ارادہ رکھتے ہیں، یا "بغاوتیں"، اور اس ماہ کے شروع میں اس طرح کا پہلا چیلنج شروع کیا۔

"بگ باؤنٹیز سائبرسیکیوریٹی میں ایک معیاری پریکٹس ہے جس نے ابھی تک الگورتھمک تعصب کمیونٹی میں قدم نہیں رکھا ہے،" organices ان کی ویب سائٹ پر کہتے ہیں. "جبکہ ابتدائی یک طرفہ واقعات نے انعامات کے لیے جوش و خروش کا مظاہرہ کیا، Bias Buccaneers وہ پہلا غیر منفعتی ادارہ ہے جس کا مقصد جاری بغاوتوں کو تخلیق کرنا، ٹیکنالوجی کمپنیوں کے ساتھ تعاون کرنا، اور AI سسٹمز کے شفاف اور قابل تولیدی جائزوں کے لیے راہ ہموار کرنا ہے۔"

اس پہلے مقابلے کا مقصد تصویر کا پتہ لگانے والے الگورتھم میں تعصب سے نمٹنا ہے، لیکن لوگوں کو مخصوص AI سسٹمز کو نشانہ بنانے کے بجائے، مقابلہ ch کریں گے۔محققین کو ایسے ٹولز بنانے کا وعدہ کریں جو متعصب ڈیٹا سیٹس کا پتہ لگا سکیں۔ خیال ایک ایسا مشین لرننگ ماڈل بنانا ہے جو ڈیٹاسیٹ میں ہر تصویر کو اس کی جلد کے رنگ، سمجھی جانے والی جنس اور عمر کے گروپ کے ساتھ درست طریقے سے لیبل کر سکے۔ مقابلہ 30 نومبر کو ختم ہوگا۔ اور اس کا پہلا انعام $6,000، دوسرا انعام $4,000، اور تیسرا انعام $2,000 ہے۔

چیلنج اس حقیقت پر مبنی ہے کہ اکثر الگورتھمک تعصب کا ذریعہ خود الگورتھم نہیں ہوتا ہے، بلکہ ڈیٹا کی نوعیت جس پر اسے تربیت دی جاتی ہے۔ خودکار ٹولز جو تیزی سے اندازہ لگا سکتے ہیں کہ مجموعہ کتنا متوازن ہے۔ of تصاویر ان صفات سے متعلق ہیں جو اکثر امتیازی سلوک کے ذرائع ہوتے ہیں AI محققین کو واضح طور پر متعصب ڈیٹا ذرائع سے بچنے میں مدد مل سکتی ہے۔

لیکن منتظمین کا کہنا ہے کہ ڈیٹاسیٹس، الگورتھم اور ایپلی کیشنز میں تعصب کا اندازہ لگانے کے لیے ٹول کٹ بنانے کی کوشش میں یہ صرف پہلا قدم ہے، اور آخر کار اس بات کے لیے معیارات تشکیل دینے کا طریقہ ہے کہ ڈی اےl الگورتھمک تعصب، انصاف پسندی اور وضاحت کی اہلیت کے ساتھ۔

یہ ہے صرف ایسی کوشش نہیں. نئے لیڈروں میں سے ایک پہل ٹویٹر کے رومن چودھری ہیں، جنہوں نے پچھلے سال پہلے AI بائیس باؤنٹی مقابلے کے انعقاد میں مدد کی تھی، جس نے ایک الگورتھم کو نشانہ بنایا جو تصویروں کو تراشنے کے لیے استعمال کیا جاتا ہے۔ صارفین نے شکایت کی سفید فام اور مردانہ چہروں کو کالے اور مادہ پر ترجیح دی۔

مقابلے نے ہیکرز کو کمپنی کے ماڈل تک رسائی دی اور انہیں اس میں خامیاں تلاش کرنے کا چیلنج دیا۔ داخلے مسائل کی ایک وسیع رینج پایاشامل ہیںدقیانوسی طور پر خوبصورت چہروں کو ترجیح دینا، سے نفرت سفید بال والے لوگ (عمر کا نشان)، اور میمز کے لیے ترجیح عربی رسم الخط کے بجائے انگریزی کے ساتھ۔

اسٹینفورڈ یونیورسٹی نے حال ہی میں ایک مقابلہ بھی ختم کیا ہے جس میں ٹیموں کو چیلنج کیا گیا ہے کہ وہ ایسے ٹولز کے ساتھ آئیں جو لوگوں کو امتیازی سلوک کے لیے تجارتی طور پر تعینات یا اوپن سورس AI سسٹم کا آڈٹ کرنے میں مدد فراہم کریں۔ اور موجودہ اور آنے والے EU قوانین کمپنیوں کے لیے اپنے ڈیٹا اور الگورتھم کا باقاعدگی سے آڈٹ کرنا لازمی بنا سکتے ہیں۔

لیکن لے رہے ہیں۔ AI بگ باؤنٹیز اور الگورتھمک آڈیٹنگ مرکزی دھارے میں لانا اور انہیں موثر بنانا کام سے کہیں زیادہ آسان ہوگا۔ لامحالہ، وہ کمپنیاں جو اپنے کاروبار کو اپنے الگورتھم پر بناتی ہیں، انہیں بدنام کرنے کی کسی بھی کوشش کے خلاف مزاحمت کریں گی۔

آڈٹ سسٹمز سے اسباق کی تعمیر دوسرے ڈومینز میں، جیسے فنانس اور ماحولیاتی اور صحت کے ضوابط، محققین حال ہی میں بیان کیا مؤثر احتساب کے لیے کچھ اہم اجزاء۔ سب سے اہم میں سے ایک معیار انہوں نے شناخت کیا کہ آزاد تیسرے فریق کی بامعنی شمولیت تھی۔

محققین نے نشاندہی کی کہ موجودہ رضاکارانہ AI آڈٹ میں اکثر مفادات کے تنازعات شامل ہوتے ہیں، جیسے کہ ہدف کی تنظیم آڈٹ کے لیے ادائیگی کرتی ہے، آڈٹ کے دائرہ کار کو طے کرنے میں مدد کرتی ہے، یا نتائج کو عام کرنے سے پہلے ان کا جائزہ لینے کا موقع فراہم کرتی ہے۔ اس تشویش کی ایک حالیہ رپورٹ میں عکاسی کی گئی ہے۔ الگورتھم جسٹس لیگ, which نے آؤٹ سائز نوٹ کیا۔d موجودہ سائبرسیکیوریٹی بگ باؤنٹی پروگراموں میں ہدف تنظیموں کا کردار۔

حقیقی طور پر آزاد AI آڈیٹرز اور بگ ہنٹرز کو فنڈ اور مدد فراہم کرنے کا راستہ تلاش کرنا ایک اہم چیلنج ہو گا، خاص طور پر جب وہ دنیا کی سب سے اچھی وسائل والی کمپنیوں کے خلاف میدان میں اتریں گے۔ خوش قسمتی سے اگرچہ، صنعت کے اندر یہ احساس بڑھتا ہوا دکھائی دے رہا ہے کہ اس مسئلے سے نمٹنا ان کی خدمات پر صارفین کے اعتماد کو برقرار رکھنے کے لیے اہم ہوگا۔

تصویری کریڈٹ: جیکب روزن / Unsplash سے

ٹائم اسٹیمپ:

سے زیادہ یکسانیت مرکز