کیا آپ اے آئی عقل کو سکھ سکتے ہیں؟

ماخذ نوڈ: 990012

ٹرانسفارم 2021 کے تمام سیشنز اب آن ڈیمانڈ پر دستیاب ہیں۔ اب دیکھتے ہیں.


اپنے پہلے الفاظ بولنے سے پہلے ہی، انسانی بچے اشیاء اور لوگوں کے بارے میں ذہنی ماڈل تیار کرتے ہیں۔ یہ ان کلیدی صلاحیتوں میں سے ایک ہے جو ہمیں انسانوں کو سماجی طور پر جینا سیکھنے اور ایک دوسرے کے ساتھ تعاون (یا مقابلہ) کرنے کی اجازت دیتی ہے۔ لیکن مصنوعی ذہانت کے لیے، یہاں تک کہ سب سے بنیادی طرز عمل استدلال کے کام بھی ایک چیلنج ہیں۔

اعلی درجے کی گہری سیکھنے کے ماڈل پیچیدہ کام کر سکتے ہیں جیسے کہ تصاویر میں لوگوں اور اشیاء کا پتہ لگانا، بعض اوقات انسانوں سے بھی بہتر۔ لیکن وہ تصویروں کی بصری خصوصیات سے آگے بڑھنے کے لیے جدوجہد کرتے ہیں اور اس بارے میں اندازہ لگاتے ہیں کہ دوسرے ایجنٹ کیا کر رہے ہیں یا کیا کرنا چاہتے ہیں۔

اس خلا کو پُر کرنے میں مدد کرنے کے لیے، IBM، میساچوسٹس انسٹی ٹیوٹ آف ٹیکنالوجی، اور ہارورڈ یونیورسٹی کے سائنسدانوں نے ٹیسٹوں کا ایک سلسلہ تیار کیا ہے جو کہ AI ماڈلز کی بچوں کی طرح استدلال کرنے کی صلاحیت کا اندازہ لگانے میں مدد کریں گے، دنیا کا مشاہدہ کرکے اور اس کا احساس دلائیں۔

"انسانی شیر خوار بچوں کی طرح، مشینی ایجنٹوں کے لیے یہ ضروری ہے کہ وہ انسانی ذہنوں کو سمجھنے کی مناسب صلاحیت پیدا کریں، تاکہ سماجی تعاملات میں کامیابی سے مشغول ہو سکیں،" اے آئی کے محققین نے ایک تحریر میں لکھا۔ نیا کاغذ جو ڈیٹاسیٹ متعارف کراتی ہے، جسے AGENT کہتے ہیں۔

اس سال کی مشین لرننگ پر بین الاقوامی کانفرنس (ICML) میں پیش کیا گیا، AGENT AI سسٹمز کی استدلال کی صلاحیتوں کی پیمائش کے لیے ایک اہم معیار فراہم کرتا ہے۔

ایجنٹ کے رویے کا مشاہدہ اور پیش گوئی کرنا

AI سسٹمز میں عقل اور استدلال کو جانچنے پر کام کا ایک بڑا حصہ ہے۔ ان میں سے بہت سے فطری زبان کی تفہیم پر توجہ مرکوز کر رہے ہیں، بشمول مشہور ٹورنگ ٹیسٹ اور ونوگراڈ اسکیماس. اس کے برعکس، AGENT پروجیکٹ ان قسم کی استدلال کی صلاحیتوں پر توجہ مرکوز کرتا ہے جو انسان بولنے کے قابل ہونے سے پہلے سیکھتے ہیں۔

"ہمارا مقصد، ترقیاتی نفسیات میں لٹریچر کی پیروی کرتے ہوئے، بدیہی نفسیات سے متعلق مخصوص کامن سینس کی صلاحیتوں کا جائزہ لینے کے لیے ایک معیار بنانا ہے جو بچے زبان سے پہلے کے مرحلے (اپنی زندگی کے پہلے 18 مہینوں میں) سیکھتے ہیں،" ڈین گٹفرینڈ، پرنسپل۔ MIT-IBM واٹسن AI لیب کے تفتیش کار نے بتایا TechTalks.

بچوں کے طور پر، ہم اپنے ماحول کا مشاہدہ کرکے اشیاء اور ایجنٹوں کے درمیان فرق بتانا سیکھتے ہیں۔ جیسے جیسے ہم واقعات کو سامنے آتے دیکھتے ہیں، ہم بدیہی نفسیاتی مہارتیں پیدا کرتے ہیں، دوسرے لوگوں کے اعمال کا مشاہدہ کرکے ان کے مقاصد کی پیشین گوئی کرتے ہیں، اور اپنے دماغ کو درست اور اپ ڈیٹ کرتے رہتے ہیں۔ ہم یہ سب کچھ کم یا بغیر ہدایات کے سیکھتے ہیں۔

ایجنٹ (ایکشن، مقصد، کارکردگی، پابندی، افادیت) ٹیسٹ کے پیچھے خیال یہ ہے کہ اس بات کا اندازہ لگایا جائے کہ کتنی اچھی طرح سے اے آئی سسٹمز اس بنیادی مہارت کی نقل کر سکتے ہیں، وہ نفسیاتی استدلال کی صلاحیتوں کو کیا ترقی دے سکتے ہیں، اور جو نمائندگی وہ سیکھتے ہیں وہ کس حد تک نئے حالات کو عام کرتے ہیں۔ ڈیٹاسیٹ مختصر سلسلے پر مشتمل ہے جو ایک ایجنٹ کو کئی اشیاء میں سے کسی ایک کی طرف جاتے ہوئے دکھاتا ہے۔ اس سلسلے کو تھری ڈی ورلڈ میں تیار کیا گیا ہے، ایک ورچوئل 3D ماحول جسے AI ایجنٹوں کی تربیت کے لیے ڈیزائن کیا گیا ہے۔

AGENT ٹیسٹ دو مرحلوں میں ہوتا ہے۔ سب سے پہلے، AI کو ایک یا دو ترتیبوں کے ساتھ پیش کیا جاتا ہے جو ایجنٹ کے رویے کو ظاہر کرتے ہیں۔ ان مثالوں کو AI کو ورچوئل ایجنٹ کی ترجیحات سے آشنا کرنا چاہیے۔ مثال کے طور پر، ایک ایجنٹ ہمیشہ ایک قسم کی شے کا انتخاب کر سکتا ہے قطع نظر اس کے کہ اس کی راہ میں رکاوٹیں کھڑی ہوں، یا وہ اس کی نوعیت سے قطع نظر قریب ترین اور سب سے زیادہ قابل رسائی چیز کا انتخاب کر سکتا ہے۔

واقفیت کے مرحلے کے بعد، AI کو ٹیسٹ کی ترتیب دکھائی جاتی ہے اور اسے یہ تعین کرنا چاہیے کہ آیا ایجنٹ متوقع یا حیران کن انداز میں کام کر رہا ہے۔

ٹیسٹس، مجموعی طور پر 3,360، چار قسم کے منظرناموں پر پھیلے ہوئے ہیں، جس کا آغاز انتہائی سادہ طرز عمل سے ہوتا ہے (ایجنٹ ماحول سے قطع نظر ایک قسم کی چیز کو ترجیح دیتا ہے) سے زیادہ پیچیدہ چیلنجز (ایجنٹ لاگت کے انعام کا تخمینہ ظاہر کرتا ہے، حاصل کرنے میں دشواری کا وزن کرتا ہے۔ اس کو ملنے والے انعام کے خلاف ایک مقصد)۔ AI کو ایکٹنگ ایجنٹ کی کارروائی کی کارکردگی پر بھی غور کرنا چاہیے (مثال کے طور پر، جب کوئی رکاوٹیں نہ ہوں تو اسے غیر ضروری چھلانگ نہیں لگانی چاہیے)۔ اور کچھ چیلنجوں میں، ماحول کے بارے میں استدلال کرنا زیادہ مشکل بنانے کے لیے منظر کو جزوی طور پر روک دیا گیا ہے۔

مصنوعی ماحول میں حقیقت پسندانہ منظرنامے۔

ٹیسٹوں کے ڈیزائنرز نے انسانی دلکش تعصبات کو شامل کیا ہے، جس کا مطلب ہے کہ ایجنٹ اور ماحول ان اصولوں کے تحت چلتے ہیں جو انسانوں کے لیے معقول ہوں گے (مثال کے طور پر، کسی رکاوٹ کو چھلانگ لگانے یا چڑھنے کی لاگت اس کی اونچائی کے ساتھ بڑھتی ہے)۔ یہ فیصلہ چیلنجوں کو زیادہ حقیقت پسندانہ اور آسانی سے جانچنے میں مدد کرتا ہے۔ محققین یہ بھی نوٹ کرتے ہیں کہ اس قسم کے تعصبات ایسے AI نظاموں کو بنانے میں مدد کرنے کے لیے بھی اہم ہیں جو انسانی رویے کے ساتھ بہتر اور ہم آہنگ ہوں اور انسانی ہم منصبوں کے ساتھ تعاون کر سکیں۔

AI محققین نے Amazon Mechanical Turk کے ذریعے انسانی رضاکاروں پر چیلنجز کا تجربہ کیا۔ ان کے نتائج سے پتہ چلتا ہے کہ اوسطاً، انسان 91 فیصد چیلنجز کو واقفیت کے سلسلے کا مشاہدہ کرکے اور ٹیسٹ کی مثالوں کو جانچ کر حل کر سکتا ہے۔ اس کا مطلب یہ ہے کہ انسان دنیا اور انسانی/جانوروں کے رویے کے بارے میں اپنی پیشگی معلومات کو یہ سمجھنے کے لیے استعمال کرتے ہیں کہ ایجنٹ کیسے فیصلہ کرتے ہیں (مثال کے طور پر، دیگر تمام چیزیں برابر ہونے کی وجہ سے، ایک ایجنٹ اعلیٰ انعام کے ساتھ اعتراض کا انتخاب کرے گا)۔

AI محققین نے جان بوجھ کر ڈیٹا سیٹ کے سائز کو محدود کر دیا تاکہ مسائل کو حل کرنے کے لیے غیر ذہین شارٹ کٹس کو روکا جا سکے۔ ایک بہت بڑے ڈیٹا سیٹ کے پیش نظر، مشین لرننگ ماڈل ایجنٹ کے رویے کے بارے میں بنیادی معلومات حاصل کیے بغیر درست پیشین گوئیاں کرنا سیکھ سکتا ہے۔ "صرف ہمارے ڈیٹاسیٹ پر شروع سے تربیت کام نہیں کرے گی۔ اس کے بجائے، ہم تجویز کرتے ہیں کہ ٹیسٹ پاس کرنے کے لیے، اضافی علم حاصل کرنا ضروری ہے یا تو فن تعمیر میں دلکش تعصبات کے ذریعے، یا اضافی ڈیٹا کی تربیت سے،" محققین لکھتے ہیں۔

تاہم، محققین نے ٹیسٹ میں کچھ شارٹ کٹس کو لاگو کیا ہے. AGENT ڈیٹاسیٹ میں گہرائی کے نقشے، سیگمنٹیشن نقشے، اور اشیاء کے باؤنڈنگ بکس اور منظر کے ہر فریم کے لیے رکاوٹیں شامل ہیں۔ مناظر بصری تفصیلات میں بھی انتہائی سادہ ہیں اور آٹھ الگ الگ رنگوں پر مشتمل ہیں۔ یہ سب AI سسٹمز کے لیے منظر میں موجود معلومات پر کارروائی کرنا اور چیلنج کے استدلال والے حصے پر توجہ مرکوز کرنا آسان بناتا ہے۔

کیا موجودہ AI ایجنٹ کے چیلنجوں کو حل کرتا ہے؟

محققین نے دو بیس لائن AI ماڈلز پر AGENT چیلنج کا تجربہ کیا۔ پہلا، Bayesian Inverse Planning and Core Knowledge (BIPACK)، ایک تخلیقی ماڈل ہے جو فزکس کے تخروپن اور منصوبہ بندی کو مربوط کرتا ہے۔

BIPaCK ماڈل

اوپر: BIPaCK ماڈل ایجنٹ کی رفتار کی پیشین گوئی کرنے کے لیے منصوبہ ساز اور فزکس انجن استعمال کرتا ہے۔

یہ ماڈل ڈیٹاسیٹ کے ذریعے فراہم کردہ زمینی سچائی کی مکمل معلومات کا استعمال کرتا ہے اور اسے اپنے فزکس اور پلاننگ انجن میں فیڈ کرتا ہے تاکہ ایجنٹ کی رفتار کا اندازہ لگایا جا سکے۔ محققین کے تجربات سے پتہ چلتا ہے کہ BIPaCK انسانوں کے برابر یا اس سے بھی بہتر کارکردگی دکھانے کے قابل ہے جب اسے منظر کے بارے میں مکمل معلومات حاصل ہوں۔

تاہم، حقیقی دنیا میں، AI سسٹمز کو زمینی سچائی سے متعلق درست معلومات تک رسائی حاصل نہیں ہوتی ہے اور انہیں مختلف پس منظر اور روشنی کے حالات کے خلاف اشیاء کا پتہ لگانے کا پیچیدہ کام انجام دینا چاہیے، یہ مسئلہ انسان اور جانور آسانی سے حل کرتے ہیں لیکن کمپیوٹر کے لیے ایک چیلنج بنی ہوئی ہے۔ وژن کے نظام.

اپنے مقالے میں، محققین تسلیم کرتے ہیں کہ BIPaCK کو "3D حالت کی درست تعمیر نو اور جسمانی حرکیات کے ایک بلٹ ان ماڈل کی ضرورت ہے، جو ضروری نہیں کہ حقیقی دنیا کے مناظر میں دستیاب ہو۔"

دوسرا ماڈل جس کا محققین نے تجربہ کیا، جس کا کوڈ نام ToMnet-G ہے، تھیوری آف مائنڈ نیورل نیٹ ورک کا ایک توسیعی ورژن ہے۔ToMnet) پر سائنسدانوں کی طرف سے تجویز کردہ Deepmind 2018 میں۔ ToMnet-G مناظر کی حالت کو انکوڈ کرنے کے لیے گراف نیورل نیٹ ورکس کا استعمال کرتا ہے، بشمول اشیاء، رکاوٹیں، اور ایجنٹ کا مقام۔ یہ پھر ان انکوڈنگز کو فیڈ کرتا ہے۔ طویل قلیل مدتی میموری نیٹ ورکس (LSTM) فریموں کی ترتیب میں ایجنٹ کی رفتار کو ٹریک کرنے کے لیے۔ ماڈل ٹیسٹ ویڈیوز میں ایجنٹ کے رویے کی پیشین گوئی کرنے اور ان کی توقع کے مطابق یا حیران کن درجہ بندی کرنے کے لیے واقفیت کی ویڈیوز سے حاصل کردہ نمائندگیوں کا استعمال کرتا ہے۔

ToMnet-G ماڈل

اوپر: ToMnet-G ماڈل منظر کی نمائندگی کو سرایت کرنے اور ایجنٹ کے رویے کی پیشن گوئی کرنے کے لیے گراف نیورل نیٹ ورکس اور LSTMs کا استعمال کرتا ہے۔

ToMnet-G کا فائدہ یہ ہے کہ اسے پہلے سے انجینئرڈ فزکس اور BIPaCK کے کامن سینس علم کی ضرورت نہیں ہے۔ یہ دوسرے ڈیٹا سیٹس پر ویڈیوز اور پچھلی تربیت سے سب کچھ سیکھتا ہے۔ دوسری طرف، ToMnet-G اکثر غلط بیانات سیکھتا ہے اور اپنے رویے کو نئے منظرناموں یا جب اس کے پاس محدود واقفیت کی معلومات ہوتی ہے تو اسے عام نہیں کر سکتا۔

محققین نے اپنے مقالے میں مشاہدہ کیا کہ "بہت سے پہلے سے پہلے کے بغیر، ToMnet-G اسی طرح کے منظرناموں پر تربیت یافتہ اور تجربہ کرنے پر امید افزا نتائج کا مظاہرہ کرتا ہے، لیکن اس میں اب بھی منظرناموں کے اندر اور ان دونوں میں عمومی بنانے کی مضبوط صلاحیت کا فقدان ہے۔"

دونوں ماڈلز کے درمیان فرق سب سے آسان کاموں کے چیلنجوں کو نمایاں کرتا ہے جو انسان بغیر کسی ہدایات کے سیکھتے ہیں۔

گٹ فرینڈ نے کہا کہ "ہمیں یہ یاد رکھنا ہوگا کہ ہمارا معیار، ڈیزائن کے لحاظ سے، ہر بار عقل کے ایک مخصوص پہلو کو حل کرنے والے بہت ہی سادہ مصنوعی منظرناموں کو ظاہر کرتا ہے۔" "حقیقی دنیا میں، انسان بہت جلد پیچیدہ مناظر کو پارس کرنے کے قابل ہوتے ہیں جہاں بیک وقت فزکس، نفسیات، زبان اور بہت کچھ سے متعلق عقل کے بہت سے پہلو کام کر رہے ہیں۔ اے آئی ماڈل ابھی تک اس کے قریب کچھ کرنے کے قابل نہیں ہیں۔

کامن سینس اور AI کا مستقبل

گٹ فرینڈ نے کہا کہ "ہم سمجھتے ہیں کہ تنگ سے وسیع اے آئی کے راستے میں ایسے ماڈلز کو شامل کرنا ہوگا جن کی عقل عام ہو۔" "عام فہم صلاحیتیں دنیا میں افہام و تفہیم اور بات چیت میں اہم تعمیراتی بلاکس ہیں اور نئی صلاحیتوں کے حصول میں سہولت فراہم کر سکتی ہیں۔"

بہت سے سائنس دانوں کا خیال ہے کہ عقل اور استدلال موجودہ AI نظاموں کو درپیش بہت سے مسائل کو حل کر سکتا ہے، جیسے کہ ان کو تربیتی ڈیٹا کی وسیع مقدار کی ضرورت، وجہ کے ساتھ ان کی جدوجہد، اور نئے حالات سے نمٹنے میں ان کی نزاکت۔ عقل اور استدلال AI کمیونٹی کے لیے تحقیق کے اہم شعبے ہیں، اور یہ میدان کے کچھ روشن ذہنوں کی توجہ کا مرکز بن گئے ہیں، جن میں گہری تعلیم کے علمبردار بھی شامل ہیں۔

AGENT کو حل کرنا AI ایجنٹس بنانے کی طرف ایک چھوٹا لیکن اہم قدم ہو سکتا ہے جو انسانوں کی غیر متوقع دنیا میں مضبوطی سے برتاؤ کرتے ہیں۔

"لوگوں کو خود مختار ایجنٹوں پر بھروسہ کرنے کے لیے قائل کرنا مشکل ہوگا۔ عام سینسیکل انداز میں برتاؤ نہ کریں۔"گٹ فرینڈ نے کہا۔ "مثال کے طور پر، بوڑھوں کی مدد کے لیے ایک روبوٹ پر غور کریں۔ اگر وہ روبوٹ کامن سینس کے اصول کی پیروی نہیں کرے گا کہ ایجنٹ اپنے اہداف کو مؤثر طریقے سے حاصل کرتے ہیں اور فریج سے دودھ لانے کے لیے کہنے پر سیدھی لکیر کی بجائے زگ زیگ میں آگے بڑھتے ہیں، تو یہ بہت عملی اور قابل اعتماد نہیں ہوگا۔

AGENT کا حصہ ہے۔ مشین کامن سینس ڈیفنس ایڈوانسڈ ریسرچ پروجیکٹس ایجنسی (DARPA) کا (MCS) پروگرام۔ MCS دو وسیع مقاصد کی پیروی کرتا ہے۔ سب سے پہلے ایسی مشینیں بنانا ہے جو بچوں کی طرح چیزوں، ایجنٹوں اور جگہ کے بارے میں استدلال کرنا سیکھ سکیں۔ AGENT اس زمرے میں آتا ہے۔ دوسرا مقصد ایسے نظاموں کو تیار کرنا ہے جو ویب سے ساختی اور غیر ساختہ علم کو پڑھ کر سیکھ سکتے ہیں، جیسا کہ ایک انسانی محقق کرے گا۔ یہ فطری زبان کی تفہیم کے موجودہ نقطہ نظر سے مختلف ہے، جو صرف متن کے بہت بڑے کارپورا میں الفاظ اور الفاظ کی ترتیب کے درمیان شماریاتی ارتباط کو حاصل کرنے پر توجہ مرکوز کرتے ہیں۔

"اب ہم AGENT کو بچوں کے لیے ٹیسٹنگ ماحول کے طور پر استعمال کرنے پر کام کر رہے ہیں۔ DARPA MCS پروگرام کے بقیہ فنکاروں کے ساتھ مل کر ہم ایک سے زیادہ ایجنٹوں (مثلاً ایک دوسرے کی مدد کرنا یا اس میں رکاوٹ ڈالنا) اور اہداف کے حصول کے لیے آلات کا استعمال (مثلاً دروازے کھولنے کی چابیاں) سے متعلق عام فہم کے مزید پیچیدہ منظرناموں کو تلاش کرنے کا منصوبہ بنا رہے ہیں۔ . ہم بدیہی طبیعیات اور مقامی تفہیم سے متعلق علم کے دوسرے بنیادی ڈومینز پر بھی کام کرتے ہیں،" گٹ فرینڈ نے کہا۔

بین ڈکسن ایک سافٹ ویئر انجینئر اور بانی ہے۔ TechTalks, ایک بلاگ جو ٹیکنالوجی کے مسائل کو حل کرنے اور پیدا کرنے کے طریقوں کو تلاش کرتا ہے۔

یہ کہانی اصل میں شائع ہوئی تھی Bdtechtalks.com. کاپی رائٹ 2021

VentureBeat

VentureBeat کا مشن تکنیکی فیصلہ سازوں کے لیے تبدیلی کی ٹیکنالوجی اور لین دین کے بارے میں علم حاصل کرنے کے لیے ایک ڈیجیٹل ٹاؤن اسکوائر بننا ہے۔ ہماری سائٹ ڈیٹا ٹیکنالوجیز اور حکمت عملیوں کے بارے میں ضروری معلومات فراہم کرتی ہے تاکہ آپ اپنی تنظیموں کی رہنمائی کر سکیں۔ ہم آپ کو ہماری کمیونٹی کا رکن بننے کے لیے مدعو کرتے ہیں، رسائی حاصل کرنے کے لیے:

  • آپ کے دلچسپی کے موضوعات پر تازہ ترین معلومات
  • ہمارے نیوز لیٹر
  • رہنمائی کرنے والا رہنما مواد اور ہمارے قیمتی واقعات تک رعایت تک رسائی ، جیسے 2021 کو تبدیل کریں: اورجانیے
  • نیٹ ورکنگ کی خصوصیات اور بہت کچھ

رکن بنیں

ماخذ: https://venturebeat.com/2021/07/27/can-you-teach-ai-common-sense/

ٹائم اسٹیمپ:

سے زیادہ AI - وینچر بیٹ