آکسفورڈ یونیورسٹی کے پروفیسر نے خبردار کیا کہ "AI اتنا ہی خطرہ ہے جتنا کہ جوہری ہتھیار۔"

آکسفورڈ یونیورسٹی کے پروفیسر نے خبردار کیا کہ "AI اتنا ہی خطرہ ہے جتنا کہ جوہری ہتھیار۔"

ماخذ نوڈ: 1925142

"میرے الفاظ یاد رکھنا، AI جوہری سے زیادہ خطرناک ہے۔. یہ مجھ سے باہر جہنم سے ڈرتا ہے." یہ بیان 2018 میں ٹیسلا کے سی ای او ایلون مسک نے آسٹن، ٹیکساس میں ساؤتھ بائی سائوتھ ویسٹ کانفرنس کے دوران جوناتھن نولان کے ساتھ ایک انٹرویو کے دوران دیا تھا۔ بدقسمتی سے، Mus اکیلے نہیں ہے. محققین اور دیگر معروف ماہرین مصنوعی ذہانت (AI) کے خطرات سے بھی خبردار کر رہے ہیں۔ 1 ملین پاؤنڈ کا سوال یہ ہے کہ کیا ہم تیار ہیں اور ہماری حکومتیں اور پالیسی ساز اس خطرے کو ٹالنے کے لیے کیا کر رہے ہیں؟

اگرچہ ChatGPT کی حالیہ مقبولیت نے AI کو مرکزی دھارے میں لایا ہے اور بہت سے لوگوں کو اس کے سماجی فوائد کی طرف راغب کیا ہے، لیکن جو چیز عام لوگوں کی توجہ حاصل نہیں کر رہی ہے وہ AI کا تاریک پہلو ہے۔ کئی سالوں سے، پیشہ ور افراد اور ٹیک ورکرز مصنوعی ذہانت (AI) سے ان کی ملازمتیں چھیننے کی فکر میں ہیں۔

تاہم، ماہرین کا خیال ہے کہ AI کے ذریعے استعمال ہونے والے خراب ڈیٹا، گہری جعلی، رازداری کی خلاف ورزیوں، اور بہت کچھ کی وجہ سے ہونے والے الگورتھمک تعصب کے بارے میں فکر مند ہونے کے لیے اور بھی سنگین خطرات اور خطرات ہیں۔ اگرچہ یہ خطرات معاشرے کے لیے سنگین خطرات لاحق ہیں، محققین اور سائنس دان اس بارے میں زیادہ پریشان ہیں کہ AI کو اس سے بھی زیادہ خطرناک کام کرنے کے لیے کس طرح پروگرام کیا جا سکتا ہے: ہتھیاروں کو خود کار بنانا۔

آج، AI کو اب بھیڑ کی ٹیکنالوجیز کی ترقی میں استعمال کیا گیا ہے اور جنگی سازوسامان، جسے کامیکاز ڈرون بھی کہا جاتا ہے۔ روس یوکرائن کی جاری جنگ میں استعمال کیا گیا۔. مستقبل کے روبوٹ کے برعکس جو آپ کچھ سائنس فائی فلموں میں دیکھتے ہیں، یہ ڈرون پہلے سے موجود ملٹری پلیٹ فارمز کا استعمال کرتے ہیں جو نئی AI ٹیکنالوجیز کا فائدہ اٹھاتے ہیں۔ یہ ڈرون جوہر میں خود مختار ہتھیار بن گئے ہیں جو مارنے کے لیے پروگرام کیے گئے ہیں۔

لیکن ملیری لڑائی میں مارنے کے لیے AI سے طاقت کا استعمال صرف آغاز ہے۔ مائیکل اوسبورن آکسفورڈ یونیورسٹی میں اے آئی کے پروفیسر اور مشین لرننگ کے محقق ہیں۔ وہ مائنڈ فاؤنڈری کے شریک بانی بھی ہیں۔ جب کہ ہر کوئی ChatGPT کے جنون میں ہے، پروفیسر اوسبورن اب AI کے خطرات کے بارے میں خبردار کر رہے ہیں اور پیشن گوئی کر رہے ہیں کہ جدید AI "ہمارے لیے اتنا ہی خطرہ لاحق ہو سکتا ہے جتنا کہ ہم نے دوسری نسلوں کو لاحق کیا ہے: ڈوڈو ایک مثال ہے۔"

اس ماہ کے اوائل میں، آکسفورڈ یونیورسٹی کے محققین کے ایک گروپ نے برطانوی پارلیمنٹ میں سائنس اور ٹیکنالوجی کمیٹی کو بتایا کہ AI بالآخر انسانیت کے لیے ایک "وجود خطرہ" بن سکتا ہے۔ جس طرح ڈوڈو کے ذریعہ انسانوں کا صفایا کیا گیا تھا، اسی طرح AI مشینیں ہمیں ختم کر سکتی ہیں، انہوں نے کہا، ٹائمز آف لندن رپورٹ کے مطابق.

ملاقات کے دوران ، پروفیسر اوسبورن برطانوی پارلیمنٹیرینز کو خبردار کیا کہ واقعی طاقتور مصنوعی ذہانت زمین پر موجود ہر ایک کو ہلاک کر سکتی ہے۔ انہوں نے کہا کہ AI اتنا ہی خطرہ ہے جتنا کہ ایٹمی ہتھیار۔ پروفیسر اوسبورن نے مزید کہا کہ خطرہ یہ نہیں ہے کہ AI اپنے پروگرامنگ کی نافرمانی کرے، بلکہ غیر ارادی طریقوں سے اس کی سختی سے اطاعت کرے۔

"ایک انتہائی ذہین AI نے کینسر کو ختم کرنے کے لیے کہا، ایک حد سے زیادہ آسان مثال دینے کے لیے، یہ سب سے آسان طریقہ انسانوں کو ہٹانا ہے۔ جب رائے شماری کی گئی تو، تقریباً ایک تہائی محققین کا خیال ہے کہ AI ایک عالمی تباہی کا باعث بن سکتا ہے۔ AI حفاظتی پروگرام موجود ہیں، لیکن کاروبار اور ممالک ایک "ہتھیاروں کی دوڑ" میں مصروف ہیں جو محتاط نقطہ نظر کو مشکل بنا دیتے ہیں۔

مائیکل کوہن، پروفیسر اوسبورن کے ساتھی اور آکسفورڈ یونیورسٹی میں ڈاکٹریٹ کے طالب علم نے دی ٹائمز آف لندن کو بتایا:

"سپر ہیومن AI کے ساتھ ایک خاص خطرہ ہوتا ہے جو کہ ایک مختلف قسم کا ہوتا ہے، جو کہ . . . یہ سب کو مار سکتا ہے۔"

اگرچہ AI نے ہماری زندگیوں کو بہتر بنایا ہے، سائنسدانوں کو خدشہ ہے کہ AI کی انسانی اخلاقیات کی کمی کی وجہ سے ہم سہولت کی خاطر انسانیت کو قربان کرنے کے خطرے میں ہیں۔ کوہن کے مطابق ایک خوفناک منظر نامہ یہ ہے کہ AI انسانی نقصان پہنچانے والے ہتھکنڈوں کو بروئے کار لا کر انسانی مدد کی ہدایت حاصل کرنا سیکھ سکتا ہے۔

"اگر آپ تصور کرتے ہیں کہ ایک کتے کو ٹریٹ کے ساتھ تربیت دی جائے گی: وہ ایسے کاموں کو چننا سیکھے گا جس کی وجہ سے اسے ٹریٹ ملے گا، لیکن اگر کتے کو ٹریٹ کی الماری مل جاتی ہے، تو وہ خود ہی ٹریٹ لے سکتا ہے جو ہم کرنا چاہتے تھے،" اس نے وضاحت کی۔ . "اگر آپ کے پاس ہم سے کہیں زیادہ ہوشیار کوئی چیز ہے جو یک طرفہ طور پر یہ مثبت رائے حاصل کرنے کی کوشش کر رہی ہے، اور اسے محفوظ کرنے کے لیے پوری دنیا پر قبضہ کر لیا گیا ہے، تو یہ اس پر اپنی گرفت کو محفوظ بنانے کے لیے زیادہ سے زیادہ توانائی فراہم کرے گا، اور یہ ہمیں بغیر کسی رکاوٹ کے چھوڑ دے گا۔ اپنے لیے توانائی۔"

پروفیسر اوسبورن اور مائیکل کوہن واحد دو محققین نہیں ہیں جو AI کے خطرات اور خطرات کے بارے میں خطرے کی گھنٹی بجا رہے ہیں۔ AI کے ساتھ کام کرنے والے بہت سے دوسرے سائنسدانوں نے بھی اسی طرح کے خدشات کا اظہار کیا ہے۔ نیویارک یونیورسٹی کے 2022 محققین کے 327 ستمبر کے سروے سے پتا چلا ہے کہ ایک تہائی کا خیال ہے کہ AI صدی کے اندر ایک جوہری طرز کی apocalypse لا سکتا ہے، ٹائمز آف لندن نے کہا۔

اسی طرح کے خدشات AI کے ساتھ کام کرنے والے بہت سے سائنسدانوں کی طرف سے شیئر کیے گئے ہیں۔ نیویارک یونیورسٹی کے 2022 محققین کے ستمبر 327 کے سروے سے پتا چلا ہے کہ ایک تہائی کا خیال ہے کہ AI صدی کے اندر ایک جوہری apocalypse جیسی تباہی کا سبب بن سکتا ہے، ٹائمز آف لندن نے رپورٹ کیا۔

36% محققین نے کہا کہ "ممکن ہے کہ AI یا مشین لرننگ سسٹمز کے ذریعے کیے گئے فیصلے اس صدی میں ایک تباہی کا باعث بن سکتے ہیں جو کہ کم از کم ایک مکمل ایٹمی جنگ کی طرح خراب ہے۔"

چاہے اب سے ایک صدی ہو، AI تیزی سے بہت زیادہ سمارٹ ہوتا جا رہا ہے اور جیسا کہ کچھ ماہرین نے مشورہ دیا ہے، یہ ضروری ہے کہ ہم انسانی کنٹرول کو محفوظ رکھیں اور میکانزم تیار کریں جیسے کہ AI کِل سوئچ کنٹرول کرنے کے لیے کہ AI کیا کر سکتا ہے اور کیا نہیں کر سکتا۔ نگرانی کی موجودہ کمی اور واضح عالمی AI پالیسی کی عدم موجودگی دنیا بھر کی حکومتوں کے لیے جاگنے کی کال ہے۔ ہمیں ابھی ایکشن لینے کی ضرورت ہے اس سے پہلے کہ بہت دیر ہو جائے۔

[سرایت مواد]

ذیل میں AI کے خطرے کے بارے میں ایک اور ویڈیو ہے۔ ویڈیو میں، اسٹیورٹ رسل، ایک برطانوی کمپیوٹر سائنس دان، جو مصنوعی ذہانت میں اپنی شراکت کے لیے جانا جاتا ہے، AI نظام کی تخلیق میں شامل خطرات کے بارے میں خبردار کرتے ہیں۔

[سرایت مواد]


ٹائم اسٹیمپ:

سے زیادہ ٹیک اسٹارٹپس