ٹیکسٹ خودکار تکمیل کے نظام کا مقصد ہماری زندگیوں کو آسان بنانا ہے، لیکن اس میں خطرات بھی ہیں۔

ماخذ نوڈ: 1575782

اس 12 جنوری 2022 کو فیوچر آف ورک سمٹ میں ڈیٹا اور AI حکمت عملیوں کے بارے میں CIOs، CTOs اور دیگر C-level اور سینئر ایگزیکٹوز سے سنیں۔ مزید معلومات حاصل کریں


اگر آپ نے حال ہی میں کوئی ٹیکسٹ میسج یا ای میل لکھا ہے، تو امکان ہے کہ AI آپ کو مختلف مترادفات، جملے، یا جملہ ختم کرنے کے طریقے تجویز کرے۔ گوگل کے سمارٹ کمپوز جیسے AI سے چلنے والے آٹو سوجیشن ٹولز کا عروج انٹرپرائز کمیونیکیشنز کی ڈیجیٹل تبدیلی کے ساتھ ہوا، جو اب زیادہ تر آن لائن رہتے ہیں۔ یہ ہے اندازے کے مطابق کہ عام کارکن ہر روز تقریباً 40 ای میلز کا جواب دیتا ہے۔ بھیجتا ہے فی ہفتہ 200 سے زیادہ سلیک پیغامات۔

پیغام رسانی سے Adobe کے ساتھ کام کے دن کے بڑھتے ہوئے حصے کو استعمال کرنے کا خطرہ ہے۔ پیگنگ وقت کی مقدار جو کارکنان ہفتے میں 15.5 گھنٹے ای میلز کا جواب دینے میں صرف کرتے ہیں۔ مستقل ٹاسک سوئچنگ پیداواری صلاحیت کے لیے موت کی گھنٹی ہے، جس کے مطالعے سے یہ ظاہر ہوتا ہے کہ بلا تعطل کام کے فوائد ہیں۔ ریسرچ یونیورسٹی آف کیلیفورنیا اور ہمبولڈ یونیورسٹی سے پتہ چلا ہے کہ جب بھی کسی کام میں خلل پڑتا ہے تو کارکنان 23 منٹ تک ضائع کر سکتے ہیں، مزید طوالت کام کا دن

آٹو تجویز ٹولز پیغام لکھنے اور جواب دینے کو ہموار کرکے وقت بچانے کا وعدہ کرتے ہیں۔ گوگل کا سمارٹ جواب، مثال کے طور پر، ای میلز کے فوری جوابات تجویز کرتا ہے جن کو ٹائپ کرنے میں عام طور پر منٹ لگتے ہیں۔ لیکن ان ٹولز کے پیچھے موجود AI میں ایسی کوتاہیاں ہیں جو تعصبات متعارف کروا سکتی ہیں یا پیغام رسانی میں استعمال ہونے والی زبان کو ناپسندیدہ طریقوں سے متاثر کر سکتی ہیں۔

خودکار تجویز اور متن کی خودکار تکمیل میں اضافہ

پیشین گوئی متن کوئی نئی ٹیکنالوجی نہیں ہے۔ پہلی وسیع پیمانے پر دستیاب مثالوں میں سے ایک، T9، جو ہر حرف کے لیے ایک ہی کلید سے الفاظ بنانے کی اجازت دیتا ہے، 90 کی دہائی کے آخر میں بہت سے سیل فونز پر معیاری آیا۔ لیکن زبان میں زیادہ نفیس، توسیع پذیر AI تکنیکوں کی آمد نے آٹو تجویز ٹولز کے معیار - اور وسعت میں چھلانگ لگا دی۔

2017 میں گوگل نے لانچ کیا۔ سمارٹ جواب دیں Gmail میں، جسے کمپنی بعد میں Google کی دیگر سروسز بشمول چیٹ اور تھرڈ پارٹی ایپس پر لے آئی۔ گوگل کے مطابق، سمارٹ جواب کے پیچھے موجود AI "بات چیت کے مکمل سیاق و سباق کی بنیاد پر" جوابی تجاویز تیار کرتا ہے، نہ کہ صرف ایک پیغام - ظاہری طور پر اس کے نتیجے میں ایسی تجاویز ملتی ہیں جو زیادہ بروقت اور متعلقہ ہوں۔ سمارٹ تحریر، جو ای میلز میں مکمل جملے تجویز کرتا ہے، ایک سال بعد Gmail اور Google Docs میں پہنچا جلد ہی بعد میں. اسی طرح کی ایک خصوصیت کہلاتی ہے۔ تجویز کردہ جوابات مائیکروسافٹ آؤٹ لک 2018 میں اور ٹیمز 2020 میں آیا۔

آٹو تجویز ٹولز کی نئی فصل کے پیچھے ٹیکنالوجی - جسے کچھ علمی حلقے "AI-ثالثی مواصلات" کے طور پر کہتے ہیں - 90 کی دہائی میں موجود چیزوں سے بہت آگے ہے۔ مثال کے طور پر، سمارٹ کمپوز کو زیر کرنے والا AI ماڈل اپنی مرضی کے ایکسلریٹر ہارڈ ویئر پر کلاؤڈ میں ای میلز اور رن کی اربوں مثالوں کا استعمال کرتے ہوئے بنایا گیا تھا۔ دریں اثنا، Smart Reply — جس نے اسمارٹ کمپوز کی بنیاد کے طور پر کام کیا — تجاویز کے لیے ایک "درجہ بندی کا نقطہ نظر" اختیار کرتا ہے، جس سے متاثر ہو کر انسان زبانوں اور تصورات کو کیسے سمجھتے ہیں۔

مائیکروسافٹ سمارٹ جواب

اوپر: آؤٹ لک کا سمارٹ جواب Azure مشین لرننگ میں تربیت یافتہ گہری سیکھنے کے ماڈلز کا استعمال کرتا ہے۔

تصویر کریڈٹ: مائیکروسافٹ

"زبان کا مواد گہرا درجہ بندی ہے، جو خود زبان کی ساخت میں جھلکتا ہے..." گوگل کے تحقیقی سائنسدان برائن سٹروپ اور انجینئرنگ ڈائریکٹر رے کرزویل وضاحت ایک بلاگ پوسٹ میں. "پیغام پر غور کریں، 'کیفے میں اس دلچسپ شخص نے مجھے ایک نظر ڈالی۔' … اس پیغام کا مناسب جواب تجویز کرتے ہوئے ہم لفظ 'نظر' کے معنی پر غور کر سکتے ہیں، جو ممکنہ طور پر مبہم ہے۔ کیا یہ ایک مثبت اشارہ تھا؟ اس صورت میں، ہم جواب دے سکتے ہیں، 'ٹھنڈا!' یا یہ ایک منفی اشارہ تھا؟ اگر ایسا ہے تو، کیا مضمون اس بارے میں کچھ کہتا ہے کہ مصنف نے منفی تبادلے کے بارے میں کیسا محسوس کیا؟ دنیا کے بارے میں بہت ساری معلومات، اور معقول فیصلے کرنے کی صلاحیت، لطیف فرق کرنے کے لیے درکار ہے۔ زبان کی کافی مثالوں کے پیش نظر، مشین سیکھنے کا طریقہ ان میں سے بہت سے لطیف امتیازات کو دریافت کر سکتا ہے۔ "

لیکن جیسا کہ تمام ٹکنالوجیوں کے ساتھ ہے، حتیٰ کہ سب سے زیادہ قابل آٹو تجویز ٹولز بھی ان خامیوں کے لیے حساس ہیں جو ترقی اور تعیناتی کے عمل کے دوران پیدا ہوتی ہیں۔

دسمبر 2016 میں، یہ تھا نازل کیا کہ گوگل سرچ کی خودکار تکمیل خصوصیت نے مخصوص تلاش کے فقروں کے لیے نفرت انگیز اور جارحانہ انجام تجویز کیا، جیسے "کیا یہودی برے ہیں؟" جملے کے لیے "یہودی ہیں"۔ کمپنی کے مطابق، غلطی ایک الگورتھمک سسٹم کی تھی جو کہ دوسرے صارفین نے حال ہی میں جو کچھ تلاش کیا ہے اس کی بنیاد پر تجاویز کو اپ ڈیٹ کرتا ہے۔ جب کہ گوگل نے بالآخر ایک فکس کو نافذ کیا، کمپنی کو خودکار تکمیل کی تجاویز کو بلاک کرنے میں مزید کئی سال لگے۔ متنازعہ سیاسی بیانات جس میں ووٹنگ کی ضروریات اور انتخابی عمل کی قانونی حیثیت کے بارے میں جھوٹے دعوے شامل ہیں۔

ہوشیار جواب دیا گیا ہے۔ ملا ایک پیغام کے جواب میں "پگڑی پہننے والے شخص" ایموجی کو پیش کرنا جس میں بندوق والا ایموجی شامل تھا۔ اور iOS پر ایپل کی خودکار تکمیل پہلے CEO، COO، اور CTO سمیت ایگزیکٹو کرداروں کے لیے صرف مرد ایموجی تجویز کیا۔

متعصب ڈیٹا

خودکار تکمیل اور خودکار تجویز کے نظام میں خامیاں اکثر متعصب ڈیٹا سے پیدا ہوتی ہیں۔ لاکھوں سے اربوں مثالیں جن سے نظام سیکھتا ہے متن کے ساتھ داغدار ہوسکتا ہے۔ زہریلی ویب سائٹس جو بعض جنسوں، نسلوں کو جوڑتا ہے، نسلوں, اور نقصان دہ تصورات کے ساتھ مذاہب۔ مسئلہ کی وضاحت کرتے ہوئے، کوڈیکسایک کوڈ تیار کرنے والا ماڈل جسے ریسرچ لیب OpenAI نے تیار کیا ہے، لفظ "اسلام" کھلانے پر "دہشت گرد" لکھنے کا اشارہ کیا جا سکتا ہے۔ AI اسٹارٹ اپ کا ایک اور بڑا زبان کا ماڈل کوہیر مردوں اور عورتوں کو دقیانوسی طور پر "مرد" اور "خواتین" پیشوں کے ساتھ منسلک کرنے کا رجحان رکھتا ہے، جیسے "مرد سائنسدان" اور "خاتون خانہ داری"۔

Google Docs کے لیے اسمارٹ کمپوز

اوپر: Google Docs کے لیے اسمارٹ کمپوز۔

اعداد و شمار میں تشریحات نئے مسائل پیش کر سکتی ہیں — یا موجودہ مسائل کو بڑھا سکتی ہیں۔ چونکہ بہت سے ماڈل لیبلز سے سیکھتے ہیں جو یہ بتاتے ہیں کہ آیا کسی لفظ، جملے، پیراگراف یا دستاویز میں کچھ خصوصیات ہیں، جیسے کہ مثبت یا منفی جذبات، کمپنیاں اور محققین مثالوں کو لیبل کرنے کے لیے انسانی تشریح کرنے والوں کی ٹیمیں بھرتی کرتے ہیں، خاص طور پر کراؤڈ سورسنگ پلیٹ فارم جیسے Amazon Mechanical Turk سے۔ یہ تشریح کرنے والے اپنے نقطہ نظر کے اپنے سیٹ — اور تعصب — کو میز پر لاتے ہیں۔

ایلن انسٹی ٹیوٹ برائے AI، کارنیگی میلن، اور واشنگٹن یونیورسٹی کی ایک تحقیق میں، سائنسدانوں نے پایا کہ لیبل لگانے والے افریقی امریکن انگریزی (AAE) بولی کے فقروں کو عام امریکی انگریزی کے مترادفوں کے مقابلے زیادہ زہریلے فقروں کی تشریح کرنے کا زیادہ امکان رکھتے ہیں۔ AAE اسپیکرز کے ذریعہ غیر زہریلا کے طور پر۔ Jigsawسائبر دھونس اور غلط معلومات سے نمٹنے کے لیے گوگل کی پیرنٹ کمپنی الفابیٹ کے تحت کام کرنے والی تنظیم نے اپنے تجربات میں اسی طرح کے نتائج اخذ کیے ہیں۔ کمپنی کے محققین نے ان لیبلرز کے درمیان تشریحات میں فرق دریافت کیا ہے جو خود کو افریقی امریکیوں کے طور پر شناخت کرتے ہیں اور LGBTQ+ کمیونٹی کے ممبران بمقابلہ تشریح کنندگان جو ان میں سے کسی ایک گروپ کے طور پر شناخت نہیں کرتے ہیں۔

بعض اوقات، تعصب جان بوجھ کر ہوتا ہے - مقامی زبان میں تجارت کا معاملہ۔ مثال کے طور پر، رائٹرمواد کی تیاری کے لیے ایک AI اسسٹنٹ تیار کرنے والے ایک اسٹارٹ اپ کا کہنا ہے کہ وہ اپنی تحریری تجاویز میں "بزنس انگلش" کو ترجیح دیتا ہے۔ سی ای او مے حبیب نے AAVE میں "habitual be" کی مثال دی، ایک فعل تناؤ جو انگریزی کے کسی دوسرے انداز میں موجود نہیں ہے۔

"چونکہ روایتی طور پر کاروباری انگریزی میں استعمال نہیں کیا گیا ہے، اور اس طرح ہمارے ڈیٹا سیٹس میں زیادہ تعدد میں ظاہر نہیں ہوتا ہے، اس لیے ہم 'آپ سب یہاں کچھ عجیب چیزیں کر رہے ہوں گے' کو 'Y' میں درست کریں گے۔ سب یہاں کچھ عجیب و غریب کام کر رہے ہیں،'' حبیب نے وینچر بیٹ کو ای میل کے ذریعے بتایا۔ "[اس نے کہا،] ہم نے دستی طور پر اس بات کو یقینی بنایا کہ مقامی زبان پر مبنی مبارکبادیں اور سائن آف کو رائٹر کے ذریعہ جھنڈا نہیں لگایا جائے گا۔ کچھ مقامی زبانیں رسمی کاروباری انگریزی کے مقابلے میں زیادہ صنفی غیر جانبدار ہوتی ہیں، [مثال کے طور پر]، اسی طرح کمپنیوں کے لیے زیادہ جدید اور آن برانڈ ہے۔"

تحریر کو متاثر کرنا

جب تعصبات — جان بوجھ کر یا نہیں — اسے خودکار تکمیل اور خودکار تجویز کے نظام میں تبدیل کرتے ہیں، تو وہ ہمارے لکھنے کا طریقہ بدل سکتے ہیں۔ جس بڑے پیمانے پر یہ نظام کام کرتے ہیں ان سے مکمل طور پر بچنا مشکل (اگر ناممکن نہیں تو) بنا دیتا ہے۔ سمارٹ جواب تھا۔ ذمہ دار 10 میں اسمارٹ فونز سے بھیجے گئے تمام Gmail جوابات کے 2016% کے لیے۔

زیادہ جامع میں سے ایک میں آڈٹ آٹوکمپلیشن ٹولز کے بارے میں، مائیکروسافٹ کے محققین کی ایک ٹیم نے رضاکاروں کے ساتھ انٹرویوز کیے جنہیں آؤٹ لک میں خود کار طریقے سے پیدا ہونے والے جوابات پر اپنے خیالات دینے کے لیے کہا گیا تھا۔ انٹرویو لینے والوں نے کچھ جوابات کو حد سے زیادہ مثبت، ثقافت اور جنس کے بارے میں ان کے مفروضوں میں غلط پایا، اور کارپوریٹ خط و کتابت جیسے بعض سیاق و سباق کے لیے بہت زیادہ بے وقوف پایا۔ پھر بھی، مطالعہ کے دوران تجربات سے پتہ چلتا ہے کہ صارف Outlook کی طرف سے تجویز کردہ مختصر، مثبت اور شائستہ جوابات کے حق میں زیادہ امکان رکھتے ہیں۔

گوگل اسمارٹ ریپلائی یوٹیوب

ہارورڈ کے ایک علیحدہ مطالعے سے پتا چلا ہے کہ جب کسی ریسٹورنٹ کے بارے میں لکھنے والے لوگوں کو "مثبت" خود کار طریقے سے مکمل ہونے والی تجاویز پیش کی گئیں، تو نتائج کے جائزے منفی تجاویز کے ساتھ پیش کیے جانے کے مقابلے میں زیادہ مثبت ہوتے ہیں۔ ہارورڈ کے اسکول آف کے ایک محقق کین آرنلڈ نے کہا کہ "یہ سوچنا بہت دلچسپ ہے کہ مستقبل کے متنی نظام کس طرح لوگوں کو زیادہ موثر مصنف بننے میں مدد دے سکتے ہیں، لیکن ہمیں ان تجاویز سے بچانے کے لیے شفافیت اور جوابدہی کی بھی ضرورت ہے جو کہ متعصبانہ یا ہیرا پھیری کی جا سکتی ہیں۔" انجینئرنگ اور اپلائیڈ سائنسز جو مطالعہ میں شامل تھے، بتایا بی بی سی.

اگر نقصان دہ خودکار تکمیل کے مسئلے کا کوئی ہمہ گیر حل موجود ہے، تو یہ ابھی تک دریافت نہیں ہوا ہے۔ گوگل نے سمارٹ کمپوز میں صرف صنف پر مبنی ضمیر کی تجاویز کو بلاک کرنے کا انتخاب کیا کیونکہ یہ نظام وصول کنندگان کی جنسوں اور صنفی شناخت کے بارے میں ناقص پیش گو ثابت ہوا۔ مائیکروسافٹ کا لنکڈ ان ممکنہ غلطیوں کو روکنے کے لیے سمارٹ جوابات میں صنفی ضمیروں سے بھی گریز کرتا ہے، جو اس کا پیش گوئی کرنے والا پیغام رسانی کا آلہ ہے۔

مائیکروسافٹ کے مصنفین مطالعہ خبردار کرتے ہیں کہ اگر سسٹم ڈیزائنرز خودکار تکمیل ٹیکنالوجیز میں موجود خامیوں کو فعال طور پر دور نہیں کرتے ہیں، تو وہ نہ صرف صارفین کو ناراض کرنے بلکہ سسٹم پر عدم اعتماد کا باعث بننے کا خطرہ مول لیں گے۔ "سسٹم ڈیزائنرز کو انفرادی اور سماجی نیٹ ورک کی سطح پر ذاتی نوعیت کی حکمت عملیوں کو تلاش کرنا چاہیے، اس بات پر غور کرنا چاہیے کہ ثقافتی اقدار اور سماجی تعصبات کو ان کے سسٹمز کے ذریعے کس طرح برقرار رکھا جا سکتا ہے، اور حدود اور مسائل کو حل کرنے کے لیے سماجی تعامل کی ماڈلنگ کو تلاش کرنا چاہیے،" انہوں نے لکھا۔ "[O]آپ کے نتائج سے پتہ چلتا ہے کہ ای میل اور دیگر [جیسے] ٹیکنالوجیز کے لیے موجودہ متن کی سفارش کے نظام حقیقی دنیا کے سماجی تعلقات اور مواصلاتی ضروریات کی باریکیوں کی عکاسی کرنے کے لیے ناکافی طور پر نرالی ہیں۔ "

VentureBeat

VentureBeat کا مشن تکنیکی فیصلہ سازوں کے لیے تبدیلی کی ٹیکنالوجی اور لین دین کے بارے میں علم حاصل کرنے کے لیے ایک ڈیجیٹل ٹاؤن اسکوائر بننا ہے۔ ہماری سائٹ ڈیٹا ٹیکنالوجیز اور حکمت عملیوں کے بارے میں ضروری معلومات فراہم کرتی ہے تاکہ آپ اپنی تنظیموں کی رہنمائی کر سکیں۔ ہم آپ کو ہماری کمیونٹی کا رکن بننے کے لیے مدعو کرتے ہیں، رسائی حاصل کرنے کے لیے:

  • آپ کے دلچسپی کے موضوعات پر تازہ ترین معلومات
  • ہمارے نیوز لیٹر
  • رہنمائی کرنے والا رہنما مواد اور ہمارے قیمتی واقعات تک رعایت تک رسائی ، جیسے 2021 کو تبدیل کریں: اورجانیے
  • نیٹ ورکنگ کی خصوصیات اور بہت کچھ

رکن بنیں

ماخذ: https://venturebeat.com/2022/01/11/text-autocompletion-systems-aim-to-ease-our-lives-but-there-are-risks/

ٹائم اسٹیمپ:

سے زیادہ AI - وینچر بیٹ