RAPIDS کے ساتھ GPU سے چلنے والا ڈیٹا سائنس (ڈیپ لرننگ نہیں)

ماخذ نوڈ: 997659

RAPIDS کے ساتھ GPU سے چلنے والا ڈیٹا سائنس (ڈیپ لرننگ نہیں)

اپنے GPU کی طاقت کو باقاعدگی سے ڈیٹا سائنس اور مشین لرننگ کے لیے کیسے استعمال کریں چاہے آپ بہت زیادہ گہرا سیکھنے کا کام نہ بھی کریں۔



ہیڈر تصویر
تصویری ماخذPixabay (مفت تصویر)

کیا آپ "GPU سے چلنے والی ڈیٹا سائنس" تلاش کر رہے ہیں؟

 
 
اپنے آپ کو ڈیٹا سائنسدان، یا کاروباری تجزیہ کار، یا فزکس/اکنامکس/نیوروسائنس میں اکیڈمک محقق ہونے کا تصور کریں…

آپ بہت کچھ کرتے ہیں۔ ڈیٹا جھگڑا، صفائی، شماریاتی ٹیسٹ، تصورات ایک باقاعدہ بنیاد پر. آپ کو بھی بہت کچھ کے ساتھ ٹنکر لکیری ماڈل ڈیٹا کو فٹ کرنا اور کبھی کبھار داخل کرنا رینڈم فاریسٹ. آپ بھی اس میں شامل ہیں۔ clustering کے بڑے ڈیٹا سیٹس۔ کافی واقف لگتا ہے؟

تاہم، آپ جن ڈیٹاسیٹس پر کام کرتے ہیں ان کی نوعیت کو دیکھتے ہوئے (زیادہ تر ٹیبلر اور ڈھانچہ)، آپ اتنی گہری سیکھنے کی کوشش نہیں کرتے۔ آپ اپنے پاس موجود تمام ہارڈویئر وسائل کو ان چیزوں میں ڈالیں گے جو آپ درحقیقت روزانہ کی بنیاد پر کرتے ہیں، بجائے اس کے کہ آپ کچھ فینسی ڈیپ لرننگ ماڈل پر خرچ کریں۔ ایک بار پھر، واقف؟

آپ نے حیرت انگیز طاقت اور تیز رفتار حساب کی صلاحیت کے بارے میں سنا ہے۔ GPU سسٹمز جیسے NVidia سے ہر قسم کے صنعتی اور سائنسی ایپلی کیشنز کے لیے۔

اور، آپ سوچتے رہیں - "میرے لیے کیا ہے؟ میں اپنے مخصوص ورک فلو میں سیمی کنڈکٹر کے ان طاقتور ٹکڑوں سے کیسے فائدہ اٹھا سکتا ہوں۔؟ "

آپ GPU سے چلنے والے ڈیٹا سائنس کی تلاش کر رہے ہیں۔

اس نقطہ نظر کا اندازہ کرنے کے لیے آپ کے بہترین (اور تیز ترین) اختیارات میں سے ایک کا مجموعہ استعمال کرنا ہے۔ زحل کا بادل + ریپڈزمیں تفصیل سے بتاتا ہوں…

AI/ML لوک داستانوں میں GPUs بنیادی طور پر گہری سیکھنے کے لیے ہوتے ہیں۔

 
 
جبکہ GPUs اور تقسیم شدہ کمپیوٹنگ کے استعمال پر تعلیمی اور کاروباری حلقوں میں بنیادی AI/ML کاموں کے لیے بڑے پیمانے پر بحث کی جاتی ہے (مثلاً 1000 پرت کا گہرا نیورل نیٹ ورک تصویر کی درجہ بندی کے لیے یا بلین پیرامیٹر BERT اسپیچ سنتھیسز ماڈل)، جب باقاعدہ ڈیٹا سائنس اور ڈیٹا انجینئرنگ کے کاموں کے لیے ان کی افادیت کی بات آتی ہے تو انہیں کم کوریج ملی ہے۔

اس کے باوجود، ڈیٹا سے متعلقہ کام AI پائپ لائن میں کسی بھی ML ورک بوجھ کا لازمی پیش خیمہ ہیں۔ اور وہ اکثر تشکیل دیتے ہیں وقت اور فکری کوشش کا ایک اکثریتی حصہ ڈیٹا سائنسدان یا یہاں تک کہ ایک ایم ایل انجینئر کے ذریعہ خرچ کیا گیا ہے۔ حال ہی میں، مشہور AI سرخیل
اینڈریو این جی کے متعلق بات کرنا ماڈل سینٹرک سے ڈیٹا سینٹرک اپروچ کی طرف AI کی طرف بڑھنا اوزار کی ترقی. اس کا مطلب یہ ہے کہ خام ڈیٹا کے ساتھ بہت زیادہ وقت گزارنا اور آپ کی پائپ لائن پر حقیقی AI کام کا بوجھ مکمل ہونے سے پہلے اسے پہلے سے پروسیس کرنا۔

تو، اہم سوال یہ ہے کہ: کیا ہم ڈیٹا پروسیسنگ کی باقاعدہ ملازمتوں کے لیے GPU اور تقسیم شدہ کمپیوٹنگ کی طاقت کا فائدہ اٹھا سکتے ہیں۔?



تصویری ماخذ: مصنف نے مفت تصاویر سے کولیج بنایا (Pixabay)

 

اگرچہ GPUs اور تقسیم شدہ کمپیوٹنگ کے استعمال پر تعلیمی اور کاروباری حلقوں میں بنیادی AI/ML کاموں کے لیے بڑے پیمانے پر تبادلہ خیال کیا جاتا ہے، لیکن انھوں نے ڈیٹا سائنس اور ڈیٹا انجینئرنگ کے باقاعدہ کاموں کے لیے اپنی افادیت میں کم کوریج پائی ہے۔

لاجواب RAPIDS ماحولیاتی نظام

 
 
۔ سافٹ ویئر لائبریریوں اور APIs کا RAPIDS سوٹ آپ کو — ایک باقاعدہ ڈیٹا سائنسدان (اور ضروری نہیں کہ ایک گہری سیکھنے والا پریکٹیشنر ہو) — پر عمل کرنے کا اختیار اور لچک اینڈ ٹو اینڈ ڈیٹا سائنس اور اینالیٹکس پائپ لائنز مکمل طور پر GPUs پر۔

اس اوپن سورس پروجیکٹ کو Nvidia نے CUDA پرائمیٹوز سے فائدہ اٹھانے کے لیے ٹولز بنا کر انکیوبیٹ کیا تھا۔ یہ خاص طور پر توجہ مرکوز کرتا ہے ڈیٹا سائنس کے موافق ازگر کی زبان کے ذریعے GPU متوازی اور ہائی بینڈوتھ میموری کی رفتار کی خصوصیات کو اجاگر کرنا.

عام ڈیٹا کی تیاری اور جھگڑے کے کام RAPIDS ماحولیاتی نظام میں ان کی بہت زیادہ قدر ہے۔ یہ بھی ایک اہم رقم قرض دیتا ہے ملٹی نوڈ، ملٹی جی پی یو تعیناتی، اور تقسیم شدہ پروسیسنگ کے لیے سپورٹ. جہاں بھی ممکن ہو، یہ دوسری لائبریریوں کے ساتھ ضم ہوجاتا ہے جو بناتی ہیں۔ یادداشت سے باہر (یعنی ڈیٹا سیٹ کا سائز انفرادی کمپیوٹر RAM سے بڑا) ڈیٹا پروسیسنگ آسان اور انفرادی ڈیٹا سائنسدانوں کے لیے قابل رسائی۔



تصویری ماخذ: مصنف نے کولیج بنایا

 

تین سب سے نمایاں (اور پائتھونک) اجزاء - جو عام ڈیٹا سائنسدانوں کے لیے خاص دلچسپی رکھتے ہیں - ہیں،

  • CuPy: CUDA سے چلنے والی ایک اری لائبریری جو بالکل Numpy کی طرح دکھتی اور محسوس کرتی ہے، جب کہ مختلف CUDA لائبریریوں کا استعمال کرتے ہوئے جیسے، cuBLAS، cuDNN، cuRand، cuSolver، CUSPARSE، cuFFT، اور NCCL نیچے موجود GPU فن تعمیر کا پورا فائدہ اٹھانے کے لیے۔
  • سی یو ڈی ایف: یہ ایک GPU ڈیٹا فریم لائبریری ہے جس میں ڈیٹا کو لوڈ کرنے، جمع کرنے، جوائن کرنے، فلٹر کرنے اور جوڑ توڑ کے لیے پانڈا جیسا API۔ ڈیٹا انجینئرز اور ڈیٹا سائنسدان CUDA پروگرامنگ کے نٹ اور بولٹس کو سیکھے بغیر طاقتور GPUs کا استعمال کرتے ہوئے آسانی سے اپنے ٹاسک فلو کو تیز کرنے کے لیے اسے استعمال کر سکتے ہیں۔
  • CuML: یہ لائبریری ڈیٹا سائنسدانوں، تجزیہ کاروں، اور محققین کو روایتی/کلاسیکی ایم ایل الگورتھم اور متعلقہ پروسیسنگ کے کاموں کو چلانے کے قابل بناتی ہے جو مکمل طور پر GPU کی طاقت سے فائدہ اٹھاتے ہیں۔ قدرتی طور پر، یہ زیادہ تر ٹیبلر ڈیٹاسیٹس کے ساتھ استعمال ہوتا ہے۔ Scikit-learn کے بارے میں سوچیں اور یہ آپ کے GPU کارڈ پر موجود سینکڑوں Cuda اور Tensor Cores کے ساتھ کیا کر سکتا ہے! اس کی طرف اشارہ کرتے ہوئے، زیادہ تر معاملات میں، cuML کا Python API Scikit-learn سے میل کھاتا ہے۔ اس کے علاوہ، یہ پیش کرنے کی کوشش کرتا ہے ملٹی جی پی یو اور ملٹی نوڈ جی پی یو سپورٹ by کے ساتھ خوبصورتی سے انضمام ڈسکحقیقی تقسیم شدہ پروسیسنگ/کلسٹر کمپیوٹنگ کا فائدہ اٹھانے کے لیے جہاں کہیں بھی ہو سکتا ہے۔


کیا ہم منظم ڈیٹا کے ساتھ ڈیٹا پروسیسنگ کے کاموں اور مشین لرننگ کے لیے GPU اور تقسیم شدہ کمپیوٹنگ کی طاقت کا فائدہ اٹھا سکتے ہیں؟

کیا یہ اپاچی اسپارک کے استعمال سے مختلف ہے؟

 
 
آپ پوچھ سکتے ہیں کہ یہ GPU سے چلنے والی ڈیٹا پروسیسنگ Apache Spark کے استعمال سے کیسے مختلف ہے۔ درحقیقت، کچھ ٹھیک ٹھیک فرق ہیں، اور حال ہی میں، Spark 3.0 کے ساتھ، GPUs Spark ورک بوجھ کے لیے مرکزی دھارے کا ایک وسیلہ ہیں۔

GPUs اور RAPIDS کے ساتھ Apache Spark 3.0 کو تیز کرنا | NVIDIA ڈویلپر بلاگ
 

ہمارے پاس اس GPU سے چلنے والے ڈیٹا سائنس اپروچ بمقابلہ بگ ڈیٹا ٹاسکس کے انوکھے فرق پر بات کرنے کے لیے وقت یا جگہ نہیں ہے جو خاص طور پر Apache Spark کے لیے موزوں ہیں۔ لیکن اپنے آپ سے یہ سوالات پوچھیں اور شاید آپ کو یہ لطیف فرق سمجھ آ جائے گا،

"ایک ڈیٹا سائنٹسٹ کے طور پر جو معاشی لین دین اور پورٹ فولیو مینجمنٹ کو ماڈل بناتا ہے، میں حل کرنا چاہتا ہوں۔ مساوات کا لکیری نظام 100,000 متغیرات کے ساتھ۔ کیا میں خالص لکیری الجبرا لائبریری یا اپاچی اسپارک استعمال کرتا ہوں؟؟ "

"امیج کمپریشن پائپ لائن کے حصے کے طور پر، میں استعمال کرنا چاہتا ہوں۔ واحد قدر کی سڑن لاکھوں اندراجات کے بڑے میٹرکس پر۔ کیا اپاچی اسپارک اس کے لیے ایک اچھا انتخاب ہے؟؟ "

بڑے مسئلے کے سائز کا مطلب ہمیشہ اپاچی اسپارک یا ہڈوپ ماحولیاتی نظام نہیں ہوتا ہے۔ بگ کمپیوٹیشن بگ ڈیٹا کے برابر نہیں ہے۔ ایک اچھی طرح سے ڈیٹا سائنسدان کے طور پر، آپ کو ہر قسم کے مسائل سے نمٹنے کے لیے دونوں کو جاننے کی ضرورت ہے۔

RAPIDS خاص طور پر توجہ مرکوز کرتا ہے۔ Python APIs کے ذریعے GPU متوازی اور ہائی بینڈوتھ میموری کی رفتار کی خصوصیات کو بے نقاب کرنا۔

ہم اس مضمون میں کیا دکھا رہے ہیں؟

 
 

صرف CuPy اور CuML کی کرکرا مثالیں۔

 
لہذا، اس مضمون میں، ہم صرف CuPy اور CuML کی کرکرا مثالوں کا مظاہرہ کریں گے،

  • وہ کس طرح (رفتار میں) متعلقہ Numpy اور Scikit-learn فنکشنز/ تخمینہ کاروں سے موازنہ کرتے ہیں
  • اس رفتار کے مقابلے میں ڈیٹا/مسئلہ کا سائز کیسے اہمیت رکھتا ہے۔

بعد کے مضمون میں CuDF کی مثالیں۔

 
اگرچہ پانڈا ڈیٹا پروسیسنگ سے مشابہ ڈیٹا انجینئرنگ کی مثالیں بہت سے ڈیٹا سائنسدانوں کے لیے بہت زیادہ دلچسپی رکھتی ہیں، لیکن ہم بعد کے مضمون میں CuDF کی مثالوں کا احاطہ کریں گے۔

میرا GPU پر مبنی ہارڈویئر پلیٹ فارم کیا ہے؟

 
میں استعمال کر رہا ہوں a زحل کا بادل Tesla T4 GPU مثال کے طور پر یہ لفظی طور پر ایک گھماؤ کرنے کے لئے 5 منٹ کا کام ہے۔ کلاؤڈ پر مکمل طور پر نمایاں اور بھری ہوئی (DS اور AI لائبریریوں کے ساتھ) کمپیوٹ وسائل ان کی سروس کے ساتھ میرے تمام ڈیٹا سائنس کے کام کے لیے۔ جب تک میں ماہانہ Jupyter نوٹ بک کے استعمال کے 10 گھنٹے سے زیادہ نہیں ہوں، یہ مفت ہے! اگر آپ ان کی خدمات کے بارے میں مزید پڑھنا چاہتے ہیں،

Saturn Cloud Hosted نے لانچ کیا ہے: GPU ڈیٹا سائنس سب کے لیے!

GPU کمپیوٹنگ ڈیٹا سائنس کا مستقبل ہے۔ RAPIDS، TensorFlow، اور PyTorch جیسے پیکجز بجلی کی تیز رفتار کو قابل بناتے ہیں…

رکھنے کے علاوہ Tesla T4 GPUیہ ایک 4 کور Intel(R) Xeon(R) Platinum 8259CL CPU @ 2.50GHz مشین ہے جس میں 16 GB RAM اور 10 GB پرسسٹنٹ ڈسک ہے۔ لہذا، یہ ہارڈ ویئر کی تشکیل کے نقطہ نظر سے ایک عام سیٹ اپ ہے (مفت درجے کی وجہ سے محدود ہارڈ ڈرائیو) یعنی کسی بھی ڈیٹا سائنسدان کے پاس اس قسم کا ہارڈ ویئر ہو سکتا ہے۔ واحد امتیازی عنصر GPU کی موجودگی اور CUDA اور Python کی تمام لائبریریوں کو مناسب طریقے سے ترتیب دینا ہے تاکہ RAPIDS سویٹ بغیر کسی ہچکی کے کام کر سکے۔


بڑے مسئلے کے سائز کا مطلب ہمیشہ اپاچی اسپارک یا ہڈوپ ماحولیاتی نظام نہیں ہوتا ہے۔ بگ کمپیوٹیشن بگ ڈیٹا کے برابر نہیں ہے۔ ایک اچھی طرح سے ڈیٹا سائنسدان کے طور پر، آپ کو ہر قسم کے مسائل سے نمٹنے کے لیے دونوں کو جاننے کی ضرورت ہے۔

مساوات کے ایک لکیری نظام کو حل کرنا

 
ہم مختلف سائز کی مساوات کے لکیری نظام بناتے ہیں اور Numpy (اور CuPy) کا استعمال کرتے ہیں۔ linalg.solveمندرجہ ذیل کوڈ کے ساتھ اسے حل کرنے کا معمول،



اور، CuPy کے نفاذ کے لیے کوڈ ایک ہی حرف (متعدد درخواستوں میں) سے تبدیل ہوتا ہے!



یہ بھی نوٹ کریں کہ ہم Numpy arrays سے CuPy arrays کو بطور دلیل کیسے بنا سکتے ہیں۔

نتیجہ اگرچہ ڈرامائی ہے۔ CuPy سست یا Numpy کی اسی رفتار سے شروع ہوتا ہے، لیکن بڑے مسئلے کے سائز (مساوات کی تعداد) کے لیے اسے مربع طور پر شکست دیتا ہے۔



واحد قدر سڑنا

 
اس کے بعد، ہم مختلف سائز کے تصادفی طور پر تیار کردہ مربع میٹرکس (عام تقسیم سے تیار کردہ) کا استعمال کرتے ہوئے واحد قدر کے سڑنے کے مسئلے سے نمٹتے ہیں۔ ہم یہاں کوڈ بلاک کو نہیں دہراتے ہیں بلکہ صرف اختصار کے لیے نتیجہ دکھاتے ہیں۔



یہ نوٹ کرنا اہم ہے کہ CuPy الگورتھم اس مسئلہ کی کلاس میں Numpy الگورتھم کے مقابلے میں نمایاں طور پر اعلی کارکردگی نہیں دکھاتا ہے۔ شاید، یہ وہ چیز ہے جسے CuPy ڈویلپرز نے بہتر بنانے کے لیے اٹھایا ہے۔

بنیادی پر واپس جانا: میٹرکس الٹا

 
آخر میں، ہم بنیادی باتوں پر واپس جاتے ہیں اور میٹرکس الٹ جانے کے بنیادی مسئلے پر غور کرتے ہیں (تقریباً تمام مشین لرننگ الگورتھم میں استعمال ہوتا ہے)۔ نتیجہ ایک بار پھر نمپی پیکج کے مقابلے میں CuPy الگورتھم کے ذریعہ مضبوطی سے سازگار کارکردگی کا فائدہ ظاہر کرتا ہے۔



K- سے نمٹنے کا مطلب ہے کلسٹرنگ کا مسئلہ

 
اس کے بعد، ہم سب سے زیادہ واقف کے-مینز الگورتھم کا استعمال کرتے ہوئے کلسٹرنگ کے غیر زیر نگرانی سیکھنے کے مسئلے پر غور کرتے ہیں۔ یہاں، ہم ایک CuML فنکشن کا موازنہ Scikit-learn پیکیج کے مساوی تخمینہ لگانے والے سے کر رہے ہیں۔

صرف حوالہ کے لیے، یہاں ان دو تخمینوں کے درمیان API کا موازنہ ہے۔



تصویری ماخذسکیٹ سیکھنا اور CuML ویب سائٹ (اوپن سورس پروجیکٹس)

 

10 خصوصیات/ طول و عرض کے ساتھ ڈیٹا سیٹ کا نتیجہ یہ ہے۔



اور، یہاں 100 فیچر ڈیٹاسیٹ کے ساتھ ایک اور تجربے کا نتیجہ ہے۔



واضح طور پر، نمونہ کا سائز (قطاروں کی تعداد) اور جہت (کالموں کی تعداد) دونوں اس بات میں اہمیت رکھتے ہیں کہ GPU پر مبنی ایکسلریشن نے کس طرح بہتر کارکردگی کا مظاہرہ کیا۔

سب سے زیادہ واقف لکیری رجعت کا مسئلہ

 
ٹیبلر ڈیٹاسیٹس سے نمٹنے کے دوران رفتار کے موازنہ کے لیے لکیری رجعت کے مسئلے کو کون نظر انداز کر سکتا ہے؟ پہلے کی طرح کیڈنس کی پیروی کرتے ہوئے، ہم مسئلہ کے سائز میں فرق کرتے ہیں - اس بار ایک ساتھ نمونوں کی تعداد اور طول و عرض دونوں - اور CuML کی کارکردگی کا موازنہ کریں LinearRegression اسکیٹ لرن اسٹیبل سے حاصل کردہ تخمینہ لگانے والا۔

مندرجہ ذیل اعداد و شمار میں X-axis مسئلے کے سائز کی نمائندگی کرتا ہے — 1,000 نمونے/50 خصوصیات سے 20,000 نمونے/1000 خصوصیات تک۔

ایک بار پھر، CuML تخمینہ لگانے والا بہت بہتر کارکردگی کا مظاہرہ کرتا ہے کیونکہ مسئلہ کی پیچیدگی (نمونہ سائز اور جہت) بڑھ جاتی ہے۔



خلاصہ

 
 
ہم نے RAPIDS فریم ورک کے دو انتہائی بنیادی اجزاء پر توجہ مرکوز کی، جس کا مقصد ڈیٹا کے تجزیہ اور مشین لرننگ کے روزمرہ کے کاموں میں GPU کی طاقت کو لانا ہے، یہاں تک کہ جب ڈیٹا سائنسدان کوئی گہری سیکھنے کا کام انجام نہ دے رہا ہو۔



تصویری ماخذ: مصنف کی طرف سے مفت Pixabay امیجز کے ساتھ بنایا گیا (لنک 1لنک 2لنک 3)

 

ہم نے استعمال کیا a زحل کا بادل Tesla T4 پر مبنی مثال کے لیے آسان، مفت اور فوری سیٹ اپ اور CuPy اور CuML لائبریریوں کی چند خصوصیات اور وسیع پیمانے پر استعمال ہونے والے الگورتھم کی کارکردگی کا موازنہ دکھایا۔

  • RAPIDS لائبریریوں کے تمام الگورتھم بہت زیادہ برتر نہیں ہیں لیکن زیادہ تر ہیں۔
  • عام طور پر، کارکردگی کا فائدہ تیزی سے بڑھتا ہے کیونکہ مسئلہ کی پیچیدگی (نمونہ سائز اور جہت) بڑھ جاتی ہے۔
  • اگر آپ کے پاس GPU ہے، تو ہمیشہ RAPIDS کو آزمائیں، موازنہ کریں اور جانچیں کہ کیا آپ کوئی کارکردگی حاصل کر رہے ہیں، اور اسے اپنی ڈیٹا سائنس پائپ لائن کا ایک قابل اعتماد ورک ہارس بنائیں۔
  • کوڈ کی تبدیلی کم سے کم ہے، بدلنے کے لیے تقریباً موجود نہیں ہے۔

GPU کی طاقت کو آپ کے تجزیات اور ڈیٹا سائنس ورک فلو کو جمپ اسٹارٹ کرنے دیں۔.

آپ مصنف کی جانچ کر سکتے ہیں۔ GitHub کے ذخیرہ مشین لرننگ اور ڈیٹا سائنس میں کوڈ، آئیڈیاز اور وسائل کے لیے۔ اگر آپ، میری طرح، AI/مشین لرننگ/ڈیٹا سائنس کے بارے میں پرجوش ہیں، تو براہ کرم بلا جھجھک مجھے LinkedIn پر شامل کریں۔ or ٹویٹر پر مجھے فالو کریں.

میل کا شکریہ۔

 
حقیقی. اجازت کے ساتھ دوبارہ پوسٹ کیا۔

متعلقہ:

ماخذ: https://www.kdnuggets.com/2021/08/gpu-powered-data-science-deep-learning-rapids.html

ٹائم اسٹیمپ:

سے زیادہ KDnuggets