از آنجایی که شرکتها از ورود رباتهای مستقل و سایر تجهیزات سنگین به محل کار استقبال میکنند، باید اطمینان حاصل کنیم که تجهیزات میتوانند با خیال راحت در اطراف هم تیمیهای انسانی کار کنند. در این پست نحوه ساخت مرز مجازی با دید کامپیوتری و AWS DeepLens، دوربین ویدئویی با قابلیت یادگیری عمیق AWS که برای توسعه دهندگان برای یادگیری یادگیری ماشین (ML) طراحی شده است. با استفاده از تکنیکهای یادگیری ماشینی در این پست، میتوانید مرزهای مجازی برای مناطق محدود ایجاد کنید که بهطور خودکار تجهیزات را خاموش میکنند یا زمانی که انسانها نزدیک میشوند، هشدار میدهند.
برای این پروژه، شما یک مدل تشخیص شی سفارشی را آموزش خواهید داد آمازون SageMaker و مدل را در دستگاه AWS DeepLens مستقر کنید. تشخیص اشیا یک الگوریتم ML است که یک تصویر را به عنوان ورودی می گیرد و اشیا و مکان آنها را در تصویر شناسایی می کند. علاوه بر راهحلهای مرز مجازی، میتوانید تکنیکهای آموختهشده در این پست را زمانی که نیاز دارید تشخیص دهید که اشیاء خاص در داخل یک تصویر قرار دارند یا تعداد نمونههای یک شی مورد نظر در یک تصویر را بشمارید، از تکنیکهایی استفاده کنید، مانند شمارش موارد در سطل ذخیرهسازی یا در یک قفسه خرده فروشی
بررسی اجمالی راه حل
راهنما شامل مراحل زیر است:
- مجموعه داده خود را برای تغذیه در الگوریتم ML آماده کنید.
- آموزش یک مدل با آمازون SageMaker.
- مدل آزمایشی با مناطق محدودیت سفارشی.
- راه حل را در AWS DeepLens مستقر کنید.
ما همچنین در مورد سایر موارد استفاده در دنیای واقعی صحبت می کنیم که می توانید این راه حل را اعمال کنید.
نمودار زیر معماری راه حل را نشان می دهد.
پیش نیازها
برای تکمیل این راهنما باید پیش نیازهای زیر را داشته باشید:
مجموعه داده خود را برای تغذیه در الگوریتم ML آماده کنید
این پست از یک الگوریتم ML به نام مدل تشخیص شی استفاده می کند تا راه حلی بسازد که تشخیص دهد آیا یک فرد در یک منطقه محدود سفارشی قرار دارد یا خیر. شما از در دسترس عموم استفاده می کنید مجموعه داده تشخیص عابر پیاده در Kaggle موجود است که بیش از 2,000 تصویر دارد. این مجموعه داده دارای برچسب هایی برای اشیاء انسان و انسان مانند (مانند مانکن) است، بنابراین مدل آموزش دیده می تواند با دقت بیشتری بین انسان واقعی و وسایل مقوایی یا مجسمه ها تمایز قائل شود.
به عنوان مثال، تصاویر زیر نمونه هایی از شناسایی یک کارگر ساختمانی و در صورتی که در محدوده محدودیت سفارشی قرار دارند (طرح کلی قرمز) است.
برای شروع آموزش مدل خود، ابتدا یک سطل S3 ایجاد کنید برای ذخیره داده های آموزشی و خروجی مدل. برای پروژه های AWS DeepLens، نام سطل S3 باید با پیشوند شروع شود deeplens-
. شما از این داده ها برای آموزش یک مدل با SageMaker استفاده می کنید، یک سرویس کاملاً مدیریت شده که توانایی ساخت، آموزش و استقرار سریع مدل های ML را فراهم می کند.
آموزش یک مدل با آمازون SageMaker
شما از نوت بوک های SageMaker Jupyter به عنوان محیط توسعه برای آموزش مدل استفاده می کنید. Jupyter Notebook یک برنامه وب منبع باز است که به شما امکان می دهد اسنادی را ایجاد و به اشتراک بگذارید که حاوی کد زنده، معادلات، تجسم ها و متن روایت هستند. برای این پست ارائه می دهیم Train_Object_Detection_People_DeepLens.ipynb، یک دفترچه کامل برای شما که می توانید آن را دنبال کنید.
برای ایجاد یک مدل تشخیص شی سفارشی، باید از یک نمونه کار آموزشی دارای واحد پردازش گرافیکی (GPU) استفاده کنید. GPU ها در موازی کردن محاسبات مورد نیاز برای آموزش شبکه عصبی عالی هستند. اگرچه نوتبوک خود یک نمونه ml.t2.medium است، اما کار آموزشی به طور خاص از یک نمونه ml.p2.xlarge استفاده میکند. برای دسترسی به یک نمونه کار آموزشی دارای GPU، باید درخواست افزایش سقف خدمات را ارسال کنید به مرکز پشتیبانی AWS.
پس از دریافت افزایش حد، مراحل زیر را برای ایجاد یک نمونه نوت بوک SageMaker تکمیل کنید:
- در کنسول SageMaker، را انتخاب کنید نمونه های نوت بوک.
- را انتخاب کنید ایجاد نمونه نوت بوک.
- برای نام نمونه نوت بوک، یک نام برای نمونه نوت بوک خود وارد کنید.
- برای نوع نمونه، انتخاب کنید t2.متوسط.
این کم هزینه ترین نوع نمونه است که نمونه های نوت بوک پشتیبانی می کنند و برای این آموزش کافی است.
- برای نقش IAM، انتخاب کنید یک نقش جدید ایجاد کنید.
از این مطمئن شوید هویت AWS و مدیریت دسترسی نقش (IAM) به سطل S3 که قبلاً ایجاد کردید دسترسی دارد (پیشوند deeplens-
).
- را انتخاب کنید ایجاد نمونه نوت بوک. راه اندازی نمونه نوت بوک شما ممکن است چند دقیقه طول بکشد.
- وقتی وضعیت صفحه نمونه های نوت بوک به InService تغییر کرد، را انتخاب کنید ژوپیتر را باز کنید برای راه اندازی نمونه نوت بوک Jupyter که به تازگی ایجاد شده است.
- را انتخاب کنید بارگذاری برای آپلود
Train_Object_Detection_people_DeepLens.ipynb
فایلی که قبلا دانلود کردید
- دفترچه یادداشت را باز کنید و آن را تا انتها دنبال کنید.
- اگر در مورد تنظیم هسته از شما سوال شد، انتخاب کنید conda_mxnet_p36.
نوت بوک Jupyter حاوی ترکیبی از سلول های متن و کد است. برای اجرای یک کد، سلول را انتخاب کرده و فشار دهید Shift + Enter. در حالی که سلول در حال اجرا است، یک ستاره در کنار سلول ظاهر می شود. وقتی سلول کامل شد، یک عدد خروجی و سلول خروجی جدید در زیر سلول اصلی ظاهر میشود.
- مجموعه داده را از سطل عمومی S3 در نمونه محلی SageMaker دانلود کنید و داده ها را از حالت فشرده خارج کنید. این را می توان با دنبال کردن کد موجود در نوت بوک انجام داد:
- تبدیل مجموعه داده به فرمت (RecordIO) که می تواند به الگوریتم SageMaker وارد شود:
- فایل های RecordIO را به آمازون S3 برگردانید.
اکنون که کار آماده سازی داده ها تمام شده است، آماده آموزش آشکارساز شی هستید.
انواع مختلفی از الگوریتم های تشخیص اشیا وجود دارد. برای این پست، از الگوریتم تشخیص چند باکس تک شات (SSD). الگوریتم SSD تعادل خوبی بین سرعت و دقت دارد و برای اجرا بر روی دستگاههای لبهای مانند AWS DeepLens ایدهآل است.
به عنوان بخشی از کار آموزشی، گزینههای زیادی برای فراپارامترها دارید که به پیکربندی رفتار آموزشی کمک میکنند (مانند تعداد دورهها، نرخ یادگیری، نوع بهینهساز، و اندازه کوچک دستهای). هایپرپارامترها به شما امکان می دهد سرعت و دقت مدل خود را تنظیم کنید. برای اطلاعات بیشتر در مورد هایپرپارامترها، نگاه کنید الگوریتم تشخیص اشیا.
- هایپرپارامترها و کانال های داده خود را تنظیم کنید. مثال زیر را در تعریف هایپرپارامترها در نظر بگیرید:
نوت بوک دارای برخی از پارامترهای پیش فرض است که از قبل انتخاب شده اند. برای تشخیص عابر پیاده، مدل را برای 100 دوره آموزش می دهید. این مرحله آموزشی باید با استفاده از یک نمونه ml.p2.xlarge تقریباً 2 ساعت طول بکشد. میتوانید ترکیبهای مختلفی از فراپارامترها را آزمایش کنید، یا دورههای بیشتری را برای بهبود عملکرد آموزش دهید. برای اطلاع از آخرین قیمت ها به ادامه مطلب مراجعه کنید قیمت گذاری آمازون SageMaker.
- می توانید یک کار آموزشی را با یک خط کد شروع کنید و دقت را در طول زمان در کنسول SageMaker کنترل کنید:
برای اطلاعات بیشتر در مورد نحوه عملکرد آموزش، رجوع کنید به CreateTrainingJob. تهیه و دانلود داده ها بسته به اندازه داده ها زمان می برد. بنابراین، ممکن است چند دقیقه طول بکشد تا شروع به دریافت گزارش های داده برای مشاغل آموزشی خود کنید.
شما می توانید پیشرفت کار آموزشی خود را از طریق دقت میانگین متریک (mAP) نظارت کنید، که به شما امکان می دهد کیفیت مدل را برای طبقه بندی اشیا و تشخیص جعبه های مرزبندی صحیح نظارت کنید. گزارشهای داده همچنین mAP را روی دادههای اعتبارسنجی چاپ میکنند، در میان سایر تلفات، برای هر اجرا از مجموعه داده، یک بار برای یک دوره. این متریک پروکسی برای کیفیت عملکرد الگوریتم در تشخیص دقیق کلاس و جعبه مرزبندی دقیق اطراف آن است.
هنگامی که کار به پایان رسید، می توانید فایل های مدل آموزش دیده را در سطل و پوشه S3 که قبلا در s3_output_location
:
برای این پست، ما نتایج مربوط به مجموعه اعتبار سنجی را در پایان دوره 10 و 100 نشان می دهیم. در پایان دوره دهم، ما یک نقشه اعتبارسنجی تقریباً 10 را می بینیم، در حالی که دوره 0.027 تقریباً 100 بود.
برای دستیابی به نتایج تشخیص بهتر، می توانید با استفاده از قابلیت تعبیه شده در SageMaker برای تنظیم هایپرپارامترها تلاش کنید. تنظیم خودکار مدل و الگو را برای دوره های بیشتر آموزش دهید. معمولاً با مشاهده کاهش دقت، تمرین را متوقف می کنید.
مدل آزمایشی با مناطق محدودیت سفارشی
قبل از استقرار مدل آموزشدیده در AWS DeepLens، میتوانید با استفاده از نقطه پایانی میزبان SageMaker آن را در فضای ابری آزمایش کنید. نقطه پایانی SageMaker یک سرویس کاملاً مدیریت شده است که به شما امکان می دهد از طریق یک REST API استنتاج در زمان واقعی داشته باشید. SageMaker به شما اجازه می دهد تا به سرعت نقاط پایانی جدید را برای آزمایش مدل های خود مستقر کنید تا مجبور نباشید مدل را در نمونه محلی که برای آموزش مدل استفاده شده است میزبانی کنید. این به شما امکان میدهد پیشبینی (یا استنباط) را از مدل روی تصاویری که الگوریتم در طول آموزش ندیده است انجام دهید.
شما مجبور نیستید روی همان نوع نمونه ای که قبلا آموزش می دادید میزبانی کنید. آموزش یک کار طولانی مدت و محاسباتی سنگین است که به مجموعه متفاوتی از محاسبات و نیازهای حافظه نیاز دارد که میزبانی معمولاً نیازی به آن ندارد. شما می توانید هر نوع نمونه ای را که می خواهید برای میزبانی مدل انتخاب کنید. در این مورد، نمونه ml.p3.2xlarge را برای آموزش انتخاب کردیم، اما میزبانی مدل را در نمونه CPU ارزانتر، ml.m4.xlarge انتخاب کردیم. قطعه کد زیر استقرار نقطه پایانی ما را نشان می دهد.
شناسایی در یک منطقه محدودیت سفارشی (منطقه مورد علاقه)
فرمت خروجی را می توان به صورت [class_index، اعتماد_نمره، xmin، ymin، xmax، ymax] نشان داد. پیش بینی های کم اعتماد اغلب شانس بیشتری برای مثبت یا منفی کاذب دارند، بنابراین احتمالاً باید پیش بینی های کم اعتماد را کنار بگذارید. می توانید از کد زیر برای تشخیص همپوشانی کادر محدود شخص با منطقه محدود استفاده کنید.
به طور پیش فرض، کادر کامل برای حضور انسان ارزیابی می شود. با این حال، می توانید به راحتی منطقه مورد علاقه را مشخص کنید که حضور یک فرد در آن به عنوان پرخطر تلقی می شود. اگر میخواهید یک منطقه محدود سفارشی اضافه کنید، مختصات رئوس ناحیه نشاندادهشده با [X-axis,Y-axis] را اضافه کنید و چند ضلعی را ایجاد کنید. مختصات باید در جهت عقربه های ساعت یا خلاف جهت عقربه های ساعت وارد شوند. کد زیر را ببینید:
کد نمونه زیر عابران پیاده را نشان می دهد که در یک منطقه محدود شناسایی شده اند:
تصاویر زیر نتایج ما را نشان می دهد.
راه حل را در AWS DeepLens مستقر کنید
تبدیل مدل برای استقرار به AWS DeepLens
هنگام استقرار یک مدل SSD آموزش دیده توسط SageMaker در AWS DeepLens، ابتدا باید اجرا کنید deploy.py برای تبدیل آرتیفکت مدل به یک مدل قابل استقرار:
مدل خود را به AWS DeepLens وارد کنید
برای اجرای مدل در دستگاه AWS DeepLens، باید یک پروژه AWS DeepLens ایجاد کنید. با وارد کردن مدل خود به AWS DeepLens شروع کنید.
- در کنسول AWS DeepLens، در زیر منابع، انتخاب کنید مدل.
- را انتخاب کنید وارد کردن مدل.
- برای منبع واردات، انتخاب کنید مدل آموزش دیده خارجی.
- محل آمازون S3 را وارد کنید مدل پچ شده که از اجرای deploy.py در مرحله بالا ذخیره کردید.
- برای چارچوب مدل، انتخاب کنید MXNet.
- را انتخاب کنید وارد کردن مدل.
تابع استنتاج را ایجاد کنید
تابع استنتاج هر فریم دوربین را برای پیشبینی به مدل وارد میکند و هر منطق تجاری سفارشی را با استفاده از نتایج استنتاج اجرا میکند. شما استفاده میکنید AWS لامبدا برای ایجاد تابعی که در AWS DeepLens مستقر می کنید. این تابع استنتاج را به صورت محلی در دستگاه AWS DeepLens اجرا می کند.
ابتدا باید یک تابع Lambda برای استقرار در AWS DeepLens ایجاد کنیم.
- دانلود استنتاج تابع لامبدا.
- در کنسول لامبدا، را انتخاب کنید توابع.
- را انتخاب کنید ایجاد تابع.
- انتخاب کنید نویسنده از ابتدا.
- برای نام عملکرد، یک نام وارد کنید.
- برای زمان اجرا، انتخاب کنید پایتون 3.7.
- برای یک نقش اجرایی را انتخاب یا ایجاد کنید، انتخاب کنید از نقش موجود استفاده کنید.
- را انتخاب کنید service-role/AWSDeepLensLambdaRole.
- را انتخاب کنید ایجاد تابع.
- در صفحه جزئیات تابع، در اعمال منو ، انتخاب کنید یک فایل zip. آپلود کنید.
- بارگذاری کنید استنتاج لامبدا فایلی که قبلا دانلود کردید
- را انتخاب کنید ذخیره برای ذخیره کدی که وارد کرده اید.
- بر اعمال منو ، انتخاب کنید انتشار نسخه جدید.
انتشار عملکرد آن را در کنسول AWS DeepLens در دسترس قرار می دهد تا بتوانید آن را به پروژه سفارشی خود اضافه کنید.
- شماره نسخه را وارد کرده و انتخاب کنید منتشر کردن.
درک تابع استنتاج
این بخش شما را از طریق برخی از بخش های مهم تابع استنتاج راهنمایی می کند. ابتدا باید به دو فایل خاص توجه کنید:
- labels.txt - حاوی نقشه خروجی از شبکه عصبی (اعداد صحیح) به برچسب های قابل خواندن توسط انسان (رشته)
- lambda_function.py - حاوی کد برای عملکرد فراخوانی شده برای ایجاد پیش بینی در هر فریم دوربین و ارسال نتایج
در lambda_function.py ابتدا مدل را بارگیری و بهینه می کنید. در مقایسه با ماشین های مجازی ابری با پردازنده گرافیکی، AWS DeepLens قدرت محاسباتی کمتری دارد. AWS DeepLens از بهینه ساز مدل Intel OpenVino برای بهینه سازی مدل آموزش دیده در SageMaker برای اجرا بر روی سخت افزار خود استفاده می کند. کد زیر مدل شما را برای اجرای محلی بهینه می کند:
سپس فریم در هر فریم مدل را روی تصاویر دوربین اجرا می کنید. کد زیر را ببینید:
در نهایت، نتایج پیشبینی متن را به ابر ارسال میکنید. مشاهده نتایج متن در فضای ابری یک راه راحت برای اطمینان از اینکه مدل به درستی کار می کند است. هر دستگاه AWS DeepLens دارای یک iot_topic اختصاصی است که به طور خودکار برای دریافت نتایج استنتاج ایجاد می شود. کد زیر را ببینید:
یک پروژه سفارشی AWS DeepLens ایجاد کنید
برای ایجاد یک پروژه جدید AWS DeepLens، مراحل زیر را انجام دهید:
- در کنسول AWS DeepLens، در پروژه ها صفحه ، انتخاب کنید ایجاد پروژه.
- برای نوع پروژه، انتخاب کنید یک پروژه خالی جدید ایجاد کنید.
- را انتخاب کنید بعدی.
- نام پروژه خود را
yourname-pedestrian-detector-
. - را انتخاب کنید اضافه کردن مدل.
- مدلی را که ایجاد کرده اید انتخاب کنید.
- را انتخاب کنید اضافه کردن تابع.
- تابع Lambda را که قبلاً ایجاد کردید با نام جستجو کنید.
- را انتخاب کنید ایجاد پروژه.
- بر پروژه ها صفحه، پروژه ای را که می خواهید اجرا کنید انتخاب کنید.
- انتخاب کرد به دستگاه مستقر شود.
- برای دستگاه هدف، دستگاه خود را انتخاب کنید.
- را انتخاب کنید مرور.
- تنظیمات خود را بررسی کرده و انتخاب کنید گسترش.
بسته به سرعت شبکه ای که AWS DeepLens شما به آن متصل است، استقرار ممکن است تا 10 دقیقه طول بکشد. هنگامی که استقرار کامل شد، باید یک بنر سبز رنگ در صفحه با این پیام مشاهده کنید، "تبریک، مدل شما اکنون به صورت محلی در AWS DeepLens اجرا می شود!"
برای دیدن خروجی متن، در صفحه جزئیات دستگاه به سمت پایین حرکت کنید خروجی پروژه بخش. برای کپی کردن موضوع، دستورالعمل های بخش را دنبال کنید و به قسمت بروید AWS IoT Core کنسول برای اشتراک در موضوع. شما باید نتایج را مانند تصویر زیر ببینید.
برای دستورالعمل های گام به گام در مورد مشاهده جریان ویدئو یا خروجی متن، نگاه کنید مشاهده نتایج از AWS DeepLens.
موارد استفاده در دنیای واقعی
اکنون که پیشبینیهایی از مدل خود دارید که روی AWS DeepLens اجرا میشود، بیایید آن پیشبینیها را به هشدارها و بینشها تبدیل کنیم. برخی از رایج ترین کاربردهای پروژه ای مانند این عبارتند از:
- درک تعداد افرادی که در یک روز معین وارد یک منطقه ممنوعه شدهاند تا سایتهای ساختوساز بتوانند نقاطی را شناسایی کنند که به علائم ایمنی بیشتری نیاز دارند. این را می توان با جمع آوری نتایج و استفاده از آنها برای ایجاد یک داشبورد با استفاده از آن انجام داد آمازون QuickSight. برای جزئیات بیشتر در مورد ایجاد داشبورد با استفاده از QuickSight، نگاه کنید با AWS DeepLens و GluonCV یک ردیاب وضعیت کار از خانه بسازید.
- جمع آوری خروجی از AWS DeepLens و پیکربندی Raspberry Pi برای به صدا درآوردن هشدار هنگامی که شخصی در حال قدم زدن به یک منطقه محدود است. برای جزئیات بیشتر در مورد اتصال دستگاه AWS DeepLens به دستگاه Raspberry Pi، نگاه کنید ساخت سطل زباله با AWS DeepLens.
نتیجه
در این پست، یاد گرفتید که چگونه یک مدل تشخیص اشیا را آموزش دهید و آن را در AWS DeepLens برای شناسایی افرادی که وارد مناطق ممنوعه می شوند، مستقر کنید. شما می توانید از این آموزش به عنوان مرجعی برای آموزش و استقرار پروژه های تشخیص شی سفارشی خود در AWS DeepLens استفاده کنید.
برای مشاهده جزئیات بیشتر این آموزش و سایر آموزشها، نمونهها و ایدههای پروژه با AWS DeepLens، نگاه کنید به دستور العمل های AWS DeepLens.
درباره نویسنده
یاش شاه یک دانشمند داده در آزمایشگاه راه حل های آمازون ML است، جایی که او روی طیف وسیعی از موارد استفاده از یادگیری ماشین از مراقبت های بهداشتی گرفته تا تولید و خرده فروشی کار می کند. او سابقه ای رسمی در عوامل انسانی و آمار دارد و قبلاً بخشی از تیم آمازون SCOT بود که محصولاتی را برای راهنمایی فروشندگان 3P با مدیریت موجودی کارآمد طراحی می کرد.
فو نگوین یک مدیر محصول برای AWS Panorama است. او محصولاتی میسازد که به توسعهدهندگان با هر سطح مهارتی، مقدمه آسان و عملی یادگیری ماشین را میدهند.
- دسترسی
- الگوریتم
- الگوریتم
- آمازون
- آمازون SageMaker
- در میان
- آپاچی
- API
- کاربرد
- معماری
- دور و بر
- خود مختار
- AWS
- جعبه
- ساختن
- کسب و کار
- موارد
- شانس
- کانال
- ابر
- رمز
- جمع آوری
- مشترک
- شرکت
- محاسبه
- چشم انداز کامپیوتر
- محاسبه
- قدرت پردازش
- ساخت و ساز
- ادامه دادن
- زن و شوهر
- ایجاد
- داشبورد
- داده ها
- دانشمند داده
- روز
- جزئیات
- کشف
- توسعه دهندگان
- پروژه
- دستگاه ها
- اسناد و مدارک
- لبه
- نقطه پایانی
- محیط
- تجهیزات
- اعدام
- تجربه
- تغذیه
- نام خانوادگی
- به دنبال
- قالب
- کامل
- تابع
- خوب
- GPU
- GPU ها
- سبز
- راهنمایی
- سخت افزار
- بهداشت و درمان
- زیاد
- میزبانی وب
- چگونه
- چگونه
- HTTPS
- انسان
- IAM
- شناسایی
- هویت
- تصویر
- واردات
- افزایش
- اطلاعات
- بینش
- اینتل
- علاقه
- فهرست
- مدیریت موجودی
- اینترنت اشیا
- IT
- کار
- شغل ها
- نوت بوک ژوپیتر
- برچسب ها
- آخرین
- راه اندازی
- یاد گرفتن
- آموخته
- یادگیری
- سطح
- لاین
- بار
- محلی
- به صورت محلی
- محل
- فراگیری ماشین
- تکنیک های یادگیری ماشین
- ماشین آلات
- ساخت
- مدیریت
- تولید
- نقشه
- متوسط
- ML
- مدل
- نام
- شبکه
- عصبی
- شبکه های عصبی
- نوت بوک
- تشخیص شی
- گزینه
- دیگر
- پرداخت
- مردم
- کارایی
- قدرت
- دقت
- پیش گویی
- پیش بینی
- فشار
- قیمت گذاری
- محصول
- محصولات
- پروژه
- پروژه ها
- پروکسی
- عمومی
- کیفیت
- بالا بردن
- محدوده
- تمشک پی
- زمان واقعی
- مورد نیاز
- REST
- نتایج
- خرده فروشی
- خطر
- ربات ها
- دویدن
- در حال اجرا
- ایمنی
- حکیم ساز
- فروشندگان
- تنظیم
- محیط
- SGD
- اشتراک گذاری
- نشانه ها
- ساده
- سایت
- اندازه
- So
- مزایا
- سرعت
- شروع
- بیانیه
- ارقام
- وضعیت
- ذخیره سازی
- opbevare
- پشتیبانی
- آزمون
- زمان
- آموزش
- آموزش
- آموزش
- تصویری
- مجازی
- دید
- راه رفتن
- وب
- در داخل
- در محل کار
- با این نسخهها کار
- X