Melindungi orang dari area berbahaya melalui batas virtual dengan Computer Vision

Node Sumber: 807925

Saat perusahaan menyambut lebih banyak robot otonom dan alat berat lainnya ke tempat kerja, kami perlu memastikan peralatan dapat beroperasi dengan aman di sekitar rekan satu tim manusia. Dalam posting ini, kami akan menunjukkan kepada Anda bagaimana membangun batas virtual dengan visi komputer dan AWS DeepLens, kamera video berkemampuan pembelajaran mendalam AWS yang dirancang bagi pengembang untuk mempelajari pembelajaran mesin (ML). Dengan menggunakan teknik pembelajaran mesin dalam posting ini, Anda dapat membangun batas virtual untuk area terlarang yang secara otomatis mematikan peralatan atau membunyikan peringatan ketika manusia mendekat.

Untuk proyek ini, Anda akan melatih model deteksi objek khusus dengan Amazon SageMaker dan menerapkan model ke perangkat AWS DeepLens. Deteksi objek adalah algoritma ML yang mengambil gambar sebagai input dan mengidentifikasi objek dan lokasinya di dalam gambar. Selain solusi batas virtual, Anda dapat menerapkan teknik yang dipelajari dalam posting ini saat Anda perlu mendeteksi di mana objek tertentu berada di dalam gambar atau menghitung jumlah instance objek yang diinginkan dalam gambar, seperti menghitung item di tempat penyimpanan atau di rak ritel.

Ikhtisar solusi

Panduan mencakup langkah-langkah berikut:

  1. Siapkan kumpulan data Anda untuk dimasukkan ke dalam algoritme ML.
  2. Latih model dengan Amazon SageMaker.
  3. Uji model dengan zona pembatasan khusus.
  4. Terapkan solusi ke AWS DeepLens.

Kami juga membahas kasus penggunaan dunia nyata lainnya tempat Anda dapat menerapkan solusi ini.

Diagram berikut menggambarkan arsitektur solusi.

Prasyarat

Untuk menyelesaikan langkah-langkah ini, Anda harus memiliki prasyarat berikut:

Siapkan kumpulan data Anda untuk dimasukkan ke dalam algoritme ML

Postingan ini menggunakan algoritme ML yang disebut model deteksi objek untuk membuat solusi yang mendeteksi jika seseorang berada di zona terbatas kustom. Anda menggunakan yang tersedia untuk umum Dataset Deteksi Pejalan Kaki tersedia di Kaggle, yang memiliki lebih dari 2,000 gambar. Dataset ini memiliki label untuk objek manusia dan mirip manusia (seperti boneka) sehingga model terlatih dapat lebih akurat membedakan antara manusia nyata dan alat peraga atau patung dari karton.

Misalnya, gambar berikut adalah contoh pekerja konstruksi yang terdeteksi dan jika mereka berada di zona pembatasan khusus (garis luar merah).

Untuk mulai melatih model Anda, pertama buat bucket S3 untuk menyimpan data pelatihan dan keluaran model Anda. Untuk proyek AWS DeepLens, nama bucket S3 harus dimulai dengan awalan deeplens-. Anda menggunakan data ini untuk melatih model dengan SageMaker, layanan terkelola sepenuhnya yang memberikan kemampuan untuk membangun, melatih, dan menerapkan model ML dengan cepat.

Latih model dengan Amazon SageMaker

Anda menggunakan notebook SageMaker Jupyter sebagai lingkungan pengembangan untuk melatih model. Jupyter Notebook adalah aplikasi web sumber terbuka yang memungkinkan Anda membuat dan berbagi dokumen yang berisi kode langsung, persamaan, visualisasi, dan teks naratif. Untuk postingan kali ini kami sediakan Latih_Objek_Deteksi_Orang_DeepLens.ipynb, buku catatan lengkap untuk Anda ikuti.

Untuk membuat model deteksi objek kustom, Anda perlu menggunakan instance tugas pelatihan yang mengaktifkan unit pemrosesan grafis (GPU). GPU sangat baik dalam memparalelkan komputasi yang diperlukan untuk melatih jaringan neural. Meskipun notebook itu sendiri adalah instance ml.t2.medium tunggal, tugas pelatihan secara khusus menggunakan instance ml.p2.xlarge. Untuk mengakses instance tugas pelatihan yang mendukung GPU, Anda harus mengajukan permintaan untuk peningkatan batas layanan ke Pusat Dukungan AWS.

Setelah Anda menerima peningkatan batas, selesaikan langkah-langkah berikut untuk membuat contoh notebook SageMaker:

  1. Di konsol SageMaker, pilih Contoh notebook.
  2. Pilih Buat instance notebook.
  3. Untuk Nama instance notebook, masukkan nama untuk instance notebook Anda.
  4. Untuk Jenis instance, pilih t2.medium.

Ini adalah jenis instans paling murah yang didukung instans notebook, dan cukup untuk tutorial ini.

  1. Untuk Peran IAM, pilih Buat peran baru.

Pastikan ini Identitas AWS dan Manajemen Akses Peran (IAM) memiliki akses ke bucket S3 yang Anda buat sebelumnya (prefix deeplens-).

  1. Pilih Buat instance notebook. Instance notebook Anda memerlukan beberapa menit untuk memulai.
  1. Ketika status pada halaman instance notebook berubah menjadi InService, pilih Buka Jupyter untuk meluncurkan instance notebook Jupyter Anda yang baru dibuat.
  2. Pilih Unggah untuk mengunggah Train_Object_Detection_people_DeepLens.ipynb file yang Anda unduh sebelumnya.

  1. Buka buku catatan dan ikuti sampai akhir.
  2. Jika Anda ditanya tentang pengaturan kernel, pilih conda_mxnet_p36.

Notebook Jupyter berisi campuran teks dan sel kode. Untuk menjalankan sepotong kode, pilih sel dan tekan Shift + Enter. Saat sel berjalan, tanda bintang muncul di sebelah sel. Ketika sel selesai, nomor output dan sel output baru muncul di bawah sel asli.

  1. Unduh set data dari bucket S3 publik ke dalam instance SageMaker lokal dan ekstrak datanya. Ini dapat dilakukan dengan mengikuti kode di notebook:
     !aws s3 cp s3://deeplens-public/samples/pedestriansafety/humandetection_data.zip . !rm -rf humandetection/ !unzip humandetection_data.zip -d humandetection 

  2. Ubah kumpulan data menjadi format (RekamIO) yang dapat dimasukkan ke dalam algoritme SageMaker:
     !python $mxnet_path/tools/im2rec.py --pass-through --pack-label $DATA_PATH/train_mask.lst $DATA_PATH/ !python $mxnet_path/tools/im2rec.py --pass-through --pack-label $DATA_PATH/val_mask.lst $DATA_PATH/ 

  3. Transfer file RecordIO kembali ke Amazon S3.

Sekarang setelah Anda selesai dengan semua persiapan data, Anda siap untuk melatih detektor objek.

Ada banyak jenis algoritma deteksi objek. Untuk posting ini, Anda menggunakan Algoritme Single-Shot MultiBox Detection (SSD). Algoritme SSD memiliki keseimbangan kecepatan vs. akurasi yang baik, menjadikannya ideal untuk dijalankan di perangkat edge seperti AWS DeepLens.

Sebagai bagian dari tugas pelatihan, Anda memiliki banyak opsi untuk hyperparameter yang membantu mengonfigurasi perilaku pelatihan (seperti jumlah periode, kecepatan pembelajaran, jenis pengoptimal, dan ukuran tumpukan mini). Hyperparameter memungkinkan Anda menyesuaikan kecepatan dan akurasi pelatihan model Anda. Untuk informasi lebih lanjut tentang hyperparameter, lihat Algoritma Deteksi Objek.

  1. Siapkan hyperparameter dan saluran data Anda. Pertimbangkan untuk menggunakan contoh definisi hyperparameter berikut:
     od_model = sagemaker.estimator.Estimator(training_image, role, train_instance_count=1, train_instance_type='ml.p2.xlarge', train_volume_size = 50, train_max_run = 360000, input_mode= 'File', output_path=s3_output_location, sagemaker_session=sess) od_model.set_hyperparameters(base_network='resnet-50', use_pretrained_model=1, num_classes=2, mini_batch_size=32, epochs=100, learning_rate=0.003, lr_scheduler_step='3,6', lr_scheduler_factor=0.1, optimizer='sgd', momentum=0.9, weight_decay=0.0005, overlap_threshold=0.5, nms_threshold=0.45, image_shape=300, num_training_samples=n_train_samples) 

Notebook memiliki beberapa hyperparameter default yang telah dipilih sebelumnya. Untuk deteksi pejalan kaki, Anda melatih model selama 100 periode. Langkah pelatihan ini akan memakan waktu sekitar 2 jam menggunakan satu contoh ml.p2.xlarge. Anda dapat bereksperimen dengan berbagai kombinasi hyperparameter, atau berlatih untuk lebih banyak waktu guna peningkatan kinerja. Untuk informasi tentang harga terbaru, lihat Harga Amazon SageMaker.

  1. Anda dapat memulai tugas pelatihan dengan satu baris kode dan memantau keakuratannya dari waktu ke waktu di konsol SageMaker:
    od_model.fit(inputs=data_channels, logs=True) 

Untuk informasi lebih lanjut tentang cara kerja pelatihan, lihat BuatPelatihanPekerjaan. Penyediaan dan pengunduhan data membutuhkan waktu, tergantung pada ukuran datanya. Oleh karena itu, mungkin perlu beberapa menit sebelum Anda mulai mendapatkan log data untuk tugas pelatihan Anda.

Anda dapat memantau kemajuan tugas pelatihan melalui metrik rata-rata presisi (mAP), yang memungkinkan Anda memantau kualitas kemampuan model untuk mengklasifikasikan objek dan mendeteksi kotak pembatas yang benar. Log data juga mencetak peta pada data validasi, antara lain kerugian, untuk setiap rangkaian data yang dijalankan, satu kali untuk satu periode. Metrik ini adalah proxy untuk kualitas performa algoritme dalam mendeteksi kelas secara akurat dan kotak pembatas yang akurat di sekitarnya.

Saat pekerjaan selesai, Anda dapat menemukan file model terlatih di bucket S3 dan folder yang ditentukan sebelumnya di s3_output_location:

s3_output_location = 's3://{}/{}/output'.format(BUCKET, PREFIX)

Untuk posting ini, kami menunjukkan hasil pada set validasi pada penyelesaian epoch ke-10 dan epoch ke-100. Pada akhir epoch ke-10, kita melihat peta validasi sekitar 0.027, sedangkan epoch ke-100 sekitar 0.42.

Untuk mencapai hasil deteksi yang lebih baik, Anda dapat mencoba menyesuaikan hyperparameter dengan menggunakan kapabilitas yang dibangun pada SageMaker untuk penyetelan model otomatis dan latih model untuk lebih banyak waktu. Anda biasanya berhenti berlatih saat Anda melihat perolehan yang semakin berkurang dalam akurasi.

Uji model dengan zona pembatasan khusus

Sebelum Anda menerapkan model terlatih ke AWS DeepLens, Anda dapat mengujinya di cloud dengan menggunakan titik akhir yang dihosting SageMaker. Titik akhir SageMaker adalah layanan terkelola sepenuhnya yang memungkinkan Anda membuat kesimpulan waktu nyata melalui REST API. SageMaker memungkinkan Anda menerapkan titik akhir baru dengan cepat untuk menguji model Anda sehingga Anda tidak perlu menghosting model di instance lokal yang digunakan untuk melatih model. Ini memungkinkan Anda membuat prediksi (atau inferensi) dari model pada gambar yang tidak dilihat algoritme selama pelatihan.

Anda tidak harus menjadi host pada jenis instance yang sama dengan yang Anda gunakan untuk melatih. Pelatihan adalah pekerjaan yang berkepanjangan dan komputasi-berat yang membutuhkan kumpulan persyaratan komputasi dan memori yang berbeda yang biasanya tidak dimiliki oleh hosting. Anda dapat memilih jenis instance apa pun yang ingin Anda hosting modelnya. Dalam kasus ini, kami memilih instance ml.p3.2xlarge untuk dilatih, tetapi kami memilih untuk menghosting model pada instance CPU yang lebih murah, ml.m4.xlarge. Cuplikan kode berikut menunjukkan penerapan titik akhir kami.

object_detector = od_model.deploy(initial_instance_count = 1, instance_type = 'ml.m4.xlarge') 

Deteksi di zona pembatasan kustom (wilayah minat)

Format keluaran dapat direpresentasikan sebagai [indeks_kelas, skor_percaya, xmin, ymin, xmax, ymax]. Prediksi dengan keyakinan rendah sering kali memiliki peluang lebih tinggi untuk mendapatkan positif palsu atau negatif palsu, jadi Anda mungkin harus membuang prediksi dengan keyakinan rendah. Anda dapat menggunakan kode berikut untuk mendeteksi jika kotak pembatas orang tersebut tumpang tindih dengan zona terbatas.

def inRestrictedSection(ImShape = None, R1 = None, restricted_region = None, kclass = None, score = None, threshold = None): statement = 'Person Not Detected in Restricted Zone' if (kclass == 1) and (score > threshold): Im1 = np.zeros((ImShape[0],ImShape[1],3), np.int32) cv2.fillPoly(Im1, [R1], 255) Im2 = np.zeros((ImShape[0],ImShape[1],3), np.int32) if restricted_region is None: restricted_region = np.array([[0,ImShape[0]],[ImShape[1],ImShape[0]],[ImShape[1],0], [0,0]], np.int32) cv2.fillPoly(Im2, [restricted_region], 255) Im = Im1 * Im2 if np.sum(np.greater(Im, 0))>0: statement = 'Person Detected in Restricted Zone' else: statement = statement return statement 

Secara default, bingkai lengkap dievaluasi untuk keberadaan manusia. Namun, Anda dapat dengan mudah menentukan wilayah yang diminati di mana keberadaan seseorang dianggap berisiko tinggi. Jika Anda ingin menambahkan zona pembatasan kustom, tambahkan koordinat simpul dari wilayah yang diwakili oleh [sumbu X, sumbu Y] dan buat poligon. Koordinat harus dimasukkan searah jarum jam atau berlawanan arah jarum jam. Lihat kode berikut:

restricted_region = None #restricted_region = np.array([[0,200],[100,200],[100,0], [10,10]], np.int32) 

Kode contoh berikut menunjukkan pejalan kaki yang diidentifikasi dalam zona terlarang:

file_name = 'humandetection/test_images/t1_image.jpg' img = cv2.imread(file_name) img =cv2.cvtColor(img,cv2.COLOR_BGR2RGB) thresh = 0.2 height = img.shape[0] width = img.shape[1] colors = dict() with open(file_name, 'rb') as image: f = image.read() b = bytearray(f) ne = open('n.txt','wb') ne.write(b) results = object_detector.predict(b, initial_args={'ContentType': 'image/jpeg'}) detections = json.loads(results) object_categories = ['no-person', 'person'] for det in detections['prediction']: (klass, score, x0, y0, x1, y1) = det if score < thresh: continue cls_id = int(klass) prob = score if cls_id not in colors: colors[cls_id] = (random.random(), random.random(), random.random()) xmin = int(x0 * width) ymin = int(y0 * height) xmax = int(x1 * width) ymax = int(y1 * height) R1 = np.array([[xmin,ymin],[xmax,ymin],[xmax,ymax], [xmin,ymax]], np.int32) cv2.polylines(img,[R1],True, (255,255,0), thickness = 5) cv2.polylines(img,[restricted_region],True, (255,0,0), thickness = 5) plt.imshow(img) print(inRestrictedSection(img.shape,R1 = R1, restricted_region= restricted_region, kclass = cls_id, score = prob, threshold=0.2)) 

Gambar berikut menunjukkan hasil kami.

Terapkan solusi ke AWS DeepLens

Ubah model untuk penerapan ke AWS DeepLens

Saat menerapkan model SSD terlatih SageMaker ke AWS DeepLens, Anda harus menjalankannya terlebih dahulu menyebarkan.py untuk mengubah artefak model menjadi model yang dapat diterapkan:

!rm -rf incubator-mxnet !git clone -b v1.7.x https://github.com/apache/incubator-mxnet MODEL_PATH = od_model.model_data TARGET_PATH ='s3://'+BUCKET+'/'+PREFIX+'/patched/' !rm -rf tmp && mkdir tmp rm -rf tmp && mkdir tmp !aws s3 cp $MODEL_PATH tmp !tar -xzvf tmp/model.tar.gz -C tmp !mv tmp/model_algo_1-0000.params tmp/ssd_resnet50_300-0000.params !mv tmp/model_algo_1-symbol.json tmp/ssd_resnet50_300-symbol.json !python incubator-mxnet/example/ssd/deploy.py --network resnet50 --data-shape 300 --num-class 2 --prefix tmp/ssd_ !tar -cvzf ./patched_model.tar.gz -C tmp ./deploy_ssd_resnet50_300-0000.params ./deploy_ssd_resnet50_300-symbol.json ./hyperparams.json !aws s3 cp patched_model.tar.gz $TARGET_PATH

Impor model Anda ke AWS DeepLens

Untuk menjalankan model pada perangkat AWS DeepLens, Anda perlu membuat proyek AWS DeepLens. Mulailah dengan mengimpor model Anda ke AWS DeepLens.

  1. Di konsol AWS DeepLens, di bawah Sumber, pilih Model.
  2. Pilih Model impor.

  1. Untuk Sumber impor, pilih Model yang dilatih secara eksternal.
  2. Masukkan lokasi Amazon S3 dari model yang ditambal yang Anda simpan dari menjalankan deploy.py pada langkah di atas.
  3. Untuk Kerangka model, pilih MX Net.
  4. Pilih Model impor.

Buat fungsi inferensi

Fungsi inferensi memasukkan setiap bingkai kamera ke dalam model untuk mendapatkan prediksi dan menjalankan logika bisnis kustom apa pun dengan menggunakan hasil inferensi. Kau gunakan AWS Lambda untuk membuat fungsi yang Anda terapkan ke AWS DeepLens. Fungsi tersebut menjalankan inferensi secara lokal di perangkat AWS DeepLens.

Pertama, kita perlu membuat fungsi Lambda untuk diterapkan ke AWS DeepLens.

  1. Download fungsi inferensi Lambda.
  2. Pada konsol Lambda, pilih Fungsi.
  3. Pilih Buat fungsi.
  4. Pilih Penulis dari awal.
  5. Untuk Nama fungsi, masukkan nama.
  6. Untuk Runtime, pilih Python 3.7.
  7. Untuk Pilih atau buat peran eksekusi, pilih Gunakan peran yang ada.
  8. Pilih service-role / AWSDeepLensLambdaRole.
  9. Pilih Buat fungsi.

  1. Di halaman detail fungsi, di tindakan menu, pilih Unggah file .zip.

  1. Unggah kesimpulan Lambda file yang Anda unduh sebelumnya.
  2. Pilih Save untuk menyimpan kode yang Anda masukkan.
  3. pada tindakan menu, pilih Publikasikan versi baru.

Menerbitkan fungsi membuatnya tersedia di konsol AWS DeepLens sehingga Anda dapat menambahkannya ke proyek kustom Anda.

  1. Masukkan nomor versi dan pilih Menerbitkan.

Memahami fungsi inferensi

Bagian ini memandu Anda melalui beberapa bagian penting dari fungsi inferensi. Pertama, Anda harus memperhatikan dua file tertentu:

  • label.txt - Berisi pemetaan output dari jaringan saraf (bilangan bulat) ke label yang dapat dibaca manusia (string)
  • lambda_function.py - Berisi kode untuk fungsi yang dipanggil untuk menghasilkan prediksi pada setiap bingkai kamera dan mengirimkan kembali hasil

Di lambda_function.py, pertama Anda memuat dan mengoptimalkan model. Dibandingkan dengan mesin virtual cloud dengan GPU, AWS DeepLens memiliki daya komputasi yang lebih sedikit. AWS DeepLens menggunakan pengoptimal model Intel OpenVino untuk mengoptimalkan model yang dilatih di SageMaker untuk dijalankan pada perangkat kerasnya. Kode berikut mengoptimalkan model Anda untuk berjalan secara lokal:

client.publish(topic=iot_topic, payload='Optimizing model...') ret, model_path = mo.optimize('deploy_ssd_resnet50_300', INPUT_W, INPUT_H) # Load the model onto the GPU. client.publish(topic=iot_topic, payload='Loading model...') model = awscam.Model(model_path, {'GPU': 1}) 

Kemudian Anda menjalankan model frame-per-frame di atas gambar dari kamera. Lihat kode berikut:

while True: # Get a frame from the video stream ret, frame = awscam.getLastFrame() if not ret: raise Exception('Failed to get frame from the stream') # Resize frame to the same size as the training set. frame_resize = cv2.resize(frame, (INPUT_H, INPUT_W)) # Run the images through the inference engine and parse the results using # the parser API, note it is possible to get the output of doInference # and do the parsing manually, but since it is a ssd model, # a simple API is provided. parsed_inference_results = model.parseResult(model_type, model.doInference(frame_resize)) 

Terakhir, Anda mengirim hasil prediksi teks kembali ke cloud. Melihat hasil teks di awan adalah cara yang nyaman untuk memastikan bahwa model bekerja dengan benar. Setiap perangkat AWS DeepLens memiliki iot_topic khusus yang dibuat secara otomatis untuk menerima hasil inferensi. Lihat kode berikut:

# Send results to the cloud client.publish(topic=iot_topic, payload=json.dumps(cloud_output)) 

Buat proyek AWS DeepLens khusus

Untuk membuat proyek AWS DeepLens baru, selesaikan langkah-langkah berikut:

  1. Di konsol AWS DeepLens, di Proyek halaman, pilih Buat proyek.
  2. Untuk Jenis proyek, pilih Buat proyek kosong baru.
  3. Pilih Selanjutnya.

  1. Beri nama proyek Anda yourname-pedestrian-detector-.
  2. Pilih Tambahkan model.
  3. Pilih model yang baru saja Anda buat.
  4. Pilih Tambahkan fungsi.
  5. Cari fungsi Lambda yang Anda buat sebelumnya dengan nama.
  6. Pilih Buat proyek.
  7. pada Proyek halaman, pilih proyek yang ingin Anda terapkan.
  8. Memilih Menyebarkan ke perangkat.
  9. Untuk Perangkat target, pilih perangkat Anda.
  10. Pilih ULASAN.
  11. Tinjau pengaturan Anda dan pilih Menyebarkan.

Penerapan dapat memakan waktu hingga 10 menit untuk diselesaikan, bergantung pada kecepatan jaringan yang terhubung dengan AWS DeepLens Anda. Saat penerapan selesai, Anda akan melihat spanduk hijau di halaman dengan pesan, "Selamat, model Anda sekarang berjalan secara lokal di AWS DeepLens!"

Untuk melihat output teks, gulir ke bawah pada halaman detail perangkat ke Output proyek bagian. Ikuti instruksi di bagian untuk menyalin topik dan pergi ke Inti AWS IoT konsol untuk berlangganan topik. Anda harus melihat hasilnya seperti pada tangkapan layar berikut.

Untuk petunjuk langkah demi langkah tentang melihat aliran video atau keluaran teks, lihat Melihat hasil dari AWS DeepLens.

Kasus penggunaan dunia nyata

Sekarang setelah Anda memiliki prediksi dari model Anda yang berjalan di AWS DeepLens, mari kita ubah prediksi tersebut menjadi peringatan dan wawasan. Beberapa kegunaan paling umum untuk proyek seperti ini meliputi:

  • Memahami berapa banyak orang pada hari tertentu memasuki zona terlarang sehingga lokasi konstruksi dapat mengidentifikasi tempat-tempat yang membutuhkan lebih banyak rambu keamanan. Ini dapat dilakukan dengan mengumpulkan hasil dan menggunakannya untuk membuat dasbor menggunakan Amazon QuickSight. Untuk detail selengkapnya tentang membuat dasbor menggunakan QuickSight, lihat Buat pelacak postur kerja-dari-rumah dengan AWS DeepLens dan GluonCV.
  • Mengumpulkan output dari AWS DeepLens dan mengonfigurasi Raspberry Pi untuk membunyikan peringatan ketika seseorang berjalan ke zona terlarang. Untuk detail selengkapnya tentang menghubungkan perangkat AWS DeepLens ke perangkat Raspberry Pi, lihat Membangun penyortir sampah dengan AWS DeepLens.

Kesimpulan

Dalam postingan ini, Anda mempelajari cara melatih model deteksi objek dan menerapkannya ke AWS DeepLens untuk mendeteksi orang yang memasuki zona terbatas. Anda dapat menggunakan tutorial ini sebagai referensi untuk melatih dan menerapkan proyek deteksi objek kustom Anda sendiri di AWS DeepLens.

Untuk penjelasan lebih rinci tentang tutorial ini dan tutorial lainnya, contoh, dan ide proyek dengan AWS DeepLens, lihat Resep AWL DeepLens.


Tentang Penulis

Yash Shah adalah data scientist di Amazon ML Solutions Lab, tempat dia menangani berbagai kasus penggunaan machine learning dari perawatan kesehatan hingga manufaktur dan ritel. Dia memiliki latar belakang formal dalam Faktor Manusia dan Statistik, dan sebelumnya merupakan bagian dari tim Amazon SCOT yang merancang produk untuk memandu penjual 3P dengan manajemen inventaris yang efisien.

Phu Nguyen adalah Manajer Produk untuk AWS Panorama. Dia membuat produk yang memberi pengembang dari tingkat keahlian apa pun pengenalan pembelajaran mesin yang mudah dan langsung.

Sumber: https://aws.amazon.com/blogs/machine-learning/protecting-people-through-virtual-boundaries-computer-vision/

Stempel Waktu:

Lebih dari Blog Pembelajaran Mesin AWS