Computer Vision ile sanal sınırlar aracılığıyla insanları tehlikeli alanlardan korumak

Kaynak Düğüm: 807925

Şirketler işyerine daha fazla otonom robot ve diğer ağır ekipmanları kabul ettikçe, ekipmanın insan ekip arkadaşları etrafında güvenli bir şekilde çalışabilmesini sağlamamız gerekiyor. Bu yazıda, size bilgisayar görüşü ile nasıl sanal bir sınır oluşturacağınızı göstereceğiz ve AWS Derin Lens, geliştiricilerin makine öğrenimini (ML) öğrenmesi için tasarlanmış AWS derin öğrenme özellikli video kamera. Bu gönderideki makine öğrenimi tekniklerini kullanarak, kısıtlı alanlar için ekipmanı otomatik olarak kapatan veya insanlar yaklaştığında uyarı veren sanal sınırlar oluşturabilirsiniz.

Bu proje için, aşağıdakilerle özel bir nesne algılama modeli eğiteceksiniz: Amazon Adaçayı Yapıcı ve modeli bir AWS DeepLens cihazına dağıtın. Nesne algılama, bir görüntüyü girdi olarak alan ve nesneleri ve görüntü içindeki konumlarını tanımlayan bir makine öğrenimi algoritmasıdır. Sanal sınır çözümlerine ek olarak, bu gönderide öğrenilen teknikleri, bir görüntünün içindeki belirli nesnelerin nerede olduğunu algılamanız veya bir görüntüdeki istenen bir nesnenin örnek sayısını saymanız gerektiğinde uygulayabilirsiniz, örneğin bir saklama kutusundaki öğeleri saymak veya bir perakende rafında.

Çözüme genel bakış

İzlenecek yol aşağıdaki adımları içerir:

  1. Veri kümenizi bir makine öğrenimi algoritmasını besleyecek şekilde hazırlayın.
  2. Amazon SageMaker ile bir model eğitin.
  3. Modeli özel kısıtlama bölgeleriyle test edin.
  4. Çözümü AWS DeepLens'e dağıtın.

Bu çözümü uygulayabileceğiniz diğer gerçek dünya kullanım durumlarını da tartışıyoruz.

Aşağıdaki şemada çözüm mimarisi gösterilmektedir.

Önkoşullar

Bu izlenecek yolu tamamlamak için aşağıdaki ön koşullara sahip olmalısınız:

Veri kümenizi bir makine öğrenimi algoritmasını besleyecek şekilde hazırlayın

Bu gönderi, bir kişinin özel kısıtlı bir bölgede olup olmadığını algılayan bir çözüm oluşturmak için nesne algılama modeli adı verilen bir makine öğrenimi algoritması kullanır. Herkese açık olanı kullanıyorsunuz Yaya Algılama veri kümesi 2,000'den fazla resim içeren Kaggle'da mevcuttur. Bu veri kümesi, insan ve insan benzeri nesneler (mankenler gibi) için etiketlere sahiptir, böylece eğitimli model, gerçek insanlar ile karton aksesuarlar veya heykeller arasında daha doğru bir ayrım yapabilir.

Örneğin, aşağıdaki resimler, tespit edilen bir inşaat işçisinin ve özel kısıtlama bölgesinde olup olmadığının (kırmızı çerçeve) örnekleridir.

Modelinizi eğitmeye başlamak için, önce bir S3 grubu oluşturun eğitim verilerinizi ve model çıktınızı saklamak için. AWS DeepLens projeleri için S3 grup adları önekle başlamalıdır deeplens-. Bu verileri, makine öğrenimi modellerini hızlı bir şekilde oluşturma, eğitme ve dağıtma yeteneği sağlayan, tam olarak yönetilen bir hizmet olan SageMaker ile bir modeli eğitmek için kullanırsınız.

Amazon SageMaker ile model eğitme

Modeli eğitmek için geliştirme ortamı olarak SageMaker Jupyter not defterlerini kullanıyorsunuz. Jupyter Notebook, canlı kod, denklemler, görselleştirmeler ve anlatı metni içeren belgeler oluşturmanıza ve paylaşmanıza olanak tanıyan açık kaynaklı bir web uygulamasıdır. Bu gönderi için sağladığımız Train_Object_Detection_People_DeepLens.ipynb, takip etmeniz için eksiksiz bir not defteri.

Özel bir nesne algılama modeli oluşturmak için grafik işleme birimi (GPU) özellikli bir eğitim işi örneği kullanmanız gerekir. GPU'lar, bir sinir ağını eğitmek için gereken hesaplamaları paralelleştirmede mükemmeldir. Not defterinin kendisi tek bir ml.t2.medium örneği olsa da, eğitim işi özellikle bir ml.p2.xlarge örneği kullanır. GPU özellikli bir eğitim işi örneğine erişmek için şunları yapmalısınız: hizmet limiti artışı için talep gönderin AWS Destek Merkezi'ne.

Limit artışınızı aldıktan sonra, bir SageMaker not defteri örneği oluşturmak için aşağıdaki adımları tamamlayın:

  1. SageMaker konsolunda, Dizüstü bilgisayar örnekleri.
  2. Klinik Defter örneği oluştur.
  3. İçin Defter örneği adı, not defteri örneğiniz için bir ad girin.
  4. İçin Örnek türü, seçmek t2.orta.

Bu, dizüstü bilgisayar bulut sunucularının desteklediği en ucuz bulut sunucusu tipidir ve bu eğitim için yeterlidir.

  1. İçin IAM rolü, seçmek Yeni bir rol oluştur.

emin ol AWS Kimlik ve Erişim Yönetimi (IAM) rolü, daha önce oluşturduğunuz S3 klasörüne erişebilir (önek deeplens-).

  1. Klinik Defter örneği oluştur. Not defteri örneğinizin başlatılması birkaç dakika sürebilir.
  1. Not defteri bulut sunucuları sayfasındaki durum Hizmette olarak değiştiğinde, Jupyter'ı aç yeni oluşturduğunuz Jupyter not defteri örneğinizi başlatmak için.
  2. Klinik Foto Yükle yüklemek için Train_Object_Detection_people_DeepLens.ipynb Daha önce indirdiğiniz dosya.

  1. Not defterini açın ve sonuna kadar izleyin.
  2. Çekirdeği ayarlamanız istenirse, conda_mxnet_p36.

Jupyter not defteri, metin ve kod hücrelerinin bir karışımını içerir. Bir kod parçasını çalıştırmak için hücreyi seçin ve tuşuna basın. Shift + Enter. Hücre çalışırken, hücrenin yanında bir yıldız işareti görünür. Hücre tamamlandığında, orijinal hücrenin altında bir çıktı numarası ve yeni çıktı hücresi görünür.

  1. Genel S3 klasöründeki veri kümesini yerel SageMaker örneğine indirin ve verileri sıkıştırın. Bu, not defterindeki kodu izleyerek yapılabilir:
     !aws s3 cp s3://deeplens-public/samples/pedestriansafety/humandetection_data.zip . !rm -rf humandetection/ !unzip humandetection_data.zip -d humandetection 

  2. Veri kümesini bir biçime dönüştürün (KayıtIO) SageMaker algoritmasına beslenebilir:
     !python $mxnet_path/tools/im2rec.py --pass-through --pack-label $DATA_PATH/train_mask.lst $DATA_PATH/ !python $mxnet_path/tools/im2rec.py --pass-through --pack-label $DATA_PATH/val_mask.lst $DATA_PATH/ 

  3. RecordIO dosyalarını tekrar Amazon S3'e aktarın.

Artık tüm veri hazırlığını tamamladığınıza göre, nesne dedektörünü eğitmeye hazırsınız.

Birçok farklı nesne algılama algoritması türü vardır. Bu gönderi için, Tek Çekim Çoklu Kutu Algılama algoritması (SSD). SSD algoritması iyi bir hız ve doğruluk dengesine sahiptir ve bu da onu AWS DeepLens gibi uç cihazlarda çalıştırmak için ideal kılar.

Eğitim işinin bir parçası olarak, eğitim davranışını yapılandırmaya yardımcı olan birçok hiperparametre seçeneğiniz vardır (dönem sayısı, öğrenme hızı, optimize edici türü ve mini parti boyutu gibi). Hiperparametreler, modelinizin eğitim hızını ve doğruluğunu ayarlamanıza izin verir. Hiperparametreler hakkında daha fazla bilgi için bkz. Nesne Algılama Algoritması.

  1. Hiperparametrelerinizi ve veri kanallarınızı ayarlayın. Hiperparametrelerin aşağıdaki örnek tanımını kullanmayı düşünün:
     od_model = sagemaker.estimator.Estimator(training_image, role, train_instance_count=1, train_instance_type='ml.p2.xlarge', train_volume_size = 50, train_max_run = 360000, input_mode= 'File', output_path=s3_output_location, sagemaker_session=sess) od_model.set_hyperparameters(base_network='resnet-50', use_pretrained_model=1, num_classes=2, mini_batch_size=32, epochs=100, learning_rate=0.003, lr_scheduler_step='3,6', lr_scheduler_factor=0.1, optimizer='sgd', momentum=0.9, weight_decay=0.0005, overlap_threshold=0.5, nms_threshold=0.45, image_shape=300, num_training_samples=n_train_samples) 

Dizüstü bilgisayarın önceden seçilmiş bazı varsayılan hiperparametreleri vardır. Yaya tespiti için, modeli 100 dönem için eğitirsiniz. Bu eğitim adımı, bir ml.p2.xlarge bulut sunucusu kullanılarak yaklaşık 2 saat sürmelidir. Hiperparametrelerin farklı kombinasyonlarını deneyebilir veya performans iyileştirmeleri için daha fazla dönem için eğitim yapabilirsiniz. En son fiyatlandırma hakkında bilgi için bkz. Amazon SageMaker Fiyatlandırması.

  1. Tek bir kod satırıyla bir eğitim işine başlayabilir ve SageMaker konsolunda zaman içindeki doğruluğu izleyebilirsiniz:
    od_model.fit(inputs=data_channels, logs=True) 

Eğitimin nasıl çalıştığı hakkında daha fazla bilgi için bkz. YaratEğitimİşi. Hazırlama ve veri indirme, verilerin boyutuna bağlı olarak zaman alır. Bu nedenle, eğitim işleriniz için veri günlüklerini almaya başlamanız birkaç dakika alabilir.

Eğitim işinizin ilerleyişini, modelin nesneleri sınıflandırma ve doğru sınırlayıcı kutuları algılama becerisinin kalitesini izlemenizi sağlayan metrik ortalama ortalama kesinlik (mAP) aracılığıyla izleyebilirsiniz. Veri günlükleri, diğer kayıpların yanı sıra, veri kümesinin her çalışması için, bir dönem için bir kez olmak üzere, doğrulama verileri üzerindeki haritayı da yazdırır. Bu metrik, algoritmanın sınıfı ve etrafındaki doğru sınırlayıcı kutuyu doğru bir şekilde algılama konusundaki performansının kalitesi için bir proxy'dir.

İş bittiğinde, eğitilmiş model dosyalarını S3 kovasında ve daha önce belirtilen klasörde bulabilirsiniz. s3_output_location:

s3_output_location = 's3://{}/{}/output'.format(BUCKET, PREFIX)

Bu gönderi için, 10. epoch ve 100. epoch'un tamamlanmasındaki doğrulama setiyle ilgili sonuçları gösteriyoruz. 10. dönemin sonunda, yaklaşık 0.027'lik bir doğrulama mAP'si görüyoruz, oysa 100. dönemin yaklaşık 0.42'ydi.

Daha iyi algılama sonuçları elde etmek için SageMaker'da yerleşik olan özelliği kullanarak hiperparametreleri ayarlamayı deneyebilirsiniz. otomatik model ayarlama ve modeli daha fazla dönem için eğitin. Doğrulukta azalan bir kazanç gördüğünüzde genellikle antrenmanı durdurursunuz.

Özel kısıtlama bölgeleriyle test modeli

Eğitilen modeli AWS DeepLens'e dağıtmadan önce, SageMaker tarafından barındırılan bir uç nokta kullanarak bulutta test edebilirsiniz. Bir SageMaker uç noktası, bir REST API aracılığıyla gerçek zamanlı çıkarımlar yapmanızı sağlayan, tam olarak yönetilen bir hizmettir. SageMaker, modeli eğitmek için kullanılan yerel örnekte barındırmak zorunda kalmamanız için modellerinizi test etmek üzere hızla yeni uç noktalar dağıtmanıza olanak tanır. Bu, algoritmanın eğitim sırasında görmediği görüntüler üzerinde modelden tahminler (veya çıkarımlar) yapmanızı sağlar.

Eğitmek için kullandığınız aynı bulut sunucusu tipinde barındırmak zorunda değilsiniz. Eğitim, genellikle barındırmada olmayan farklı bir bilgi işlem ve bellek gereksinimleri kümesi gerektiren, uzun süreli ve yoğun işlem gerektiren bir iştir. Modeli barındırmak istediğiniz herhangi bir örnek türünü seçebilirsiniz. Bu durumda, eğitmek için ml.p3.2xlarge bulut sunucusunu seçtik, ancak modeli daha ucuz CPU bulut sunucusu olan ml.m4.xlarge üzerinde barındırmayı seçtik. Aşağıdaki kod parçacığı, uç nokta dağıtımımızı gösterir.

object_detector = od_model.deploy(initial_instance_count = 1, instance_type = 'ml.m4.xlarge') 

Özel kısıtlama bölgesinde algılama (ilgi alanı)

Çıktının formatı [class_index, trust_score, xmin, ymin, xmax, ymax] olarak gösterilebilir. Güvenilirliği düşük tahminlerin genellikle yanlış pozitif veya yanlış negatif olma olasılığı daha yüksektir, bu nedenle muhtemelen düşük güvenirlikli tahminleri atmalısınız. Kişinin sınırlayıcı kutusunun kısıtlı bölge ile çakışıp çakışmadığını tespit etmek için aşağıdaki kodu kullanabilirsiniz.

def inRestrictedSection(ImShape = None, R1 = None, restricted_region = None, kclass = None, score = None, threshold = None): statement = 'Person Not Detected in Restricted Zone' if (kclass == 1) and (score > threshold): Im1 = np.zeros((ImShape[0],ImShape[1],3), np.int32) cv2.fillPoly(Im1, [R1], 255) Im2 = np.zeros((ImShape[0],ImShape[1],3), np.int32) if restricted_region is None: restricted_region = np.array([[0,ImShape[0]],[ImShape[1],ImShape[0]],[ImShape[1],0], [0,0]], np.int32) cv2.fillPoly(Im2, [restricted_region], 255) Im = Im1 * Im2 if np.sum(np.greater(Im, 0))>0: statement = 'Person Detected in Restricted Zone' else: statement = statement return statement 

Varsayılan olarak, tam çerçeve insan varlığı için değerlendirilir. Ancak, bir kişinin varlığının yüksek riskli kabul edildiği ilgi bölgesini kolayca belirleyebilirsiniz. Özel bir kısıtlama bölgesi eklemek istiyorsanız, bölgenin [X-axis,Y-axis] ile temsil edilen köşelerinin koordinatlarını ekleyin ve çokgeni oluşturun. Koordinatlar saat yönünde veya saat yönünün tersine girilmelidir. Aşağıdaki koda bakın:

restricted_region = None #restricted_region = np.array([[0,200],[100,200],[100,0], [10,10]], np.int32) 

Aşağıdaki örnek kod, kısıtlı bir bölgede tanımlanan yayaları göstermektedir:

file_name = 'humandetection/test_images/t1_image.jpg' img = cv2.imread(file_name) img =cv2.cvtColor(img,cv2.COLOR_BGR2RGB) thresh = 0.2 height = img.shape[0] width = img.shape[1] colors = dict() with open(file_name, 'rb') as image: f = image.read() b = bytearray(f) ne = open('n.txt','wb') ne.write(b) results = object_detector.predict(b, initial_args={'ContentType': 'image/jpeg'}) detections = json.loads(results) object_categories = ['no-person', 'person'] for det in detections['prediction']: (klass, score, x0, y0, x1, y1) = det if score < thresh: continue cls_id = int(klass) prob = score if cls_id not in colors: colors[cls_id] = (random.random(), random.random(), random.random()) xmin = int(x0 * width) ymin = int(y0 * height) xmax = int(x1 * width) ymax = int(y1 * height) R1 = np.array([[xmin,ymin],[xmax,ymin],[xmax,ymax], [xmin,ymax]], np.int32) cv2.polylines(img,[R1],True, (255,255,0), thickness = 5) cv2.polylines(img,[restricted_region],True, (255,0,0), thickness = 5) plt.imshow(img) print(inRestrictedSection(img.shape,R1 = R1, restricted_region= restricted_region, kclass = cls_id, score = prob, threshold=0.2)) 

Aşağıdaki resimler sonuçlarımızı göstermektedir.

Çözümü AWS DeepLens'e dağıtın

Dağıtım için modeli AWS DeepLens'e dönüştürün

SageMaker tarafından eğitilmiş bir SSD modelini AWS DeepLens'e dağıtırken, önce çalıştırmanız gerekir konuşlandırma.py model yapıtını konuşlandırılabilir bir modele dönüştürmek için:

!rm -rf incubator-mxnet !git clone -b v1.7.x https://github.com/apache/incubator-mxnet MODEL_PATH = od_model.model_data TARGET_PATH ='s3://'+BUCKET+'/'+PREFIX+'/patched/' !rm -rf tmp && mkdir tmp rm -rf tmp && mkdir tmp !aws s3 cp $MODEL_PATH tmp !tar -xzvf tmp/model.tar.gz -C tmp !mv tmp/model_algo_1-0000.params tmp/ssd_resnet50_300-0000.params !mv tmp/model_algo_1-symbol.json tmp/ssd_resnet50_300-symbol.json !python incubator-mxnet/example/ssd/deploy.py --network resnet50 --data-shape 300 --num-class 2 --prefix tmp/ssd_ !tar -cvzf ./patched_model.tar.gz -C tmp ./deploy_ssd_resnet50_300-0000.params ./deploy_ssd_resnet50_300-symbol.json ./hyperparams.json !aws s3 cp patched_model.tar.gz $TARGET_PATH

Modelinizi AWS DeepLens'e aktarın

Modeli bir AWS DeepLens cihazında çalıştırmak için bir AWS DeepLens projesi oluşturmanız gerekir. Modelinizi AWS DeepLens'e aktararak başlayın.

  1. AWS DeepLens konsolunda, altında Kaynaklar, seçmek Modeller.
  2. Klinik Modeli içe aktar.

  1. İçin Kaynağı içe aktarseçin Dışarıdan eğitilmiş model.
  2. Amazon S3 konumunu girin yamalı model yukarıdaki adımda konuşlandırma.py'yi çalıştırmaktan kurtardığınız.
  3. İçin Model çerçevesi, seçmek MX Ağı.
  4. Klinik Modeli içe aktar.

Çıkarım işlevini oluşturma

Çıkarım işlevi, tahminler almak için her kamera karesini modele besler ve çıkarım sonuçlarını kullanarak herhangi bir özel iş mantığını çalıştırır. Kullan AWS Lambda AWS DeepLens'e dağıttığınız bir işlev oluşturmak için. İşlev, çıkarımı yerel olarak AWS DeepLens cihazında çalıştırır.

Öncelikle, AWS DeepLens'e dağıtmak için bir Lambda işlevi oluşturmamız gerekiyor.

  1. Atomic Cüzdanı indirin : çıkarım Lambda işlevi.
  2. Lambda konsolunda şunu seçin: fonksiyonlar.
  3. Klinik İşlev oluştur.
  4. seç Sıfırdan yazar.
  5. İçin Fonksiyon adı, isim girin.
  6. İçin Süre, seçmek Python 3.7.
  7. İçin Bir yürütme rolü seçin veya oluşturun, seçmek Mevcut bir rolü kullan.
  8. Klinik hizmet rolü/AWSDeepLensLambdaRole.
  9. Klinik İşlev oluştur.

  1. İşlevin ayrıntı sayfasında, İşlemler menü seç Bir .zip dosyası yükleyin.

  1. Yükle çıkarım Lambda Daha önce indirdiğiniz dosya.
  2. Klinik İndirim Girdiğiniz kodu kaydetmek için
  3. Üzerinde İşlemler menü seç Yeni sürümü yayınla.

İşlevi yayınlamak, onu özel projenize ekleyebilmeniz için AWS DeepLens konsolunda kullanılabilir hale getirir.

  1. Bir sürüm numarası girin ve Yayınlamak.

Çıkarım işlevini anlama

Bu bölüm, çıkarım işlevinin bazı önemli kısımlarında size yol gösterir. Öncelikle, iki özel dosyaya dikkat etmelisiniz:

  • etiketler.txt – Sinir ağından (tamsayılar) çıktının insan tarafından okunabilir etiketlere (dize) eşlemesini içerir
  • lambda_function.py – Her kamera karesinde tahminler oluşturmak ve sonuçları geri göndermek için çağrılan işlevin kodunu içerir

lambda_function.py'de önce modeli yükler ve optimize edersiniz. AWS DeepLens, GPU'lu bulut sanal makineleriyle karşılaştırıldığında daha az bilgi işlem gücüne sahiptir. AWS DeepLens, SageMaker'da eğitilen modeli donanımında çalışacak şekilde optimize etmek için Intel OpenVino model optimize ediciyi kullanır. Aşağıdaki kod, modelinizi yerel olarak çalışacak şekilde optimize eder:

client.publish(topic=iot_topic, payload='Optimizing model...') ret, model_path = mo.optimize('deploy_ssd_resnet50_300', INPUT_W, INPUT_H) # Load the model onto the GPU. client.publish(topic=iot_topic, payload='Loading model...') model = awscam.Model(model_path, {'GPU': 1}) 

Ardından, modeli kare başına kameradan gelen görüntüler üzerinde çalıştırırsınız. Aşağıdaki koda bakın:

while True: # Get a frame from the video stream ret, frame = awscam.getLastFrame() if not ret: raise Exception('Failed to get frame from the stream') # Resize frame to the same size as the training set. frame_resize = cv2.resize(frame, (INPUT_H, INPUT_W)) # Run the images through the inference engine and parse the results using # the parser API, note it is possible to get the output of doInference # and do the parsing manually, but since it is a ssd model, # a simple API is provided. parsed_inference_results = model.parseResult(model_type, model.doInference(frame_resize)) 

Son olarak, metin tahmini sonuçlarını buluta geri gönderirsiniz. Metin sonuçlarını bulutta görüntülemek, modelin doğru çalıştığından emin olmanın kolay bir yoludur. Her AWS DeepLens cihazında, çıkarım sonuçlarını almak için otomatik olarak oluşturulmuş özel bir iot_topic bulunur. Aşağıdaki koda bakın:

# Send results to the cloud client.publish(topic=iot_topic, payload=json.dumps(cloud_output)) 

Özel bir AWS DeepLens projesi oluşturun

Yeni bir AWS DeepLens projesi oluşturmak için aşağıdaki adımları tamamlayın:

  1. AWS DeepLens konsolunda, Projeler sayfasını seçin proje oluşturma.
  2. İçin Proje tipiseçin Yeni bir boş proje oluştur.
  3. Klinik Sonraki.

  1. Projenizi adlandırın yourname-pedestrian-detector-.
  2. Klinik Model ekle.
  3. Az önce oluşturduğunuz modeli seçin.
  4. Klinik İşlev ekle.
  5. Daha önce oluşturduğunuz Lambda işlevini ada göre arayın.
  6. Klinik proje oluşturma.
  7. Üzerinde Projeler sayfasında dağıtmak istediğiniz projeyi seçin.
  8. seçti Cihaza dağıt.
  9. İçin Hedef cihaz, cihazınızı seçin.
  10. Klinik Değerlendirme.
  11. Ayarlarınızı gözden geçirin ve seçin Sürüş.

AWS DeepLens'inizin bağlı olduğu ağın hızına bağlı olarak dağıtımın tamamlanması 10 dakika kadar sürebilir. Dağıtım tamamlandığında, sayfada "Tebrikler, modeliniz artık AWS DeepLens üzerinde yerel olarak çalışıyor!" mesajını içeren yeşil bir banner görmelisiniz.

Metin çıktısını görmek için cihaz ayrıntıları sayfasında aşağı kaydırarak Proje çıktısı bölüm. Konuyu kopyalamak için bölümdeki talimatları izleyin ve AWS IoT Çekirdeği konuya abone olmak için konsol. Sonuçları aşağıdaki ekran görüntüsündeki gibi görmelisiniz.

Video akışını veya metin çıktısını görüntülemeyle ilgili adım adım talimatlar için bkz. AWS DeepLens sonuçlarını görüntüleme.

Gerçek dünya kullanım örnekleri

Artık modelinizden AWS DeepLens üzerinde çalışan tahminlere sahip olduğunuza göre, bu tahminleri uyarılara ve içgörülere dönüştürelim. Bunun gibi bir proje için en yaygın kullanımlardan bazıları şunlardır:

  • Belirli bir günde kaç kişinin kısıtlı bir bölgeye girdiğini anlamak, böylece şantiyeler daha fazla güvenlik işareti gerektiren noktaları belirleyebilir. Bu, sonuçları toplayarak ve bunları kullanarak bir pano oluşturmak için kullanarak yapılabilir. Amazon QuickSight. QuickSight'ı kullanarak pano oluşturma hakkında daha fazla ayrıntı için bkz. AWS DeepLens ve GluonCV ile evden işe bir duruş takip cihazı oluşturun.
  • AWS DeepLens'ten çıktı toplama ve bir Raspberry Pi'yi birisi kısıtlı bir bölgeye girerken uyarı sesi verecek şekilde yapılandırma. AWS DeepLens cihazını Raspberry Pi cihazına bağlama hakkında daha fazla ayrıntı için bkz. AWS DeepLens ile bir çöp ayırıcı oluşturma.

Sonuç

Bu gönderide, bir nesne algılama modelini nasıl eğiteceğinizi ve kısıtlı bölgelere giren kişileri algılamak için AWS DeepLens'e dağıtmayı öğrendiniz. AWS DeepLens üzerinde kendi özel nesne algılama projelerinizi eğitmek ve devreye almak için bu öğreticiyi referans olarak kullanabilirsiniz.

Bu eğitimin ve diğer eğitimlerin, örneklerin ve AWS DeepLens ile proje fikirlerinin daha ayrıntılı bir incelemesi için bkz. AWS DeepLens Tarifler.


Yazarlar Hakkında

Yash Shah Amazon ML Çözümleri Laboratuvarı'nda, sağlık hizmetlerinden üretim ve perakendeye kadar çeşitli makine öğrenimi kullanım durumları üzerinde çalıştığı bir veri bilimcisidir. İnsan Faktörleri ve İstatistik alanında resmi bir geçmişe sahiptir ve daha önce verimli envanter yönetimi ile 3P satıcılarına rehberlik edecek ürünler tasarlayan Amazon SCOT ekibinin bir parçasıydı.

Phu Nguyen AWS Panorama için Ürün Yöneticisidir. Her düzeydeki geliştiriciye makine öğrenimine kolay ve uygulamalı bir giriş sağlayan ürünler geliştiriyor.

Kaynak: https://aws.amazon.com/blogs/machine-learning/protecting-people-through-virtual-boundaries-computer-vision/

Zaman Damgası:

Den fazla AWS Makine Öğrenimi Blogu