Emberek védelme a veszélyes területektől virtuális határokon keresztül a Computer Vision segítségével

Forrás csomópont: 807925

Mivel a vállalatok több autonóm robotot és más nehéz felszerelést fogadnak be a munkahelyeken, biztosítanunk kell, hogy a berendezések biztonságosan működhessenek az emberi csapattársak közelében. Ebben a bejegyzésben megmutatjuk, hogyan építhetsz virtuális határt számítógépes látással és AWS DeepLens, az AWS mély tanulásra képes videokamera, amelyet a fejlesztők számára terveztek gépi tanulás (ML) elsajátítására. Az ebben a bejegyzésben található gépi tanulási technikák segítségével virtuális határokat építhet a korlátozott területek számára, amelyek automatikusan leállítják a berendezéseket, vagy riasztást adnak, amikor emberek közelednek.

Ehhez a projekthez egy egyéni objektumészlelési modellt fog betanítani Amazon SageMaker és telepítse a modellt egy AWS DeepLens eszközre. Az objektumészlelés egy ML algoritmus, amely bemenetként képet vesz fel, és azonosítja az objektumokat és azok helyét a képen belül. A virtuális határmegoldásokon kívül az ebben a bejegyzésben tanult technikákat is alkalmazhatja, amikor fel kell mérnie, hogy bizonyos objektumok hol vannak a képen belül, vagy meg kell számolnia a kívánt objektum példányainak számát a képen, például meg kell számolnia a tárolótálcában lévő elemeket, ill. egy kiskereskedelmi polcon.

Megoldás áttekintése

Az áttekintés a következő lépéseket tartalmazza:

  1. Készítse elő az adatkészletet egy ML algoritmusba való betápláláshoz.
  2. Tanítson modellt az Amazon SageMakerrel.
  3. Tesztmodell egyedi korlátozási zónákkal.
  4. Telepítse a megoldást az AWS DeepLensben.

Megbeszélünk más valós felhasználási eseteket is, ahol ezt a megoldást alkalmazhatja.

A következő ábra a megoldás architektúráját mutatja be.

Előfeltételek

A bemutató befejezéséhez a következő előfeltételekkel kell rendelkeznie:

Készítse elő az adatkészletet egy ML algoritmusba való betápláláshoz

Ez a bejegyzés egy objektumészlelési modellnek nevezett ML algoritmust használ egy olyan megoldás létrehozásához, amely észleli, ha egy személy egyéni korlátozott zónában van. Ön a nyilvánosan elérhetőt használja Gyalogos-észlelési adatkészlet elérhető a Kaggle-n, amely több mint 2,000 képet tartalmaz. Ez az adatkészlet címkéket tartalmaz az emberhez és az emberszerű tárgyakhoz (például a próbababákhoz), így a képzett modell pontosabban tud különbséget tenni a valódi emberek és a karton kellékek vagy szobrok között.

A következő képek például példák egy építőmunkás észlelésére, és arra, hogy az egyéni korlátozási zónában vannak-e (piros körvonal).

A modell képzésének megkezdéséhez először hozzon létre egy S3 vödröt az edzési adatok és a modellkimenet tárolására. Az AWS DeepLens projektek esetében az S3 csoportneveknek az előtaggal kell kezdődniük deeplens-. Ezeket az adatokat egy modell betanításához használja a SageMakerrel, egy teljesen felügyelt szolgáltatással, amely lehetővé teszi az ML modellek gyors felépítését, betanítását és üzembe helyezését.

Tanítson modellt az Amazon SageMakerrel

A SageMaker Jupyter notebookokat használja fejlesztői környezetként a modell betanításához. A Jupyter Notebook egy nyílt forráskódú webalkalmazás, amely lehetővé teszi élő kódot, egyenleteket, vizualizációkat és narratív szöveget tartalmazó dokumentumok létrehozását és megosztását. Ehhez a poszthoz biztosítjuk Train_Object_Detection_People_DeepLens.ipynb, egy teljes jegyzetfüzet, amelyet követhet.

Egyéni objektumészlelési modell létrehozásához grafikus feldolgozóegység- (GPU)-képes betanítási feladatpéldányt kell használnia. A GPU-k kiválóan alkalmasak a neurális hálózat betanításához szükséges számítások párhuzamosítására. Bár maga a notebook egyetlen ml.t2.medium példány, a betanítási feladat kifejezetten egy ml.p2.xlarge példányt használ. A GPU-képes képzési feladatpéldány eléréséhez meg kell tennie szolgáltatási keretemelési kérelmet nyújt be az AWS támogatási központjába.

Miután megkapta a korlát növelését, hajtsa végre a következő lépéseket egy SageMaker jegyzetfüzetpéldány létrehozásához:

  1. A SageMaker konzolon válassza a lehetőséget Notebook példányok.
  2. A pop-art design, négy időzóna kijelzése egyszerre és méretének arányai azok az érvek, amelyek a NeXtime Time Zones-t kiváló választássá teszik. Válassza a Jegyzetfüzet példány létrehozása.
  3. A Jegyzetfüzet példány neve, adjon nevet a jegyzetfüzet példányának.
  4. A Példánytípus, választ t2.közepes.

Ez a legolcsóbb példánytípus, amelyet a notebook példányok támogatnak, és ez elegendő ehhez az oktatóanyaghoz.

  1. A IAM szerepkör, választ Hozzon létre egy új szerepet.

Győződjön meg erről AWS Identity and Access Management (IAM) szerepkör hozzáféréssel rendelkezik a korábban létrehozott S3 tárolóhoz (előtag deeplens-).

  1. A pop-art design, négy időzóna kijelzése egyszerre és méretének arányai azok az érvek, amelyek a NeXtime Time Zones-t kiváló választássá teszik. Válassza a Jegyzetfüzet példány létrehozása. A notebook példányának elindítása néhány percet is igénybe vehet.
  1. Ha a jegyzetfüzet példányok oldalán az állapot InService-re változik, válassza a lehetőséget Nyissa meg a Jupytert az újonnan létrehozott Jupyter notebook példány elindításához.
  2. A pop-art design, négy időzóna kijelzése egyszerre és méretének arányai azok az érvek, amelyek a NeXtime Time Zones-t kiváló választássá teszik. Válassza a Feltöltés feltölteni a Train_Object_Detection_people_DeepLens.ipynb korábban letöltött fájl.

  1. Nyissa ki a jegyzetfüzetet, és kövesse a végéig.
  2. Ha a rendszermag beállításáról kérdezik, válassza a lehetőséget conda_mxnet_p36.

A Jupyter notebook szöveg- és kódcellák keverékét tartalmazza. Egy kódrészlet futtatásához válassza ki a cellát, és nyomja meg a gombot Shift + Enter. Amíg a cella fut, a cella mellett egy csillag jelenik meg. Amikor a cella elkészült, egy kimeneti szám és egy új kimeneti cella jelenik meg az eredeti cella alatt.

  1. Töltse le az adatkészletet a nyilvános S3 tárolóból a helyi SageMaker példányba, és csomagolja ki az adatokat. Ezt a jegyzetfüzetben található kód követésével teheti meg:
     !aws s3 cp s3://deeplens-public/samples/pedestriansafety/humandetection_data.zip . !rm -rf humandetection/ !unzip humandetection_data.zip -d humandetection 

  2. Konvertálja az adatkészletet formátumba (RecordIO), amely betáplálható a SageMaker algoritmusba:
     !python $mxnet_path/tools/im2rec.py --pass-through --pack-label $DATA_PATH/train_mask.lst $DATA_PATH/ !python $mxnet_path/tools/im2rec.py --pass-through --pack-label $DATA_PATH/val_mask.lst $DATA_PATH/ 

  3. Vigye vissza a RecordIO fájlokat az Amazon S3-ba.

Most, hogy végzett az adatok előkészítésével, készen áll a tárgydetektor betanítására.

Számos különböző típusú objektumészlelési algoritmus létezik. Ehhez a bejegyzéshez használja a Single-Shot MultiBox Detection algoritmus (SSD). Az SSD-algoritmusnak jó egyensúlya van a sebesség és a pontosság között, így ideális az olyan szélső eszközökön való futtatáshoz, mint az AWS DeepLens.

A betanítási munka részeként számos lehetőség áll rendelkezésére a hiperparaméterekre vonatkozóan, amelyek segítenek a betanítási viselkedés konfigurálásában (például a korszakok száma, a tanulási sebesség, az optimalizáló típusa és a mini köteg mérete). A hiperparaméterek segítségével beállíthatja a modell edzési sebességét és pontosságát. A hiperparaméterekkel kapcsolatos további információkért lásd: Objektumészlelési algoritmus.

  1. Állítsa be a hiperparamétereket és az adatcsatornákat. Fontolja meg a hiperparaméterek alábbi példadefiníciójának használatát:
     od_model = sagemaker.estimator.Estimator(training_image, role, train_instance_count=1, train_instance_type='ml.p2.xlarge', train_volume_size = 50, train_max_run = 360000, input_mode= 'File', output_path=s3_output_location, sagemaker_session=sess) od_model.set_hyperparameters(base_network='resnet-50', use_pretrained_model=1, num_classes=2, mini_batch_size=32, epochs=100, learning_rate=0.003, lr_scheduler_step='3,6', lr_scheduler_factor=0.1, optimizer='sgd', momentum=0.9, weight_decay=0.0005, overlap_threshold=0.5, nms_threshold=0.45, image_shape=300, num_training_samples=n_train_samples) 

A notebook rendelkezik néhány alapértelmezett hiperparaméterrel, amelyeket előre kiválasztottak. A gyalogosészleléshez a modellt 100 korszakon keresztül kell betanítani. Ez a képzési lépés körülbelül 2 órát vesz igénybe egy ml.p2.xlarge példány használatával. Kísérletezhet a hiperparaméterek különböző kombinációival, vagy edzhet több korszakra a teljesítmény javítására. A legújabb árakkal kapcsolatos információkért lásd: Amazon SageMaker árképzés.

  1. Elkezdhet egy képzési feladatot egyetlen kódsorral, és figyelemmel kísérheti a pontosságot az idő múlásával a SageMaker konzolon:
    od_model.fit(inputs=data_channels, logs=True) 

A képzés működésével kapcsolatos további információkért lásd: CreateTrainingJob. A kiépítés és az adatok letöltése az adatok méretétől függően időt vesz igénybe. Ezért előfordulhat, hogy néhány percbe telhet, amíg elkezdi a képzési munkáihoz tartozó adatnaplók beszerzését.

A betanítási feladat előrehaladását a metrikus átlagos pontosság (mAP) segítségével követheti nyomon, amely lehetővé teszi a modell objektumok osztályozási képességének és a megfelelő határolókeretek észlelésének minőségét. Az adatnaplók az adathalmaz minden futtatásakor, egy korszakonként egyszer kinyomtatják az érvényesítési adatok mAP-ját, többek között a veszteségeket. Ez a mérőszám az osztály és a körülötte lévő pontos határolókeret pontos észlelése során tanúsított algoritmus teljesítményének minőségi proxyja.

Amikor a munka befejeződött, megtalálhatja a betanított modellfájlokat a korábban megadott S3 tárolóban és mappában s3_output_location:

s3_output_location = 's3://{}/{}/output'.format(BUCKET, PREFIX)

Ebben a bejegyzésben a 10. és a 100. korszak befejezésekor kapott érvényesítési halmaz eredményeit mutatjuk be. A 10. korszak végén körülbelül 0.027-es validációs térképet látunk, míg a 100. korszak körülbelül 0.42 volt.

A jobb észlelési eredmények elérése érdekében megpróbálhatja hangolni a hiperparamétereket a SageMakerbe beépített képesség segítségével. automatikus modelltuning és képezze a modellt több korszakra. Általában akkor hagyja abba az edzést, ha a pontosság csökkenését tapasztalja.

Tesztmodell egyedi korlátozási zónákkal

Mielőtt üzembe helyezné a betanított modellt az AWS DeepLens rendszerben, tesztelheti azt a felhőben egy SageMaker által üzemeltetett végpont használatával. A SageMaker végpont egy teljesen felügyelt szolgáltatás, amely lehetővé teszi valós idejű következtetések levonását a REST API-n keresztül. A SageMaker lehetővé teszi új végpontok gyors üzembe helyezését a modellek teszteléséhez, így nem kell a modellt azon a helyi példányon tárolnia, amelyet a modell betanításához használtak. Ez lehetővé teszi, hogy előrejelzéseket (vagy következtetéseket) készítsen a modellből olyan képeken, amelyeket az algoritmus nem látott a képzés során.

Nem kell ugyanazon a példánytípuson tárolnia, amelyet a betanításhoz használt. A képzés hosszadalmas és számításigényes munka, amely más számítási és memóriakövetelményeket igényel, mint amilyeneket a hosting általában nem. Bármilyen típusú példányt kiválaszthat, amelyen a modellt tárolni szeretné. Ebben az esetben az ml.p3.2xlarge példányt választottuk betanításra, de úgy döntünk, hogy a modellt az olcsóbb, ml.m4.xlarge CPU-példányon tároljuk. A következő kódrészlet a végponti telepítésünket mutatja be.

object_detector = od_model.deploy(initial_instance_count = 1, instance_type = 'ml.m4.xlarge') 

Észlelés egyéni korlátozási zónában (érdeklődésre számot tartó régióban)

A kimenet formátuma a következőkkel jellemezhető: [osztály_index, bizalmi pontszám, xmin, ymin, xmax, ymax]. Az alacsony megbízhatóságú előrejelzéseknél gyakran nagyobb az esélye a hamis pozitív vagy hamis negatív eredménynek, ezért valószínűleg el kell vetnie az alacsony megbízhatóságú előrejelzéseket. A következő kóddal észlelheti, hogy a személy határolókerete átfedésben van-e a korlátozott zónával.

def inRestrictedSection(ImShape = None, R1 = None, restricted_region = None, kclass = None, score = None, threshold = None): statement = 'Person Not Detected in Restricted Zone' if (kclass == 1) and (score > threshold): Im1 = np.zeros((ImShape[0],ImShape[1],3), np.int32) cv2.fillPoly(Im1, [R1], 255) Im2 = np.zeros((ImShape[0],ImShape[1],3), np.int32) if restricted_region is None: restricted_region = np.array([[0,ImShape[0]],[ImShape[1],ImShape[0]],[ImShape[1],0], [0,0]], np.int32) cv2.fillPoly(Im2, [restricted_region], 255) Im = Im1 * Im2 if np.sum(np.greater(Im, 0))>0: statement = 'Person Detected in Restricted Zone' else: statement = statement return statement 

Alapértelmezés szerint a rendszer a teljes képkockát kiértékeli az emberi jelenlét szempontjából. Könnyedén megadhatja azonban azt az érdeklődési területet, amelyen belül egy személy jelenléte magas kockázatúnak minősül. Ha egyéni korlátozási zónát szeretne hozzáadni, adja hozzá az [X-tengely,Y-tengely] által képviselt régió csúcsainak koordinátáit, és hozza létre a sokszöget. A koordinátákat az óramutató járásával megegyezően vagy azzal ellentétes irányban kell megadni. Lásd a következő kódot:

restricted_region = None #restricted_region = np.array([[0,200],[100,200],[100,0], [10,10]], np.int32) 

A következő mintakód a korlátozás alá vont zónában azonosított gyalogosokat mutatja:

file_name = 'humandetection/test_images/t1_image.jpg' img = cv2.imread(file_name) img =cv2.cvtColor(img,cv2.COLOR_BGR2RGB) thresh = 0.2 height = img.shape[0] width = img.shape[1] colors = dict() with open(file_name, 'rb') as image: f = image.read() b = bytearray(f) ne = open('n.txt','wb') ne.write(b) results = object_detector.predict(b, initial_args={'ContentType': 'image/jpeg'}) detections = json.loads(results) object_categories = ['no-person', 'person'] for det in detections['prediction']: (klass, score, x0, y0, x1, y1) = det if score < thresh: continue cls_id = int(klass) prob = score if cls_id not in colors: colors[cls_id] = (random.random(), random.random(), random.random()) xmin = int(x0 * width) ymin = int(y0 * height) xmax = int(x1 * width) ymax = int(y1 * height) R1 = np.array([[xmin,ymin],[xmax,ymin],[xmax,ymax], [xmin,ymax]], np.int32) cv2.polylines(img,[R1],True, (255,255,0), thickness = 5) cv2.polylines(img,[restricted_region],True, (255,0,0), thickness = 5) plt.imshow(img) print(inRestrictedSection(img.shape,R1 = R1, restricted_region= restricted_region, kclass = cls_id, score = prob, threshold=0.2)) 

Az alábbi képeken az eredményeink láthatók.

Telepítse a megoldást az AWS DeepLensben

Alakítsa át a modellt a telepítéshez AWS DeepLens-re

Ha SageMaker által kiképzett SSD-modellt telepít az AWS DeepLens rendszerbe, először futnia kell deploy.py a modellműtermék átalakításához telepíthető modelllé:

!rm -rf incubator-mxnet !git clone -b v1.7.x https://github.com/apache/incubator-mxnet MODEL_PATH = od_model.model_data TARGET_PATH ='s3://'+BUCKET+'/'+PREFIX+'/patched/' !rm -rf tmp && mkdir tmp rm -rf tmp && mkdir tmp !aws s3 cp $MODEL_PATH tmp !tar -xzvf tmp/model.tar.gz -C tmp !mv tmp/model_algo_1-0000.params tmp/ssd_resnet50_300-0000.params !mv tmp/model_algo_1-symbol.json tmp/ssd_resnet50_300-symbol.json !python incubator-mxnet/example/ssd/deploy.py --network resnet50 --data-shape 300 --num-class 2 --prefix tmp/ssd_ !tar -cvzf ./patched_model.tar.gz -C tmp ./deploy_ssd_resnet50_300-0000.params ./deploy_ssd_resnet50_300-symbol.json ./hyperparams.json !aws s3 cp patched_model.tar.gz $TARGET_PATH

Importálja a modellt az AWS DeepLensbe

A modell AWS DeepLens eszközön való futtatásához létre kell hoznia egy AWS DeepLens projektet. Kezdje azzal, hogy importálja modelljét az AWS DeepLensbe.

  1. Az AWS DeepLens konzolon a Tudástár, választ Modellek.
  2. A pop-art design, négy időzóna kijelzése egyszerre és méretének arányai azok az érvek, amelyek a NeXtime Time Zones-t kiváló választássá teszik. Válassza a Import modell.

  1. A Importálási forrásválassza Külsőleg képzett modell.
  2. Adja meg az Amazon S3 helyét foltozott modell amelyet a fenti lépésben a deploy.py futtatásából mentett el.
  3. A Modell keretrendszer, választ MX Net.
  4. A pop-art design, négy időzóna kijelzése egyszerre és méretének arányai azok az érvek, amelyek a NeXtime Time Zones-t kiváló választássá teszik. Válassza a Import modell.

Hozza létre a következtetési függvényt

A következtetési funkció minden kamerakockát betáplál a modellbe, hogy előrejelzéseket kapjon, és bármilyen egyéni üzleti logikát lefuttat a következtetési eredmények felhasználására. Használod AWS Lambda az AWS DeepLens rendszerbe telepített függvény létrehozásához. A funkció helyileg futtatja a következtetést az AWS DeepLens eszközön.

Először is létre kell hoznunk egy Lambda-függvényt az AWS DeepLens-ben való üzembe helyezéshez.

  1. Töltse le a következtetni a lambda függvényre.
  2. A Lambda konzolon válassza a lehetőséget Funkciók.
  3. A pop-art design, négy időzóna kijelzése egyszerre és méretének arányai azok az érvek, amelyek a NeXtime Time Zones-t kiváló választássá teszik. Válassza a Funkció létrehozása.
  4. választ Szerző a semmiből.
  5. A Funkció neve, írjon be egy nevet.
  6. A Runtime, választ Python 3.7.
  7. A Válasszon vagy hozzon létre egy végrehajtási szerepet, választ Használjon meglévő szerepet.
  8. A pop-art design, négy időzóna kijelzése egyszerre és méretének arányai azok az érvek, amelyek a NeXtime Time Zones-t kiváló választássá teszik. Válassza a service-role/AWSDeepLensLambdaRole.
  9. A pop-art design, négy időzóna kijelzése egyszerre és méretének arányai azok az érvek, amelyek a NeXtime Time Zones-t kiváló választássá teszik. Válassza a Funkció létrehozása.

  1. A funkció részletes oldalán, a Hozzászólások menüben válasszon Töltsön fel egy .zip fájlt.

  1. Töltse fel a következtetés Lambda korábban letöltött fájl.
  2. A pop-art design, négy időzóna kijelzése egyszerre és méretének arányai azok az érvek, amelyek a NeXtime Time Zones-t kiváló választássá teszik. Válassza a Megtakarítás a beírt kód mentéséhez.
  3. A Hozzászólások menüben válasszon Új verzió közzététele.

A funkció közzététele elérhetővé teszi az AWS DeepLens konzolon, így hozzáadhatja egyéni projektjéhez.

  1. Adja meg a verziószámot, és válassza ki Közzétesz.

A következtetési függvény megértése

Ez a rész végigvezeti a következtetési függvény néhány fontos részein. Először is két konkrét fájlra kell figyelnie:

  • labels.txt – Tartalmazza a neurális hálózat kimenetének leképezését (egész számok) ember által olvasható címkékre (karakterlánc)
  • lambda_function.py – A meghívott függvény kódját tartalmazza, amely minden kamerakockán előrejelzéseket generál, és visszaküldi az eredményeket

A lambda_function.py fájlban először betölti és optimalizálja a modellt. A GPU-val rendelkező felhőalapú virtuális gépekhez képest az AWS DeepLens kevesebb számítási teljesítménnyel rendelkezik. Az AWS DeepLens az Intel OpenVino modelloptimalizáló segítségével optimalizálja a SageMakerben betanított modellt a hardveren való futáshoz. A következő kód optimalizálja a modellt a helyi futtatáshoz:

client.publish(topic=iot_topic, payload='Optimizing model...') ret, model_path = mo.optimize('deploy_ssd_resnet50_300', INPUT_W, INPUT_H) # Load the model onto the GPU. client.publish(topic=iot_topic, payload='Loading model...') model = awscam.Model(model_path, {'GPU': 1}) 

Ezután a modellt képkockánként futtatja a kamerából származó képeken. Lásd a következő kódot:

while True: # Get a frame from the video stream ret, frame = awscam.getLastFrame() if not ret: raise Exception('Failed to get frame from the stream') # Resize frame to the same size as the training set. frame_resize = cv2.resize(frame, (INPUT_H, INPUT_W)) # Run the images through the inference engine and parse the results using # the parser API, note it is possible to get the output of doInference # and do the parsing manually, but since it is a ssd model, # a simple API is provided. parsed_inference_results = model.parseResult(model_type, model.doInference(frame_resize)) 

Végül visszaküldi a szöveges előrejelzés eredményeit a felhőbe. A szöveges eredmények felhőben való megtekintése kényelmes módja annak, hogy megbizonyosodjon arról, hogy a modell megfelelően működik. Minden AWS DeepLens eszköznek van egy dedikált iot_topic automatikusan létrehozva a következtetési eredmények fogadásához. Lásd a következő kódot:

# Send results to the cloud client.publish(topic=iot_topic, payload=json.dumps(cloud_output)) 

Hozzon létre egy egyéni AWS DeepLens projektet

Új AWS DeepLens projekt létrehozásához hajtsa végre a következő lépéseket:

  1. Az AWS DeepLens konzolon a projektek oldalon válassza a lehetőséget Projekt létrehozása.
  2. A Projekt típusaválassza Hozzon létre egy új üres projektet.
  3. A pop-art design, négy időzóna kijelzése egyszerre és méretének arányai azok az érvek, amelyek a NeXtime Time Zones-t kiváló választássá teszik. Válassza a Következő.

  1. Nevezze el a projektet yourname-pedestrian-detector-.
  2. A pop-art design, négy időzóna kijelzése egyszerre és méretének arányai azok az érvek, amelyek a NeXtime Time Zones-t kiváló választássá teszik. Válassza a Modell hozzáadása.
  3. Válassza ki az imént létrehozott modellt.
  4. A pop-art design, négy időzóna kijelzése egyszerre és méretének arányai azok az érvek, amelyek a NeXtime Time Zones-t kiváló választássá teszik. Válassza a Funkció hozzáadása.
  5. Keresse meg a korábban létrehozott Lambda függvényt név szerint.
  6. A pop-art design, négy időzóna kijelzése egyszerre és méretének arányai azok az érvek, amelyek a NeXtime Time Zones-t kiváló választássá teszik. Válassza a Projekt létrehozása.
  7. A projektek oldalon válassza ki a telepíteni kívánt projektet.
  8. Válaszd Telepítés az eszközre.
  9. A Céleszköz, válassza ki az eszközt.
  10. A pop-art design, négy időzóna kijelzése egyszerre és méretének arányai azok az érvek, amelyek a NeXtime Time Zones-t kiváló választássá teszik. Válassza a Felülvizsgálat.
  11. Tekintse át beállításait, és válasszon Telepítése.

A telepítés akár 10 percet is igénybe vehet, attól függően, hogy az AWS DeepLens milyen hálózathoz csatlakozik. Amikor a telepítés befejeződött, egy zöld szalaghirdetésnek kell megjelennie az oldalon a következő üzenettel: „Gratulálunk, a modellje most már helyileg fut az AWS DeepLens rendszeren!”

A szöveges kimenet megtekintéséhez görgessen le az eszköz részleteit tartalmazó oldalon a Projekt kimenet szakasz. Kövesse a szakasz utasításait a téma másolásához, és lépjen a AWS IoT Core konzolon, hogy feliratkozzon a témára. A következő képernyőképen látható eredményeket kell látnia.

A videofolyam vagy szövegkimenet megtekintésével kapcsolatos lépésről lépésre lásd: Az AWS DeepLens eredményeinek megtekintése.

Valós használati esetek

Most, hogy vannak előrejelzései az AWS DeepLens rendszeren futó modelljéből, alakítsuk át ezeket az előrejelzéseket riasztásokká és betekintésekké. Az ehhez hasonló projektek néhány leggyakoribb felhasználási módja:

  • Annak megértése, hogy egy adott napon hány ember lépett be egy korlátozott zónába, hogy az építkezések azonosíthassák azokat a helyeket, ahol több biztonsági tábla szükséges. Ezt úgy teheti meg, hogy összegyűjti az eredményeket, és felhasználja őket egy irányítópult létrehozására Amazon QuickSight. Az irányítópult QuickSight használatával történő létrehozásával kapcsolatos további részletekért lásd: Készítsen otthoni testtartáskövetőt az AWS DeepLens és GluonCV segítségével.
  • Az AWS DeepLens kimenetének összegyűjtése és a Raspberry Pi konfigurálása úgy, hogy riasztást adjon, ha valaki egy korlátozott zónába lép be. Az AWS DeepLens eszköz és a Raspberry Pi eszköz csatlakoztatásával kapcsolatos további részletekért lásd: Szemétválogató készítése az AWS DeepLens segítségével.

Következtetés

Ebben a bejegyzésben megtanulta, hogyan taníthat be egy objektumészlelési modellt, és hogyan helyezheti üzembe az AWS DeepLens rendszerben a korlátozott zónákba belépő emberek észlelésére. Ezt az oktatóanyagot referenciaként használhatja saját egyéni objektumészlelési projektjei betanításához és üzembe helyezéséhez az AWS DeepLens rendszeren.

Ennek az oktatóanyagnak és más oktatóanyagoknak, mintáknak és projektötleteknek az AWS DeepLens segítségével részletesebb áttekintéséért lásd: AWS DeepLens receptek.


A szerzőkről

Yash Shah az Amazon ML Solutions Lab adattudományi kutatója, ahol számos gépi tanulási felhasználási eseten dolgozik az egészségügytől a gyártásig és a kiskereskedelemig. Formális háttérrel rendelkezik az emberi tényezők és a statisztika területén, és korábban az Amazon SCOT csapatának tagja volt, akik olyan termékeket terveztek, amelyek a 3P eladókat hatékony készletkezeléssel irányítják.

Phu Nguyen az AWS Panorama termékmenedzsere. Olyan termékeket készít, amelyek bármilyen készségszintű fejlesztőt könnyen, gyakorlatiasan bevezethetnek a gépi tanulásba.

Forrás: https://aws.amazon.com/blogs/machine-learning/protecting-people-through-virtual-boundaries-computer-vision/

Időbélyeg:

Még több AWS gépi tanulási blog