Suojaa ihmisiä vaarallisilta alueilta virtuaalisten rajojen kautta Computer Vision -sovelluksella

Lähdesolmu: 807925

Kun yritykset toivovat enemmän itsenäisiä robotteja ja muita raskaita laitteita työpaikalle, meidän on varmistettava, että laitteet voivat toimia turvallisesti ihmisten joukkuetovereiden lähellä. Tässä viestissä näytämme sinulle, kuinka rakentaa virtuaaliraja tietokoneen näkemällä ja AWS DeepLens, AWS: n syväoppimista tukeva videokamera, joka on kehittäjille suunniteltu koneoppimisen (ML) oppimiseen. Tämän viestin koneoppimistekniikoiden avulla voit rakentaa virtuaalisia rajoja rajoitetuille alueille, jotka sammuttavat laitteet automaattisesti tai antavat hälytyksen, kun ihmiset tulevat lähelle.

Tätä projektia varten koulutat mukautetun kohteen havaitsemismallin Amazon Sage Maker ja asenna malli AWS DeepLens -laitteeseen. Kohteen tunnistus on ML-algoritmi, joka ottaa kuvan syötteenä ja tunnistaa objektit ja niiden sijainnin kuvassa. Virtuaalirajaratkaisujen lisäksi voit käyttää tässä viestissä opittuja tekniikoita, kun sinun on tunnistettava kuvan sisällä olevat tietyt objektit tai laskettava kuvan halutun objektin esiintymien määrä, kuten kohteiden laskeminen säilytyslokerossa tai vähittäiskaupan hyllyllä.

Ratkaisun yleiskatsaus

Esittely sisältää seuraavat vaiheet:

  1. Valmistele tietojoukko syötettäväksi ML-algoritmiin.
  2. Harjoittele mallia Amazon SageMakerin kanssa.
  3. Testimalli mukautetuilla rajoitusvyöhykkeillä.
  4. Ota ratkaisu käyttöön AWS DeepLensissä.

Keskustelemme myös muista tosielämän käyttötapauksista, joissa voit käyttää tätä ratkaisua.

Seuraava kaavio kuvaa ratkaisuarkkitehtuuria.

Edellytykset

Tämän esittelyn suorittamiseksi sinulla on oltava seuraavat edellytykset:

Valmistele tietojoukko syötettäväksi ML-algoritmiin

Tämä viesti käyttää ML-algoritmia, jota kutsutaan kohteen havaitsemismalliksi, rakentamaan ratkaisun, joka havaitsee, onko henkilö mukautetulla rajoitusalueella. Käytät julkisesti saatavilla olevaa Jalankulkijoiden tunnistustietojoukko saatavilla Kagglessa, jossa on yli 2,000 kuvaa. Tässä tietojoukossa on tarroja ihmisille ja ihmisen kaltaisille esineille (kuten mallinuket), joten koulutettu malli pystyy erottamaan tarkemmin todelliset ihmiset ja pahviset rekvisiitta tai patsaat.

Esimerkiksi seuraavat kuvat ovat esimerkkejä rakennustyöntekijän havaitsemisesta ja jos ne ovat mukautetussa rajoitusvyöhykkeessä (punainen ääriviiva).

Aloita mallisi kouluttaminen Luo ensin S3-ämpäri tallentaa harjoitustiedot ja mallilähtö. AWS DeepLens -projekteissa S3-ryhmän nimien on aloitettava etuliitteellä deeplens-. Käytät näitä tietoja mallin kouluttamiseen SageMakerin kanssa, täysin hallinnoidun palvelun avulla, joka tarjoaa mahdollisuuden rakentaa, kouluttaa ja ottaa käyttöön ML-malleja nopeasti.

Harjoittele mallia Amazon SageMakerin kanssa

Käytät SageMaker Jupyter -kannettavia kehitysympäristönä mallin kouluttamiseen. Jupyter Notebook on avoimen lähdekoodin verkkosovellus, jonka avulla voit luoda ja jakaa asiakirjoja, jotka sisältävät live-koodia, yhtälöitä, visualisointeja ja kerrontaa. Tätä viestiä varten tarjoamme Train_Object_Detection_People_DeepLens.ipynb, täydellinen muistikirja, jota voit seurata.

Mukautetun kohteen havaitsemismallin luomiseksi sinun on käytettävä graafisen prosessorin (GPU) käytössä olevaa harjoitustyöesiintymää. GPU: t pystyvät erinomaisesti rinnastamaan laskutoimituksia, joita tarvitaan hermoverkon kouluttamiseen. Vaikka itse muistikirja on yksi ml.t2.medium-ilmentymä, harjoitustyö käyttää nimenomaan ml.p2.xlarge-ilmentymää. GPU-yhteensopivan harjoitustyöesiintymän käyttäminen edellyttää lähetä pyyntö palvelurajan korotuksesta AWS-tukikeskukseen.

Kun olet saanut rajakorotuksen, luo SageMaker-muistikirjan ilmentymä suorittamalla seuraavat vaiheet:

  1. Valitse SageMaker-konsolissa Notebook-esiintymät.
  2. Valita Luo muistikirjan esimerkki.
  3. varten Muistikirjan ilmentymän nimi, kirjoita kannettavan tietokoneen esiintymälle nimi.
  4. varten Ilmentymän tyyppi, valitse t2.medium.

Tämä on edullisin ilmentymätyyppi, jota kannettavat tietokoneet ilmentävät, ja se riittää tähän opetusohjelmaan.

  1. varten IAM-rooli, valitse Luo uusi rooli.

Varmista tämä AWS-henkilöllisyyden ja käyttöoikeuksien hallinta (IAM) -roolilla on pääsy aiemmin luomallesi S3-ryhmälle (etuliite deeplens-).

  1. Valita Luo muistikirjan esimerkki. Notebook-instanssisi käynnistyminen voi kestää muutaman minuutin.
  1. Kun muistikirjan esiintymien sivun tila muuttuu InService-tilaksi, valitse Avaa Jupyter Käynnistä äskettäin luotu Jupyter-muistikirjaesiintymä.
  2. Valita Lataa ladata Train_Object_Detection_people_DeepLens.ipynb tiedosto, jonka olet ladannut aiemmin.

  1. Avaa muistikirja ja seuraa sitä loppuun asti.
  2. Jos sinua kysytään ytimen asettamisesta, valitse conda_mxnet_p36.

Jupyter-muistikirja sisältää sekoitus teksti- ja koodisoluja. Suorita koodinpätkä valitsemalla solu ja painamalla Shift + Enter. Kun solu on käynnissä, solun viereen ilmestyy tähti. Kun solu on valmis, lähtönumero ja uusi ulostulosolu ilmestyvät alkuperäisen solun alle.

  1. Lataa tietojoukko julkisesta S3-ryhmästä paikalliseen SageMaker-ilmentymään ja pura tiedot. Tämä voidaan tehdä seuraamalla muistikirjan koodia:
     !aws s3 cp s3://deeplens-public/samples/pedestriansafety/humandetection_data.zip . !rm -rf humandetection/ !unzip humandetection_data.zip -d humandetection 

  2. Muunna tietojoukko muotoon (RecordIO), joka voidaan syöttää SageMaker-algoritmiin:
     !python $mxnet_path/tools/im2rec.py --pass-through --pack-label $DATA_PATH/train_mask.lst $DATA_PATH/ !python $mxnet_path/tools/im2rec.py --pass-through --pack-label $DATA_PATH/val_mask.lst $DATA_PATH/ 

  3. Siirrä RecordIO-tiedostot takaisin Amazon S3: een.

Nyt kun olet valmistellut kaikki tietojen valmistelut, olet valmis kouluttamaan objektinilmaisinta.

Kohteen havaitsemisalgoritmeja on monia erilaisia. Tätä viestiä varten käytät Single-Shot MultiBox Detection -algoritmi (SSD). SSD-algoritmilla on hyvä tasapaino nopeuden ja tarkkuuden suhteen, joten se on ihanteellinen ajettaessa reunalaitteilla, kuten AWS DeepLens.

Osana harjoittelutyötä sinulla on paljon vaihtoehtoja hyperparametreille, jotka auttavat määrittämään harjoituskäyttäytymisen (kuten aikakausien lukumäärä, oppimisnopeus, optimointityyppi ja mini-eräkoko). Hyperparametrien avulla voit säätää mallisi harjoittelunopeutta ja tarkkuutta. Lisätietoja hyperparametreista, katso Kohteen tunnistusalgoritmi.

  1. Määritä hyperparametrit ja datakanavat. Harkitse seuraavan hyperparametrien määritelmän käyttöä:
     od_model = sagemaker.estimator.Estimator(training_image, role, train_instance_count=1, train_instance_type='ml.p2.xlarge', train_volume_size = 50, train_max_run = 360000, input_mode= 'File', output_path=s3_output_location, sagemaker_session=sess) od_model.set_hyperparameters(base_network='resnet-50', use_pretrained_model=1, num_classes=2, mini_batch_size=32, epochs=100, learning_rate=0.003, lr_scheduler_step='3,6', lr_scheduler_factor=0.1, optimizer='sgd', momentum=0.9, weight_decay=0.0005, overlap_threshold=0.5, nms_threshold=0.45, image_shape=300, num_training_samples=n_train_samples) 

Muistikirjassa on joitain oletushyperparametreja, jotka on valittu valmiiksi. Jalankulkijoiden havaitsemista varten koulutat mallin 100 aikakaudelle. Tämän harjoitteluvaiheen tulisi kestää noin 2 tuntia käyttäen yhtä ml.p2.xlarge-esiintymää. Voit kokeilla hyperparametrien erilaisia ​​yhdistelmiä tai kouluttaa lisää aikakausia suorituskyvyn parantamiseksi. Lisätietoja viimeisimmästä hinnoittelusta on kohdassa Amazon SageMaker -hinnoittelu.

  1. Voit aloittaa harjoitustyön yhdellä rivillä koodia ja seurata tarkkuutta ajan myötä SageMaker-konsolissa:
    od_model.fit(inputs=data_channels, logs=True) 

Lisätietoja harjoittelun toiminnasta, katso LuoTrainingJob. Käyttöönotto ja tietojen lataaminen vievät aikaa tietojen koosta riippuen. Siksi voi kulua muutama minuutti, ennen kuin aloitat tietolokien hankkimisen harjoitustöistäsi.

Voit seurata harjoittelutyön etenemistä keskimääräisen keskimääräisen tarkkuuden (mAP) avulla, jonka avulla voit seurata mallin kykyä luokitella objekteja ja tunnistaa oikeat rajoituslaatikot. Datalokit myös tulostavat kartan validointidatalle, muiden häviöiden lisäksi, jokaiselle tietojoukon ajolle, kerran yhdelle aikakaudelle. Tämä metriikka on välityspalkki algoritmin suorituskyvyn laadulle luokan ja sen ympärillä olevan tarkan rajoituslaatikon tunnistamisessa.

Kun työ on valmis, löydät koulutetut mallitiedostot aiemmin määritellystä S3-ämpäristä ja kansiosta s3_output_location:

s3_output_location = 's3://{}/{}/output'.format(BUCKET, PREFIX)

Tätä viestiä varten näytämme tulokset validoinnista, joka asetettiin 10. ja 100. aikakauden lopussa. Kymmenennen aikakauden lopussa näemme validointikartan noin 10, kun taas 0.027. aikakausi oli noin 100.

Parempien havaintotulosten saavuttamiseksi voit yrittää virittää hyperparametrit käyttämällä SageMakeriin sisäänrakennettua ominaisuutta automaattinen mallin viritys ja kouluta mallia lisää aikakausia varten. Lopetat harjoittelun yleensä, kun näet tarkkuuden lisääntyvän.

Testimalli mukautetuilla rajoitusvyöhykkeillä

Ennen kuin otat koulutetun mallin käyttöön AWS DeepLensissä, voit testata sitä pilvessä SageMakerin isännöimän päätepisteen avulla. SageMaker-päätepiste on täysin hallittu palvelu, jonka avulla voit tehdä reaaliaikaisia ​​päätelmiä REST-sovellusliittymän kautta. SageMaker antaa sinun ottaa nopeasti käyttöön uusia päätepisteitä malliesi testaamiseksi, jotta sinun ei tarvitse isännöidä mallia paikallisessa ilmentymässä, jota käytettiin mallin kouluttamiseen. Tämän avulla voit tehdä ennusteita (tai päätelmiä) mallista kuville, joita algoritmi ei nähnyt harjoituksen aikana.

Sinun ei tarvitse isännöidä samalla ilmentymätyypillä, jota käytit kouluttamaan. Harjoittelu on pitkäaikainen ja raskas työ, joka vaatii erilaisia ​​laskenta- ja muistivaatimuksia, joita isännöinti yleensä ei. Voit valita minkä tahansa tyyppisen ilmentymän, jonka haluat isännöidä mallissa. Tässä tapauksessa valitsimme koulutukseen ml.p3.2xlarge-ilmentymän, mutta valitsemme isännöidä mallia halvemmalla suorittimen instanssilla ml.m4.xlarge. Seuraava koodinpätkä näyttää päätepisteen käyttöönoton.

object_detector = od_model.deploy(initial_instance_count = 1, instance_type = 'ml.m4.xlarge') 

Tunnistus mukautetulla rajoitusalueella (kiinnostava alue)

Lähdön muoto voidaan esittää muodossa [luokan_indeksi, luottamus_pisteet, xmin, ymin, xmax, ymax]. Matalan luottamuksen ennusteilla on usein suurempi mahdollisuus väärän positiivisen tai väärän negatiivisen esiintymiseen, joten luultavasti sinun tulisi hylätä heikot luottamusennusteet. Voit käyttää seuraavaa koodia havaitaksesi, onko henkilön rajoittava ruutu päällekkäinen rajoitetun vyöhykkeen kanssa.

def inRestrictedSection(ImShape = None, R1 = None, restricted_region = None, kclass = None, score = None, threshold = None): statement = 'Person Not Detected in Restricted Zone' if (kclass == 1) and (score > threshold): Im1 = np.zeros((ImShape[0],ImShape[1],3), np.int32) cv2.fillPoly(Im1, [R1], 255) Im2 = np.zeros((ImShape[0],ImShape[1],3), np.int32) if restricted_region is None: restricted_region = np.array([[0,ImShape[0]],[ImShape[1],ImShape[0]],[ImShape[1],0], [0,0]], np.int32) cv2.fillPoly(Im2, [restricted_region], 255) Im = Im1 * Im2 if np.sum(np.greater(Im, 0))>0: statement = 'Person Detected in Restricted Zone' else: statement = statement return statement 

Oletuksena koko kehys arvioidaan ihmisen läsnäolon suhteen. Voit kuitenkin helposti määrittää kiinnostavan alueen, jolla henkilön läsnäoloa pidetään suurena riskinä. Jos haluat lisätä mukautetun rajoitusvyöhykkeen, lisää [X-akseli, Y-akseli] edustaman alueen pisteiden koordinaatit ja luo monikulmio. Koordinaatit on syötettävä joko myötä- tai vastapäivään. Katso seuraava koodi:

restricted_region = None #restricted_region = np.array([[0,200],[100,200],[100,0], [10,10]], np.int32) 

Seuraava esimerkkikoodi näyttää rajoitetulla vyöhykkeellä tunnistetut jalankulkijat:

file_name = 'humandetection/test_images/t1_image.jpg' img = cv2.imread(file_name) img =cv2.cvtColor(img,cv2.COLOR_BGR2RGB) thresh = 0.2 height = img.shape[0] width = img.shape[1] colors = dict() with open(file_name, 'rb') as image: f = image.read() b = bytearray(f) ne = open('n.txt','wb') ne.write(b) results = object_detector.predict(b, initial_args={'ContentType': 'image/jpeg'}) detections = json.loads(results) object_categories = ['no-person', 'person'] for det in detections['prediction']: (klass, score, x0, y0, x1, y1) = det if score < thresh: continue cls_id = int(klass) prob = score if cls_id not in colors: colors[cls_id] = (random.random(), random.random(), random.random()) xmin = int(x0 * width) ymin = int(y0 * height) xmax = int(x1 * width) ymax = int(y1 * height) R1 = np.array([[xmin,ymin],[xmax,ymin],[xmax,ymax], [xmin,ymax]], np.int32) cv2.polylines(img,[R1],True, (255,255,0), thickness = 5) cv2.polylines(img,[restricted_region],True, (255,0,0), thickness = 5) plt.imshow(img) print(inRestrictedSection(img.shape,R1 = R1, restricted_region= restricted_region, kclass = cls_id, score = prob, threshold=0.2)) 

Seuraavat kuvat esittävät tuloksia.

Ota ratkaisu käyttöön AWS DeepLensissä

Muunna käyttöönottomalli AWS DeepLensiksi

Kun asennat SageMaker-koulutettua SSD-mallia AWS DeepLens -palveluun, sinun on ensin suoritettava deploy.py muuntaa malliartefakti käyttöönotettavaksi malliksi:

!rm -rf incubator-mxnet !git clone -b v1.7.x https://github.com/apache/incubator-mxnet MODEL_PATH = od_model.model_data TARGET_PATH ='s3://'+BUCKET+'/'+PREFIX+'/patched/' !rm -rf tmp && mkdir tmp rm -rf tmp && mkdir tmp !aws s3 cp $MODEL_PATH tmp !tar -xzvf tmp/model.tar.gz -C tmp !mv tmp/model_algo_1-0000.params tmp/ssd_resnet50_300-0000.params !mv tmp/model_algo_1-symbol.json tmp/ssd_resnet50_300-symbol.json !python incubator-mxnet/example/ssd/deploy.py --network resnet50 --data-shape 300 --num-class 2 --prefix tmp/ssd_ !tar -cvzf ./patched_model.tar.gz -C tmp ./deploy_ssd_resnet50_300-0000.params ./deploy_ssd_resnet50_300-symbol.json ./hyperparams.json !aws s3 cp patched_model.tar.gz $TARGET_PATH

Tuo mallisi AWS DeepLens -laitteeseen

Jos haluat ajaa mallia AWS DeepLens -laitteella, sinun on luotava AWS DeepLens -projekti. Aloita tuomalla malli AWS DeepLens -sovellukseen.

  1. AWS DeepLens -konsolissa, kohdasta Esittelymateriaalit, valitse Mallit.
  2. Valita Tuo malli.

  1. varten Tuo lähdevalitse Ulkoisesti koulutettu malli.
  2. Anna Amazon S3: n sijainti korjattu malli jonka olet tallentanut ylläolevan asennusohjelman suorittamisesta yllä olevassa vaiheessa.
  3. varten Mallikehys, valitse MX Net.
  4. Valita Tuo malli.

Luo päättelytoiminto

Johtopäätöstoiminto syöttää jokaisen kamerakehyksen malliin saadakseen ennusteita ja ajaa minkä tahansa mukaisen liiketoimintalogiikan päätelmätulosten avulla. Sinä käytät AWS Lambda luoda toiminto, jonka otat käyttöön AWS DeepLensissä. Toiminto päättelee paikallisesti AWS DeepLens -laitteessa.

Ensinnäkin meidän on luotava Lambda-toiminto, jota voidaan käyttää AWS DeepLensissä.

  1. Lataa päättely Lambda-toiminto.
  2. Valitse Lambda-konsolista Tehtävät.
  3. Valita Luo toiminto.
  4. valita Kirjailija tyhjästä.
  5. varten Toiminnon nimi, kirjoita nimi.
  6. varten Runtime, valitse Python 3.7.
  7. varten Valitse tai luo suoritusrooli, valitse Käytä olemassa olevaa roolia.
  8. Valita palvelu-asema / AWSDeepLensLambdaRole.
  9. Valita Luo toiminto.

  1. Toiminnon tietosivulla Toiminnot valikosta, valitse Lataa .zip-tiedosto.

  1. Lataa päättely Lambda tiedosto, jonka olet ladannut aiemmin.
  2. Valita Säästä tallentaa antamasi koodi.
  3. On Toiminnot valikosta, valitse Julkaise uusi versio.

Toiminnon julkaiseminen tuo sen saataville AWS DeepLens -konsoliin, jotta voit lisätä sen mukautettuun projektiin.

  1. Kirjoita versionumero ja valitse julkaista.

Johtopäätöksen ymmärtäminen

Tässä osassa kerrotaan tärkeistä johtopäätöksen osista. Ensinnäkin, sinun on kiinnitettävä huomiota kahteen tiettyyn tiedostoon:

  • labels.txt - Sisältää hermoverkon (kokonaisluvut) lähdön kartoituksen ihmisen luettaviin tarroihin (merkkijono)
  • lambda_function.py - Sisältää koodin toiminnolle, jota kutsutaan ennusteiden luomiseksi jokaiselle kamerakehykselle ja tulosten lähettämiseen

Ladatessasi ja optimoimalla mallin ensin lambda_function.py-tiedostossa. Verrattuna GPU: lla varustettuihin virtuaalikoneisiin, AWS DeepLensillä on vähemmän laskentatehoa. AWS DeepLens optimoi Intel OpenVino -mallinoptimointityökalun SageMakerissa koulutetun mallin toimiakseen sen laitteistossa. Seuraava koodi optimoi mallisi toimimaan paikallisesti:

client.publish(topic=iot_topic, payload='Optimizing model...') ret, model_path = mo.optimize('deploy_ssd_resnet50_300', INPUT_W, INPUT_H) # Load the model onto the GPU. client.publish(topic=iot_topic, payload='Loading model...') model = awscam.Model(model_path, {'GPU': 1}) 

Sitten suoritat mallikehys kehystä kohti kameran kuvat. Katso seuraava koodi:

while True: # Get a frame from the video stream ret, frame = awscam.getLastFrame() if not ret: raise Exception('Failed to get frame from the stream') # Resize frame to the same size as the training set. frame_resize = cv2.resize(frame, (INPUT_H, INPUT_W)) # Run the images through the inference engine and parse the results using # the parser API, note it is possible to get the output of doInference # and do the parsing manually, but since it is a ssd model, # a simple API is provided. parsed_inference_results = model.parseResult(model_type, model.doInference(frame_resize)) 

Lopuksi lähetät tekstin ennustetulokset takaisin pilveen. Tekstitulosten tarkasteleminen pilvessä on kätevä tapa varmistaa, että malli toimii oikein. Jokaisella AWS DeepLens -laitteella on oma iot_topic, joka luodaan automaattisesti päätelmätulosten vastaanottamiseksi. Katso seuraava koodi:

# Send results to the cloud client.publish(topic=iot_topic, payload=json.dumps(cloud_output)) 

Luo mukautettu AWS DeepLens -projekti

Luo uusi AWS DeepLens -projekti seuraavasti:

  1. AWS DeepLens -konsolissa Projektit sivu, valitse Luo hanke.
  2. varten Projektityyppivalitse Luo uusi tyhjä projekti.
  3. Valita seuraava.

  1. Nimeä projekti yourname-pedestrian-detector-.
  2. Valita Lisää malli.
  3. Valitse juuri luomasi malli.
  4. Valita Lisää toiminto.
  5. Etsi aiemmin luomasi Lambda-toiminto nimen perusteella.
  6. Valita Luo hanke.
  7. On Projektit -sivulla, valitse projekti, jonka haluat ottaa käyttöön.
  8. valitsin Ota käyttöön laitteeseen.
  9. varten Kohdelaite, valitse laitteesi.
  10. Valita Arvostelu.
  11. Tarkista asetukset ja valitse Sijoittaa.

Käyttöönotto voi kestää jopa 10 minuuttia, riippuen verkon nopeudesta, johon AWS DeepLens on kytketty. Kun käyttöönotto on valmis, sinun pitäisi nähdä vihreä banneri sivulla, jossa on viesti "Onnittelut, mallisi toimii nyt paikallisesti AWS DeepLens -palvelussa!"

Jos haluat nähdä tekstilähdön, selaa laitteen tietosivulla alaspäin Projektin tuotos -osiossa. Kopioi aihe noudattamalla osion ohjeita ja siirry kohtaan AWS IoT -ydin konsoli tilaamaan aihe. Sinun pitäisi nähdä tulokset kuten seuraavassa kuvakaappauksessa.

Katso vaiheittaiset ohjeet videovirran tai tekstilähdön katselemiseen Tulosten tarkastelu AWS DeepLens -sivustolta.

Tosielämän käyttötapaukset

Nyt kun sinulla on ennusteita AWS DeepLensissä käytettävästä mallista, muunnetaan nämä ennusteet hälytyksiksi ja oivalluksiksi. Joitakin tämänkaltaisen projektin yleisimpiä käyttötapoja ovat:

Yhteenveto

Tässä viestissä opit kuinka kouluttaa kohteen havaitsemismalli ja sijoittaa se AWS DeepLensiin havaitsemaan rajoitetuille alueille saapuvia ihmisiä. Voit käyttää tätä opetusohjelmaa viitteenä omien mukautettujen objektien havaitsemisprojektien kouluttamiseen ja käyttöönottoon AWS DeepLensissä.

Lisätietoja tämän opetusohjelman ja muiden opetusohjelmien, näytteiden ja projektiideoiden läpikäymisestä AWS DeepLensin kanssa on kohdassa AWS DeepLens-reseptit.


Tietoja Tekijät

Yash Shah on datatieteilijä Amazon ML Solutions Labissa, jossa hän työskentelee monilla koneoppimisen käyttötapauksilla terveydenhuollosta valmistukseen ja vähittäiskauppaan. Hänellä on virallinen tausta inhimillisissä tekijöissä ja tilastoissa, ja hän oli aiemmin osa Amazon SCOT -tiimiä suunnittelemassa tuotteita ohjaamaan 3P-myyjiä tehokkaalla varastonhallinnalla.

Phu Nguyen on AWS Panoraman tuotepäällikkö. Hän rakentaa tuotteita, jotka antavat minkä tahansa taitotason kehittäjille helpon, käytännönläheisen johdannon koneoppimiseen.

Lähde: https://aws.amazon.com/blogs/machine-learning/protecting-people-through-virtual-boundaries-computer-vision/

Aikaleima:

Lisää aiheesta AWS-koneoppimisblogi