Használhatja AWS Snowball Edge eszközök olyan helyeken, mint a tengerjáró hajók, olajfúrótornyok és a gyári padlók, ahol korlátozott vagy nincs hálózati kapcsolat a gépi tanulási (ML) alkalmazások széles skálájához, mint például a felügyelet, az arcfelismerés és az ipari ellenőrzés. Tekintettel azonban ezeknek az eszközöknek a távoli és leválasztott természetére, az ML-modellek telepítése és kezelése gyakran nehézkes. Val vel AWS IoT Greengrass és a Amazon SageMaker Edge Manager, ML-következtetést hajthat végre a Snowball Edge eszközökön lokálisan generált adatokon felhőben betanított ML-modellek segítségével. Nemcsak a helyi következtetések futtatásának alacsony késleltetéséből és költségmegtakarításából profitál, hanem csökkenti az ML-modellek gyártásba kerüléséhez szükséges időt és erőfeszítést is. Mindezt úgy teheti meg, hogy folyamatosan figyeli és javítja a modellek minőségét Snowball Edge eszközparkjában.
Ebben a bejegyzésben arról beszélünk, hogyan használhatja az AWS IoT Greengrass 2.0-s vagy újabb verzióját és az Edge Managert egy egyszerű TensorFlow osztályozási modell optimalizálására, biztonságossá tételére, figyelésére és karbantartására a szállítókonténerek (connex) és az emberek osztályozására.
Az első lépések
A kezdéshez rendeljen egy Snowball Edge eszközt (további információért lásd: AWS Snowball Edge Job létrehozása). Rendelhet Snowball Edge eszközt, amelyen AWS IoT Greengrass validált AMI van.
Miután megkapta a készüléket, használhatja AWS OpsHub a Snow Family vagy a Snowball Edge kliens a készülék zárolásának feloldásához. Elkezdhet egy Amazon rugalmas számítási felhő (Amazon EC2) példány a legújabb AWS IoT Greengrass telepítve, vagy használja az AWS OpsHub for Snow Family parancsait.
Indítson el és telepítsen egy AMI-t a következő követelményekkel, vagy adjon meg egy AMI-referenciát a Snowball konzolon rendelés előtt, és az AMI-ben lévő összes könyvtárral és adattal együtt lesz szállítva:
- Az Ön által választott ML keretrendszer, például TensorFlow, PyTorch vagy MXNet
- Docker (ha használni kívánja)
- AWS IoT Greengrass
- Bármilyen más könyvtár, amelyre szüksége lehet
Készítse elő az AMI-t, amikor megrendeli a Snowball Edge eszközt az AWS Snow Family konzolon. Az utasításokat lásd Amazon EC2 számítási példányok használata. Arra is van lehetőség frissítse az AMI-t, miután a Snowball telepítése megtörtént a szélén.
Telepítse a legújabb AWS IoT Greengrasst a Snowball Edge-re
Az AWS IoT Greengrass eszközre történő telepítéséhez hajtsa végre a következő lépéseket:
- Telepítse a legújabb AWS IoT Greengrasst a Snowball Edge eszközön. Győződjön meg róla
dev_tools=True
be van állítvaggv2 cli
Lásd a következő kódot:
Hivatkozunk a --thing-name
itt választotta az Edge Manager beállításakor.
- Futtassa a következő parancsot a telepítés teszteléséhez:
- Az AWS IoT konzolon érvényesítse a sikeresen regisztrált Snowball Edge eszközt az AWS IoT Greengrass-fiókjával.
Optimalizálja az ML modelleket az Edge Manager segítségével
Az Edge Manger segítségével telepítjük és kezeljük a modellt a Snowball Edge rendszeren.
- Telepítse az Edge Manager ügynököt a Snowball Edge-re a legújabb AWS IoT Greengrass használatával.
- Tanítsd és tárold az ML modelledet.
Az ML modelljét bármely választott keretrendszerrel betaníthatja, és elmentheti egy Amazon egyszerű tárolási szolgáltatás (Amazon S3) vödör. A következő képernyőképen a TensorFlow-t használjuk egy többcímkés modell betanításához a kapcsolat és az emberek besorolására egy képen. Az itt használt modell egy S3 tárolóba kerül mentésre úgy, hogy először létrehoz egy .tar fájlt.
A modell mentése után (ebben az esetben TensorFlow Lite) elindíthat egy Amazon SageMaker Neo a modell fordítási feladatát és optimalizálja az ML modellt a Snowball Edge Compute (SBE_C
).
- A SageMaker konzolon, alatt Következtetés a navigációs ablakban válassza a lehetőséget Összeállítási munkák.
- A pop-art design, négy időzóna kijelzése egyszerre és méretének arányai azok az érvek, amelyek a NeXtime Time Zones-t kiváló választássá teszik. Válassza a Hozzon létre összeállítási feladatot.
- Adjon nevet a munkájának, és hozzon létre vagy használjon egy meglévő szerepet.
Ha újat hoz létre AWS Identity and Access Management (IAM) szerepkörrel, biztosítsa, hogy a SageMaker hozzáférjen ahhoz a tárolóhoz, amelybe a modell mentve van.
- A Bemeneti konfiguráció szakasz, for Modelltermékek helye, adja meg az elérési utat
model.tar.gz
hova mentette a fájlt (ebben az esetbens3://feidemo/tfconnexmodel/connexmodel.tar.gz
). - A Adatbeviteli konfiguráció, adja meg az ML modell beviteli rétegét (a nevét és alakját). Ebben az esetben úgy hívják
keras_layer_input
alakja pedig [1,224,224,3], tehát belépünk{“keras_layer_input”:[1,224,224,3]}
.
- A Gépi tanulási keretrendszer, választ TFLite.
- A Céleszköz, választ sbe_c.
- Szabadság Fordító opciók
- A S3 Kimenet helye, adja meg ugyanazt a helyet, ahol a modellt menti az előtaggal (mappa)
output
. Például belépünks3://feidemo/tfconnexmodel/output
.
- A pop-art design, négy időzóna kijelzése egyszerre és méretének arányai azok az érvek, amelyek a NeXtime Time Zones-t kiváló választássá teszik. Válassza a Küld az összeállítási munka megkezdéséhez.
Most létrehoz egy modell-telepítési csomagot, amelyet az Edge Manager használ.
- A SageMaker konzolon, alatt Edge Manager, választ Élcsomagolási munkák.
- A pop-art design, négy időzóna kijelzése egyszerre és méretének arányai azok az érvek, amelyek a NeXtime Time Zones-t kiváló választássá teszik. Válassza a Hozzon létre Edge csomagolási feladatot.
- A Munkahelyi tulajdonságok részben adja meg a munka adatait.
- A Modellforrás szakasz, for Összeállítási feladat neve, írja be a Neo fordítási feladathoz megadott nevet.
- A pop-art design, négy időzóna kijelzése egyszerre és méretének arányai azok az érvek, amelyek a NeXtime Time Zones-t kiváló választássá teszik. Válassza a Következő.
- A Kimenet konfigurációja szakasz, for S3 vödör URI, adja meg, hol szeretné tárolni a csomagot az Amazon S3-ban.
- A Alkatrész neve, adjon nevet az AWS IoT Greengrass összetevőjének.
Ez a lépés létrehoz egy AWS IoT Greengrass-modell-összetevőt, amelyben a modell letöltődik az Amazon S3-ról, és kicsomagolja a Snowball Edge helyi tárhelyére.
- Hozzon létre egy eszközflottát egy eszközcsoport kezeléséhez, ebben az esetben csak egy (SBE).
- A IAM szerepkör¸ írja be az AWS IoT Greengrass által korábban generált szerepkört (–tes-role-name).
Győződjön meg arról, hogy rendelkezik a szükséges engedélyekkel. Ehhez lépjen az IAM konzolra, keresse meg a szerepet, és adja hozzá a szükséges házirendeket.
- Regisztrálja a Snowball Edge eszközt a létrehozott flottába.
- A Eszköz forrása részben adja meg az eszköz nevét. Az IoT nevének meg kell egyeznie a korábban használt névvel – ebben az esetben a –thing-name MyGreengrassCore névvel.
További Snowball eszközöket regisztrálhat a SageMaker konzolon, hogy hozzáadhassa őket az eszközparkhoz, amely lehetővé teszi ezen eszközök csoportosítását és kezelését.
Telepítsen ML-modelleket a Snowball Edge szolgáltatásban az AWS IoT Greengrass használatával
Az előző szakaszokban feloldotta és konfigurálta Snowball Edge eszközét. Az ML modellt most összeállították és optimalizálták a Snowball Edge teljesítményére. A lefordított modellel egy Edge Manager csomag jön létre, és a Snowball eszközt regisztrálják egy flottában. Ebben a szakaszban az ML-modell telepítésének lépéseit tekinti meg, hogy a legújabb AWS IoT Greengrass segítségével Snowball Edge-re következtessen.
alkatrészek
Az AWS IoT Greengrass lehetővé teszi a szélső eszközökön történő telepítést összetevők és kapcsolódó műtermékek kombinációjaként. Az összetevők olyan JSON-dokumentumok, amelyek tartalmazzák a metaadatokat, az életciklust, azt, hogy mikor és mit kell telepíteni. Az összetevők azt is meghatározzák, hogy milyen operációs rendszert és milyen melléktermékeket használjon, ha különböző operációs rendszer-beállításokon fut.
Mesterséges
A műtermékek lehetnek kódfájlok, modellek vagy tárolóképek. Például egy összetevő definiálható egy pandas Python könyvtár telepítéséhez és egy kódfájl futtatásához, amely átalakítja az adatokat, vagy telepíthet egy TensorFlow könyvtárat, és futtassa a modellt következtetés céljából. A következő példa melléktermékekre van szükség a következtetési alkalmazás telepítéséhez:
- gRPC proto és Python csonkok (ez a modelltől és a keretrendszertől függően eltérő lehet)
- Python kód a modell betöltéséhez és a következtetés végrehajtásához
Ez a két elem egy S3 tárolóba van feltöltve.
Telepítse az összetevőket
A telepítéshez a következő összetevőkre van szükség:
- Edge Manager ügynök (elérhető a GA nyilvános összetevőiben)
- Modell
- Alkalmazás
Az összetevők telepítéséhez hajtsa végre a következő lépéseket:
- Az AWS IoT konzolon, alatt Zöld fű, választ alkatrészek, és hozza létre az alkalmazás összetevőt.
- Keresse meg az Edge Manager ügynök összetevőt a nyilvános összetevők listájában, és helyezze üzembe.
- Telepítsen egy, az Edge Manager által létrehozott modellösszetevőt, amelyet az alkalmazáskomponens függőségeként használ.
- Telepítse az alkalmazás-összetevőt a szélső eszközre az AWS IoT Greengrass-telepítések listájának megnyitásával, és egy új telepítés létrehozásával.
Ha rendelkezik már meglévő központi telepítéssel, felülvizsgálhatja azt az alkalmazásösszetevő hozzáadásához.
Most tesztelheti az alkatrészt.
- Az alkalmazáskomponenssel telepített előrejelzési vagy következtetési kódban kódolja a logikát a fájlok helyi eléréséhez a Snowball Edge eszközön (például a bejövő mappában), és az előrejelzéseket vagy a feldolgozott fájlokat egy feldolgozott mappába helyezi át.
- Jelentkezzen be az eszközre, és nézze meg, hogy az előrejelzések megtörténtek-e.
- Állítsa be a kódot, hogy ciklusonként fusson, ellenőrizze, hogy a bejövő mappában vannak-e új fájlok, dolgozza fel a fájlokat, és helyezze át őket a feldolgozott mappába.
A következő képernyőkép egy példa a fájlok beállítására a Snowball Edge-en belüli telepítés előtt.
A telepítés után az összes tesztképnek van érdeklődési osztálya, ezért átkerül a feldolgozott mappába.
Tisztítsuk meg
Mindennek megtisztításához vagy a megoldás újbóli megvalósításához a semmiből állítsa le az összes EC2 példányt a TerminateInstance
API a Snowball Edge eszközén futó EC2-kompatibilis végpontok ellen. A Snowball Edge készülék visszaküldéséhez lásd: A Snowball Edge kikapcsolása és a A Snowball Edge Device visszaküldése.
Következtetés
Ez a bejegyzés végigvezeti Önt, hogyan rendelhet Snowball Edge eszközt az Ön által választott AMI-vel. Ezután összeállít egy modellt az élhez a SageMaker segítségével, csomagolja be a modellt az Edge Manager segítségével, és összetevőket hoz létre és futtat, hogy ML következtetést hajtson végre a Snowball Edge-en a legújabb AWS IoT Greengrass használatával. Az Edge Manager segítségével telepítheti és frissítheti ML modelljeit Snowball Edge eszközparkján, és az Amazon S3 mentett bemeneti és előrejelzési adataival figyelheti a teljesítményt a szélén. Ezeket a komponenseket hosszú távon is futtathatja AWS Lambda függvények, amelyek felpörgetik a modellt, és megvárják, amíg az adatok következtetést vonnak le.
Az AWS IoT Greengrass több funkcióját kombinálja egy MQTT-kliens létrehozásához, és pub/sub-modellt használ más szolgáltatások vagy mikroszolgáltatások meghívására. A lehetőségek végtelenek.
Ha ML következtetést futtat a Snowball Edge-en az Edge Manager és az AWS IoT Greengrass segítségével, optimalizálhatja, biztonságossá teheti, felügyelheti és karbantarthatja az ML-modelleket a Snowball Edge eszközök flottáin. Köszönjük, hogy elolvasta, és ne habozzon kérdéseket vagy megjegyzéseket tenni a megjegyzések részben.
Ha többet szeretne megtudni az AWS Snow Familyről, az AWS IoT Greengrassről és az Edge Managerről, nézze meg a következőket:
A szerzőkről
Raj Kadiyala az AWS WWPS Partnerszervezet AI/ML Tech üzletfejlesztési menedzsere. Raj több mint 12 éves tapasztalattal rendelkezik a gépi tanulás területén, és szereti szabadidejét a gépi tanulás felfedezésével tölteni, hogy gyakorlatias mindennapi megoldásokat találjon, és aktív maradjon Colorado szabadban.
Nida bég idősebb termékmenedzser – technikus az Amazon Web Servicesnél, ahol az AWS Snow Family csapatánál dolgozik. Szenvedélyesen törekszik arra, hogy megértse az ügyfelek igényeit, és a technológiát a transzformatív gondolkodás vezetőjeként használja fogyasztói termékek szállítására. A munka mellett szeret utazni, túrázni és futni.
- 100
- 9
- hozzáférés
- Fiók
- aktív
- További
- Minden termék
- amazon
- Amazon EC2
- Amazon SageMaker
- Az Amazon Web Services
- api
- Alkalmazás
- alkalmazások
- AWS
- üzleti
- ellenőrzése
- besorolás
- kód
- Colorado
- Hozzászólások
- összetevő
- Kiszámít
- karmester
- Connectivity
- fogyasztó
- Fogyasztói termékek
- Konténer
- Konténerek
- létrehozása
- hajókázás
- dátum
- nap
- Fejlesztés
- Eszközök
- dokumentumok
- él
- tapasztalat
- arcfelismerő
- gyár
- család
- Jellemzők
- vezetéknév
- FLOTTA
- padló
- Keretrendszer
- Ingyenes
- nagy
- Nagyszerű szabadban
- Csoport
- itt
- turisztika
- Hogyan
- How To
- HTTPS
- IAM
- Identitás
- kép
- ipari
- információ
- kamat
- részt
- tárgyak internete
- IT
- Jáva
- Munka
- legutolsó
- TANUL
- tanulás
- könyvtár
- Korlátozott
- Lista
- kiszámításának
- helyi
- helyileg
- elhelyezkedés
- gépi tanulás
- Mérkőzés
- ML
- modell
- ellenőrzés
- Navigáció
- NEO
- hálózat
- Olaj
- üzemeltetési
- operációs rendszer
- opció
- Opciók
- érdekében
- Más
- szabadban
- csomagolás
- partner
- Emberek (People)
- teljesítmény
- Politikák
- előrejelzés
- Tippek
- Termékek
- Termelés
- Termékek
- nyilvános
- Piton
- pytorch
- világítás
- hatótávolság
- Olvasás
- csökkenteni
- követelmények
- futás
- futás
- sagemaker
- Szolgáltatások
- készlet
- Szállítás
- hajók
- Egyszerű
- hó
- So
- Megoldások
- költ
- Centrifugálás
- kezdet
- kezdődött
- tárolás
- tárolni
- felügyelet
- rendszer
- tech
- Technológia
- tensorflow
- teszt
- Gondolkodás
- idő
- Frissítések
- várjon
- háló
- webes szolgáltatások
- Munka
- művek
- év