Anda dapat menggunakan Tepi Bola Salju AWS perangkat di lokasi seperti kapal pesiar, anjungan minyak, dan lantai pabrik dengan konektivitas jaringan terbatas atau tanpa konektivitas untuk berbagai aplikasi pembelajaran mesin (ML) seperti pengawasan, pengenalan wajah, dan inspeksi industri. Namun, mengingat sifat perangkat ini yang jauh dan tidak terhubung, penerapan dan pengelolaan model ML di edge sering kali sulit dilakukan. Dengan Rumput Hijau AWS IoT dan Manajer Tepi Amazon SageMaker, Anda dapat melakukan inferensi ML pada data yang dibuat secara lokal di perangkat Snowball Edge menggunakan model ML yang dilatih cloud. Anda tidak hanya mendapat manfaat dari latensi rendah dan penghematan biaya dalam menjalankan inferensi lokal, tetapi juga mengurangi waktu dan upaya yang diperlukan untuk membuat model ML ke produksi. Anda dapat melakukan semua ini sambil terus memantau dan meningkatkan kualitas model di seluruh armada perangkat Snowball Edge Anda.
Dalam postingan ini, kita berbicara tentang bagaimana Anda dapat menggunakan AWS IoT Greengrass versi 2.0 atau lebih tinggi dan Edge Manager untuk mengoptimalkan, mengamankan, memantau, dan memelihara model klasifikasi TensorFlow sederhana untuk mengklasifikasikan kontainer pengiriman (connex) dan manusia.
Memulai
Untuk memulai, pesan perangkat Snowball Edge (untuk informasi selengkapnya, lihat Membuat Pekerjaan AWS Snowball Edge). Anda dapat memesan perangkat Snowball Edge dengan AMI tervalidasi AWS IoT Greengrass.
Setelah Anda menerima perangkat, Anda dapat menggunakan AWS OpsHub untuk Keluarga Salju atau Klien Snowball Edge untuk membuka kunci perangkat. Anda dapat memulai sebuah Cloud komputasi elastis Amazon (Amazon EC2) dengan AWS IoT Greengrass terbaru terinstal atau gunakan perintah di AWS OpsHub for Snow Family.
Luncurkan dan instal AMI dengan persyaratan berikut, atau berikan referensi AMI di konsol Snowball sebelum memesan dan akan dikirimkan bersama semua pustaka dan data di AMI:
- Framework ML pilihan Anda, seperti TensorFlow, PyTorch, atau MXNet
- Docker (jika Anda berniat menggunakannya)
- Rumput Hijau AWS IoT
- Perpustakaan lain yang mungkin Anda butuhkan
Persiapkan AMI pada saat memesan perangkat Snowball Edge di konsol AWS Snow Family. Untuk instruksi, lihat Menggunakan Instans Komputasi Amazon EC2. Anda juga memiliki pilihan untuk perbarui AMI setelah Snowball diterapkan ke lokasi edge Anda.
Instal AWS IoT Greengrass terbaru di Snowball Edge
Untuk menginstal AWS IoT Greengrass di perangkat Anda, selesaikan langkah-langkah berikut:
- Instal AWS IoT Greengrass terbaru di perangkat Snowball Edge Anda. Memastikan
dev_tools=True
diatur untuk memilikiggv2 cli
Lihat kode berikut:
Kami mereferensikan --thing-name
Anda memilih di sini saat kami menyiapkan Edge Manager.
- Jalankan perintah berikut untuk menguji instalasi Anda:
- Di konsol AWS IoT, validasi perangkat Snowball Edge yang berhasil didaftarkan dengan akun AWS IoT Greengrass Anda.
Optimalkan model ML dengan Edge Manager
Kami menggunakan Edge Manger untuk menerapkan dan mengelola model di Snowball Edge.
- Instal agen Edge Manager di Snowball Edge menggunakan AWS IoT Greengrass terbaru.
- Latih dan simpan model ML Anda.
Anda dapat melatih model ML Anda menggunakan framework pilihan Anda dan menyimpannya ke Layanan Penyimpanan Sederhana Amazon (Amazon S3) ember. Dalam tangkapan layar berikut, kami menggunakan TensorFlow untuk melatih model multi-label guna mengklasifikasikan koneksi dan orang dalam sebuah gambar. Model yang digunakan di sini disimpan ke bucket S3 dengan terlebih dahulu membuat file .tar.
Setelah model disimpan (TensorFlow Lite dalam hal ini), Anda dapat memulai Amazon SageMaker Neo tugas kompilasi model dan optimalkan model ML untuk Snowball Edge Compute (SBE_C
).
- Di konsol SageMaker, di bawah Kesimpulan di panel navigasi, pilih Pekerjaan kompilasi.
- Pilih Buat pekerjaan kompilasi.
- Beri nama pekerjaan Anda dan buat atau gunakan peran yang ada.
Jika Anda membuat yang baru Identitas AWS dan Manajemen Akses (IAM), pastikan SageMaker memiliki akses ke bucket tempat model disimpan.
- Dalam majalah Konfigurasi masukan bagian, untuk Lokasi artefak model, masukkan jalur ke
model.tar.gz
tempat Anda menyimpan file (dalam hal ini,s3://feidemo/tfconnexmodel/connexmodel.tar.gz
). - Untuk Konfigurasi input data, masukkan lapisan input model ML (nama dan bentuknya). Dalam hal ini disebut
keras_layer_input
dan bentuknya [1,224,224,3], jadi kita masuk{โkeras_layer_inputโ:[1,224,224,3]}
.
- Untuk Kerangka pembelajaran mesin, pilih TFLite.
- Untuk Perangkat target, pilih sbe_c.
- Meninggalkan Opsi kompiler
- Untuk Lokasi keluaran S3, masukkan lokasi yang sama dengan tempat penyimpanan model Anda dengan awalan (folder)
output
. Misalnya kita masuks3://feidemo/tfconnexmodel/output
.
- Pilih Kirim untuk memulai pekerjaan kompilasi.
Sekarang Anda membuat paket penerapan model untuk digunakan oleh Edge Manager.
- Di konsol SageMaker, di bawah Manajer Tepi, pilih Pekerjaan pengemasan tepi.
- Pilih Buat pekerjaan pengemasan Edge.
- Dalam majalah Properti pekerjaan bagian, masukkan detail pekerjaan.
- Dalam majalah Sumber model bagian, untuk Nama pekerjaan kompilasi, masukkan nama yang Anda berikan untuk tugas kompilasi Neo.
- Pilih Selanjutnya.
- Dalam majalah Konfigurasi keluaran bagian, untuk URI keranjang S3, masukkan tempat Anda ingin menyimpan paket di Amazon S3.
- Untuk Nama komponen, masukkan nama untuk komponen AWS IoT Greengrass Anda.
Langkah ini membuat komponen model AWS IoT Greengrass tempat model diunduh dari Amazon S3 dan tidak dikompresi ke penyimpanan lokal di Snowball Edge.
- Buat armada perangkat untuk mengelola sekelompok perangkat, dalam hal ini, hanya satu (SBE).
- Untuk Peran IAMยธ masukkan peran yang dihasilkan oleh AWS IoT Greengrass sebelumnya (โtes-role-name).
Pastikan itu memiliki izin yang diperlukan dengan membuka konsol IAM, mencari peran, dan menambahkan kebijakan yang diperlukan ke dalamnya.
- Daftarkan perangkat Snowball Edge ke armada yang Anda buat.
- Dalam majalah Sumber perangkat bagian, masukkan nama perangkat. Nama IoT harus cocok dengan nama yang Anda gunakan sebelumnyaโdalam hal ini, โnama-hal MyGreengrassCore.
Anda dapat mendaftarkan perangkat Snowball tambahan di konsol SageMaker untuk menambahkannya ke armada perangkat, yang memungkinkan Anda mengelompokkan dan mengelola perangkat ini bersama-sama.
Terapkan model ML ke Snowball Edge menggunakan AWS IoT Greengrass
Di bagian sebelumnya, Anda membuka kunci dan mengonfigurasi perangkat Snowball Edge Anda. Model ML sekarang dikompilasi dan dioptimalkan untuk performa di Snowball Edge. Paket Edge Manager dibuat dengan model yang dikompilasi dan perangkat Snowball didaftarkan ke armada. Di bagian ini, Anda melihat langkah-langkah yang terlibat dalam penerapan model ML untuk inferensi ke Snowball Edge dengan AWS IoT Greengrass terbaru.
Komponen
AWS IoT Greengrass memungkinkan Anda menerapkan ke perangkat edge sebagai kombinasi komponen dan artefak terkait. Komponen adalah dokumen JSON yang berisi metadata, siklus hidup, apa yang akan diterapkan, kapan, dan apa yang akan diinstal. Komponen juga menentukan sistem operasi apa yang akan digunakan dan artefak apa yang akan digunakan saat menjalankan opsi OS yang berbeda.
Artefak
Artefak dapat berupa file kode, model, atau gambar kontainer. Misalnya, komponen dapat ditentukan untuk menginstal library pandas Python dan menjalankan file kode yang akan mengubah data, atau untuk menginstal library TensorFlow dan menjalankan model untuk inferensi. Berikut adalah contoh artefak yang diperlukan untuk penerapan aplikasi inferensi:
- proto gRPC dan rintisan Python (ini bisa berbeda berdasarkan model dan kerangka kerja Anda)
- Kode python untuk memuat model dan melakukan inferensi
Kedua item ini diunggah ke bucket S3.
Menyebarkan komponen
Penerapan membutuhkan komponen-komponen berikut:
- Agen Edge Manager (tersedia dalam komponen publik di GA)
- Model
- Aplikasi
Selesaikan langkah-langkah berikut untuk menerapkan komponen:
- Di konsol AWS IoT, di bawah Rumput hijau, pilih Komponen, dan buat komponen aplikasi.
- Temukan komponen agen Edge Manager di daftar komponen publik dan terapkan.
- Terapkan komponen model yang dibuat oleh Edge Manager, yang digunakan sebagai dependensi dalam komponen aplikasi.
- Terapkan komponen aplikasi ke perangkat edge dengan masuk ke daftar penerapan AWS IoT Greengrass dan buat penerapan baru.
Jika Anda memiliki penerapan yang sudah ada, Anda dapat merevisinya untuk menambahkan komponen aplikasi.
Sekarang Anda dapat menguji komponen Anda.
- Dalam kode prediksi atau inferensi Anda yang diterapkan dengan komponen aplikasi, kode dalam logika untuk mengakses file secara lokal di perangkat Snowball Edge (misalnya, di folder masuk) dan membuat prediksi atau file yang diproses dipindahkan ke folder yang diproses.
- Masuk ke perangkat untuk melihat apakah prediksi telah dibuat.
- Siapkan kode untuk dijalankan dalam satu lingkaran, memeriksa folder masuk untuk file baru, memproses file, dan memindahkannya ke folder yang diproses.
Tangkapan layar berikut adalah contoh penyiapan file sebelum ditempatkan di dalam Snowball Edge.
Setelah penerapan, semua gambar uji memiliki kelas yang diminati dan oleh karena itu dipindahkan ke folder yang diproses.
Membersihkan
Untuk membersihkan semuanya atau mengimplementasikan kembali solusi ini dari awal, hentikan semua instans EC2 dengan mengaktifkan TerminateInstance
API terhadap titik akhir yang kompatibel dengan EC2 yang berjalan di perangkat Snowball Edge Anda. Untuk mengembalikan perangkat Snowball Edge Anda, lihat Mematikan Tepi Bola Salju dan Mengembalikan Perangkat Snowball Edge.
Kesimpulan
Posting ini memandu Anda tentang cara memesan perangkat Snowball Edge dengan AMI pilihan Anda. Anda kemudian mengompilasi model untuk edge menggunakan SageMaker, mengemas model tersebut menggunakan Edge Manager, dan membuat serta menjalankan komponen dengan artefak untuk melakukan inferensi ML di Snowball Edge menggunakan AWS IoT Greengrass terbaru. Dengan Edge Manager, Anda dapat menerapkan dan memperbarui model ML Anda di armada perangkat Snowball Edge, dan memantau kinerja di edge dengan input dan data prediksi tersimpan di Amazon S3. Anda juga dapat menjalankan komponen ini sebagai berjalan lama AWS Lambda fungsi yang dapat memutar model dan menunggu data melakukan inferensi.
Anda menggabungkan beberapa fitur AWS IoT Greengrass untuk membuat klien MQTT dan menggunakan model pub/sub untuk memanggil layanan atau layanan mikro lainnya. Kemungkinannya tidak terbatas.
Dengan menjalankan inferensi ML di Snowball Edge dengan Edge Manager dan AWS IoT Greengrass, Anda dapat mengoptimalkan, mengamankan, memantau, dan memelihara model ML di armada perangkat Snowball Edge. Terima kasih telah membaca dan jangan ragu untuk meninggalkan pertanyaan atau komentar di bagian komentar.
Untuk mempelajari lebih lanjut tentang AWS Snow Family, AWS IoT Greengrass, dan Edge Manager, lihat yang berikut ini:
Tentang Penulis
Raj Kadiyala adalah Manajer Pengembangan Bisnis Teknologi AI/ML di Organisasi Mitra AWS WWPS. Raj memiliki lebih dari 12 tahun pengalaman dalam Pembelajaran Mesin dan suka menghabiskan waktu luangnya menjelajahi pembelajaran mesin untuk solusi praktis setiap hari dan tetap aktif di alam terbuka Colorado.
Nida Beig adalah Sr. Product Manager โ Tech di Amazon Web Services tempat dia bekerja di tim AWS Snow Family. Dia bersemangat memahami kebutuhan pelanggan, dan menggunakan teknologi sebagai konduktor pemikiran transformatif untuk menghadirkan produk konsumen. Selain bekerja, dia suka bepergian, hiking, dan berlari.
- 100
- 9
- mengakses
- Akun
- aktif
- Tambahan
- Semua
- Amazon
- Amazon EC2
- Amazon SageMaker
- Amazon Web Services
- api
- Aplikasi
- aplikasi
- AWS
- bisnis
- memeriksa
- klasifikasi
- kode
- Colorado
- komentar
- komponen
- menghitung
- konduktor
- Konektivitas
- konsumen
- Produk konsumer
- Wadah
- Wadah
- membuat
- pelayaran
- data
- hari
- Pengembangan
- Devices
- dokumen
- Tepi
- pengalaman
- pengenalan wajah
- pabrik
- keluarga
- Fitur
- Pertama
- ARMADA KAPAL
- Lantai
- Kerangka
- Gratis
- besar
- Pemandangan yang menakjubkan
- Kelompok
- di sini
- mendaki
- Seterpercayaapakah Olymp Trade? Kesimpulan
- How To
- HTTPS
- IAM
- identitas
- gambar
- industri
- informasi
- bunga
- terlibat
- idiot
- IT
- Jawa
- Pekerjaan
- Terbaru
- BELAJAR
- pengetahuan
- Perpustakaan
- Terbatas
- Daftar
- memuat
- lokal
- lokal
- tempat
- Mesin belajar
- Cocok
- ML
- model
- pemantauan
- Navigasi
- NEO
- jaringan
- Minyak
- operasi
- sistem operasi
- pilihan
- Opsi
- urutan
- Lainnya
- di luar rumah
- pengemasan
- pasangan
- Konsultan Ahli
- prestasi
- Kebijakan
- ramalan
- Prediksi
- Produk
- Produksi
- Produk
- publik
- Ular sanca
- pytorch
- kualitas
- jarak
- Bacaan
- menurunkan
- Persyaratan
- Run
- berjalan
- pembuat bijak
- Layanan
- set
- Pengiriman
- kapal
- Sederhana
- salju
- So
- Solusi
- menghabiskan
- Berputar
- awal
- mulai
- penyimpanan
- menyimpan
- pengawasan
- sistem
- tech
- Teknologi
- tensorflow
- uji
- Pikir
- waktu
- Memperbarui
- menunggu
- jaringan
- layanan web
- Kerja
- bekerja
- tahun