Hàng chục nghìn khách hàng của AWS sử dụng các dịch vụ máy học (ML) của AWS để đẩy nhanh tốc độ phát triển ML của họ với cơ sở hạ tầng và công cụ được quản lý toàn phần. Đối với những khách hàng đang phát triển các mô hình ML tại cơ sở, chẳng hạn như máy tính cục bộ của họ, họ muốn di chuyển các mô hình ML cũ của mình sang Đám mây AWS để tận dụng tối đa bộ dịch vụ ML, cơ sở hạ tầng và tài nguyên triển khai toàn diện nhất có sẵn trên AWS .
Thuật ngữ mã kế thừa đề cập đến mã được phát triển để chạy thủ công trên máy tính để bàn cục bộ và không được xây dựng với SDK sẵn sàng cho đám mây, chẳng hạn như SDK AWS SDK cho Python (Boto3) or SDK Python SageMaker của Amazon. Nói cách khác, các mã kế thừa này không được tối ưu hóa để triển khai trên đám mây. Phương pháp hay nhất để di chuyển là cấu trúc lại các mã kế thừa này bằng cách sử dụng API Amazon SageMaker hoặc SageMaker Python SDK. Tuy nhiên, trong một số trường hợp, các tổ chức có nhiều mô hình cũ có thể không có thời gian hoặc nguồn lực để viết lại tất cả các mô hình đó.
Trong bài đăng này, chúng tôi chia sẻ một phương pháp có thể mở rộng và dễ triển khai để di chuyển mã ML cũ sang Đám mây AWS để suy luận bằng cách sử dụng Amazon SageMaker và Chức năng bước AWS, với yêu cầu tái cấu trúc mã tối thiểu. Bạn có thể dễ dàng mở rộng giải pháp này để thêm nhiều chức năng hơn. Chúng tôi chứng minh cách hai nhân vật khác nhau, một nhà khoa học dữ liệu và một kỹ sư MLOps, có thể cộng tác để nâng cấp và thay đổi hàng trăm mô hình cũ.
Tổng quan về giải pháp
Trong khuôn khổ này, chúng tôi chạy mã kế thừa trong vùng chứa dưới dạng Xử lý SageMaker công việc. SageMaker chạy tập lệnh kế thừa bên trong vùng chứa xử lý. Hình ảnh vùng chứa đang xử lý có thể là hình ảnh tích hợp SageMaker hoặc hình ảnh tùy chỉnh. Cơ sở hạ tầng cơ bản cho công việc Đang xử lý được SageMaker quản lý hoàn toàn. Không cần thay đổi mã kế thừa. Quen thuộc với việc tạo công việc Xử lý SageMaker là tất cả những gì được yêu cầu.
Chúng tôi cho rằng có sự tham gia của hai nhân vật: một nhà khoa học dữ liệu và một kỹ sư MLOps. Nhà khoa học dữ liệu chịu trách nhiệm chuyển mã vào SageMaker, theo cách thủ công hoặc bằng cách sao chép mã từ kho lưu trữ mã, chẳng hạn như Cam kết mã AWS. Xưởng sản xuất Amazon SageMaker cung cấp một môi trường phát triển tích hợp (IDE) để triển khai các bước khác nhau trong vòng đời ML và nhà khoa học dữ liệu sử dụng môi trường đó để tạo vùng chứa tùy chỉnh theo cách thủ công chứa các tạo phẩm mã cần thiết để triển khai. Vùng chứa sẽ được đăng ký trong sổ đăng ký vùng chứa, chẳng hạn như Đăng ký container đàn hồi Amazon (Amazon ECR) cho mục đích triển khai.
Kỹ sư MLOps nắm quyền sở hữu việc xây dựng quy trình công việc Step Functions mà chúng tôi có thể sử dụng lại để triển khai vùng chứa tùy chỉnh do nhà khoa học dữ liệu phát triển với các tham số phù hợp. Quy trình làm việc của Step Functions có thể ở dạng mô-đun khi cần để phù hợp với trường hợp sử dụng hoặc có thể chỉ bao gồm một bước để bắt đầu một quy trình. Để giảm thiểu nỗ lực cần thiết để di chuyển mã, chúng tôi đã xác định ba thành phần mô-đun để xây dựng quy trình triển khai đầy đủ chức năng:
- Sơ chế
- Sự suy luận
- Hậu xử lý
Sơ đồ sau đây minh họa kiến trúc giải pháp và quy trình làm việc của chúng tôi.
Các bước sau đây có liên quan đến giải pháp này:
- Nhân vật nhà khoa học dữ liệu sử dụng Studio để nhập mã kế thừa thông qua sao chép từ kho lưu trữ mã, sau đó mô đun hóa mã thành các thành phần riêng biệt tuân theo các bước của vòng đời ML (xử lý trước, suy luận và xử lý sau).
- Nhà khoa học dữ liệu sử dụng Studio và cụ thể là Xây dựng hình ảnh studio CLI công cụ do SageMaker cung cấp, để xây dựng hình ảnh Docker. Công cụ CLI này cho phép nhà khoa học dữ liệu xây dựng hình ảnh trực tiếp trong Studio và tự động đăng ký hình ảnh vào Amazon ECR.
- Kỹ sư MLOps sử dụng hình ảnh bộ chứa đã đăng ký và tạo triển khai cho một trường hợp sử dụng cụ thể bằng Step Functions. Step Functions là một dịch vụ luồng công việc không có máy chủ có thể kiểm soát trực tiếp API SageMaker thông qua việc sử dụng Ngôn ngữ các quốc gia của Amazon.
SageMaker Xử lý công việc
Hãy hiểu làm thế nào một SageMaker Xử lý công việc chạy. Sơ đồ sau đây cho thấy cách SageMaker thực hiện một công việc Đang xử lý.
SageMaker lấy tập lệnh của bạn, sao chép dữ liệu của bạn từ Dịch vụ lưu trữ đơn giản của Amazon (Amazon S3), sau đó kéo vùng chứa đang xử lý. Hình ảnh vùng chứa đang xử lý có thể là hình ảnh tích hợp SageMaker hoặc hình ảnh tùy chỉnh mà bạn cung cấp. Cơ sở hạ tầng cơ bản cho công việc Đang xử lý được SageMaker quản lý hoàn toàn. Tài nguyên cụm được cung cấp trong suốt thời gian thực hiện công việc của bạn và được dọn sạch khi hoàn thành công việc. Đầu ra của công việc Đang xử lý được lưu trữ trong bộ chứa S3 mà bạn đã chỉ định. Để tìm hiểu thêm về cách xây dựng vùng chứa của riêng bạn, hãy tham khảo Xây dựng vùng chứa xử lý của riêng bạn (Kịch bản nâng cao).
Công việc Xử lý SageMaker thiết lập hình ảnh xử lý của bạn bằng cách sử dụng tập lệnh điểm vào bộ chứa Docker. Bạn cũng có thể cung cấp điểm vào tùy chỉnh của riêng mình bằng cách sử dụng các tham số ContainerEntrypoint và ContainerArguments của Thông số ứng dụng API. Nếu bạn sử dụng điểm vào tùy chỉnh của riêng mình, bạn có thêm tính linh hoạt để chạy nó dưới dạng tập lệnh độc lập mà không cần xây dựng lại hình ảnh của mình.
Đối với ví dụ này, chúng tôi xây dựng một vùng chứa tùy chỉnh và sử dụng công việc Xử lý SageMaker để suy luận. Các công việc tiền xử lý và hậu xử lý sử dụng chế độ tập lệnh với bộ chứa scikit-learning được tạo sẵn.
Điều kiện tiên quyết
Để theo dõi bài đăng này, hãy hoàn thành các bước điều kiện tiên quyết sau:
- Tạo miền Studio. Để biết hướng dẫn, hãy tham khảo Tích hợp vào miền Amazon SageMaker bằng cách sử dụng thiết lập nhanh.
- Tạo một nhóm S3.
- Sao chép được cung cấp Repo GitHub vào Studio.
Kho lưu trữ GitHub được tổ chức thành các thư mục khác nhau tương ứng với các giai đoạn khác nhau trong vòng đời ML, giúp dễ dàng điều hướng và quản lý:
Di chuyển mã kế thừa
Trong bước này, chúng tôi đóng vai trò là nhà khoa học dữ liệu chịu trách nhiệm di chuyển mã kế thừa.
Chúng tôi bắt đầu bằng cách mở build_and_push.ipynb
sổ tay.
Ô đầu tiên trong sổ tay hướng dẫn bạn cài đặt Xây dựng hình ảnh studio CLI. CLI này đơn giản hóa quy trình thiết lập bằng cách tự động tạo môi trường xây dựng có thể tái sử dụng mà bạn có thể tương tác thông qua các lệnh cấp cao. Với CLI, việc xây dựng một hình ảnh cũng dễ dàng như yêu cầu nó xây dựng và kết quả sẽ là một liên kết đến vị trí hình ảnh của bạn trong Amazon ECR. Cách tiếp cận này loại bỏ nhu cầu quản lý quy trình công việc cơ bản phức tạp do CLI sắp xếp, hợp lý hóa quy trình xây dựng hình ảnh.
Trước khi chúng tôi chạy lệnh xây dựng, điều quan trọng là phải đảm bảo rằng vai trò đang chạy lệnh có các quyền cần thiết, như được chỉ định trong CLI GitHub đọc tôi hoặc bài liên quan. Việc không cấp các quyền cần thiết có thể dẫn đến lỗi trong quá trình xây dựng.
Xem mã sau đây:
Để hợp lý hóa mã kế thừa của bạn, hãy chia mã đó thành ba tập lệnh Python riêng biệt có tên là preprocessing.py, predict.py và postprocessing.py. Tuân thủ các phương pháp lập trình tốt nhất bằng cách chuyển đổi mã thành các hàm được gọi từ hàm chính. Đảm bảo rằng tất cả các thư viện cần thiết đều được nhập và tệp tests.txt được cập nhật để bao gồm mọi thư viện tùy chỉnh.
Sau khi bạn sắp xếp mã, hãy đóng gói mã cùng với tệp yêu cầu vào bộ chứa Docker. Bạn có thể dễ dàng xây dựng vùng chứa từ bên trong Studio bằng lệnh sau:
Theo mặc định, hình ảnh sẽ được đẩy vào kho lưu trữ ECR có tên là sagemakerstudio với thẻ mới nhất. Ngoài ra, vai trò thực thi của ứng dụng Studio sẽ được sử dụng cùng với bộ chứa SageMaker Python SDK S3 mặc định. Tuy nhiên, các cài đặt này có thể dễ dàng thay đổi bằng các tùy chọn CLI thích hợp. Xem đoạn mã sau:
Giờ đây, vùng chứa đã được tạo và đăng ký trong kho lưu trữ ECR, đã đến lúc tìm hiểu sâu hơn về cách chúng ta có thể sử dụng vùng chứa đó để chạy predict.py. Chúng tôi cũng cho bạn thấy quá trình sử dụng một bản dựng sẵn học hỏi vùng chứa để chạy preprocessing.py và postprocessing.py.
sản xuất container
Trong bước này, chúng tôi đóng vai trò là kỹ sư MLOps, người sản xuất vùng chứa được tạo ở bước trước.
Chúng tôi sử dụng Step Functions để sắp xếp quy trình làm việc. Step Functions cho phép tính linh hoạt đặc biệt trong việc tích hợp nhiều loại dịch vụ vào quy trình làm việc, hỗ trợ mọi phụ thuộc hiện có có thể tồn tại trong hệ thống cũ. Cách tiếp cận này đảm bảo rằng tất cả các thành phần cần thiết được tích hợp liền mạch và chạy theo trình tự mong muốn, dẫn đến một giải pháp quy trình làm việc hiệu quả và hiệu quả.
Step Functions có thể kiểm soát một số dịch vụ AWS trực tiếp từ Amazon States Language. Để tìm hiểu thêm về cách làm việc với Step Functions và tích hợp nó với SageMaker, hãy tham khảo Quản lý SageMaker với Step Functions. Sử dụng khả năng tích hợp Step Functions với SageMaker, chúng tôi chạy tập lệnh tiền xử lý và hậu xử lý bằng cách sử dụng công việc Xử lý SageMaker ở chế độ tập lệnh và chạy suy luận dưới dạng công việc Xử lý SageMaker bằng cách sử dụng vùng chứa tùy chỉnh. Chúng tôi làm như vậy bằng AWS SDK cho Python (Boto3) TạoXử LýCông Việc Lệnh gọi API.
Sơ chế
SageMaker cung cấp một số tùy chọn để chạy mã tùy chỉnh. Nếu bạn chỉ có tập lệnh mà không có bất kỳ phần phụ thuộc tùy chỉnh nào, thì bạn có thể chạy tập lệnh dưới dạng Mang theo tập lệnh của riêng bạn (BYOS). Để thực hiện việc này, chỉ cần chuyển tập lệnh của bạn tới bộ chứa khung tìm hiểu scikit được tạo sẵn và chạy công việc Xử lý SageMaker ở chế độ tập lệnh bằng cách sử dụng các tham số ContainerArguments và ContainerEntrypoint trong Thông số ứng dụng API. Đây là một phương pháp đơn giản và thuận tiện để chạy các tập lệnh đơn giản.
Kiểm tra cấu hình trạng thái “Chế độ tập lệnh tiền xử lý” trong quy trình công việc Step Functions mẫu để hiểu cách định cấu hình lệnh gọi API CreateProcessingJob để chạy tập lệnh tùy chỉnh.
Sự suy luận
Bạn có thể chạy vùng chứa tùy chỉnh bằng cách sử dụng Xây dựng vùng chứa xử lý của riêng bạn tiếp cận. Công việc Xử lý SageMaker hoạt động với /opt/ml
đường dẫn cục bộ và bạn có thể chỉ định Xử lý đầu vào và đường dẫn cục bộ của chúng trong cấu hình. Sau đó, công việc Đang xử lý sẽ sao chép các thành phần lạ vào bộ chứa cục bộ và bắt đầu công việc. Sau khi công việc hoàn tất, nó sao chép các tạo phẩm được chỉ định trong đường dẫn cục bộ của Xử lý kết quả sang vị trí bên ngoài được chỉ định.
Kiểm tra cấu hình trạng thái “Inference Custom Container” trong quy trình công việc Step Functions mẫu để hiểu cách định cấu hình lệnh gọi API CreateProcessingJob để chạy vùng chứa tùy chỉnh.
Hậu xử lý
Bạn có thể chạy tập lệnh hậu xử lý giống như tập lệnh tiền xử lý bằng cách sử dụng bước CreateProcessingJob của Step Functions. Chạy tập lệnh hậu xử lý cho phép bạn thực hiện các tác vụ xử lý tùy chỉnh sau khi hoàn tất công việc suy luận.
Tạo quy trình công việc Step Functions
Để tạo mẫu nhanh, chúng tôi sử dụng Step Functions Ngôn ngữ Hoa Kỳ. Bạn có thể chỉnh sửa định nghĩa Step Functions trực tiếp bằng cách sử dụng States Language. Tham khảo đến quy trình công việc Step Functions mẫu.
Bạn có thể tạo một máy trạng thái Step Functions mới trên bảng điều khiển Step Functions bằng cách chọn Viết quy trình công việc của bạn bằng mã.
Step Functions có thể xem các tài nguyên bạn sử dụng và tạo một vai trò. Tuy nhiên, bạn có thể thấy thông báo sau:
“Step Functions không thể tạo chính sách IAM nếu RoleArn cho SageMaker đến từ một Đường dẫn. Mã hóa cứng SageMaker RoleArn trong định nghĩa máy trạng thái của bạn hoặc chọn một vai trò hiện có với các quyền thích hợp cho Step Functions để gọi SageMaker.”
Để giải quyết vấn đề này, bạn phải tạo một Quản lý truy cập và nhận dạng AWS (IAM) vai trò cho Step Functions. Để biết hướng dẫn, hãy tham khảo Tạo vai trò IAM cho máy trạng thái của bạn. Sau đó đính kèm chính sách IAM sau để cung cấp các quyền cần thiết để chạy quy trình làm việc:
Hình dưới đây minh họa luồng dữ liệu và hình ảnh bộ chứa trong từng bước của quy trình Step Functions.
Sau đây là danh sách các tham số bắt buộc tối thiểu để khởi tạo trong Step Functions; bạn cũng có thể tham khảo tham số đầu vào mẫu JSON:
- đầu vào_uri – URI S3 cho các tệp đầu vào
- đầu ra_uri – URI S3 cho các tệp đầu ra
- code_uri – URI S3 cho các tệp tập lệnh
- tùy chỉnh_image_uri – URI vùng chứa cho vùng chứa tùy chỉnh mà bạn đã tạo
- scikit_image_uri – URI vùng chứa cho khung scikit-learning dựng sẵn
- vai trò – Vai trò thực thi để điều hành công việc
- instance_type – Loại phiên bản bạn cần sử dụng để chạy container
- kích thước âm lượng – Kích thước dung lượng lưu trữ mà bạn yêu cầu cho vùng chứa
- max_runtime – Thời gian chạy tối đa cho vùng chứa, với giá trị mặc định là 1 giờ
Chạy quy trình làm việc
Chúng tôi đã chia nhỏ mã cũ thành các phần có thể quản lý: tiền xử lý, suy luận và hậu xử lý. Để hỗ trợ nhu cầu suy luận của chúng tôi, chúng tôi đã xây dựng một vùng chứa tùy chỉnh được trang bị các phụ thuộc thư viện cần thiết. Kế hoạch của chúng tôi là sử dụng Step Functions, tận dụng khả năng gọi API SageMaker của nó. Chúng tôi đã chỉ ra hai phương pháp để chạy mã tùy chỉnh bằng API SageMaker: một công việc Xử lý SageMaker sử dụng hình ảnh dựng sẵn và lấy một tập lệnh tùy chỉnh trong thời gian chạy và một công việc Xử lý SageMaker sử dụng vùng chứa tùy chỉnh, được đóng gói với các thành phần cần thiết hiện vật để chạy suy luận tùy chỉnh.
Hình dưới đây cho thấy hoạt động của quy trình Step Functions.
Tổng kết
Trong bài đăng này, chúng tôi đã thảo luận về quá trình di chuyển mã ML Python cũ từ các môi trường phát triển cục bộ và triển khai quy trình MLOps được tiêu chuẩn hóa. Với cách tiếp cận này, bạn có thể dễ dàng chuyển hàng trăm mô hình và kết hợp các phương pháp triển khai doanh nghiệp mong muốn của mình. Chúng tôi đã trình bày hai phương pháp khác nhau để chạy mã tùy chỉnh trên SageMaker và bạn có thể chọn phương pháp phù hợp nhất với nhu cầu của mình.
Nếu bạn yêu cầu một giải pháp có khả năng tùy chỉnh cao, bạn nên sử dụng phương pháp tiếp cận vùng chứa tùy chỉnh. Bạn có thể thấy phù hợp hơn khi sử dụng hình ảnh dựng sẵn để chạy tập lệnh tùy chỉnh của mình nếu bạn có tập lệnh cơ bản và không cần tạo vùng chứa tùy chỉnh của mình, như được mô tả trong bước tiền xử lý đã đề cập trước đó. Ngoài ra, nếu cần, bạn có thể áp dụng giải pháp này để chứa các bước đánh giá và đào tạo mô hình cũ, giống như cách chứa bước suy luận trong bài đăng này.
Về các tác giả
Bhavana Chirumamilla là Kiến trúc sư thường trú cấp cao tại AWS với niềm đam mê mãnh liệt đối với hoạt động máy học và dữ liệu. Cô ấy mang đến nhiều kinh nghiệm và sự nhiệt tình để giúp các doanh nghiệp xây dựng các chiến lược ML và dữ liệu hiệu quả. Khi rảnh rỗi, Bhavana thích dành thời gian cho gia đình và tham gia nhiều hoạt động khác nhau như du lịch, đi bộ đường dài, làm vườn và xem phim tài liệu.
Shyam namavaram là kiến trúc sư cấp cao chuyên về giải pháp trí tuệ nhân tạo (AI) và máy học (ML) tại Amazon Web Services (AWS). Anh nhiệt tình làm việc với khách hàng để đẩy nhanh quá trình áp dụng AI và ML của họ bằng cách cung cấp hướng dẫn kỹ thuật, đồng thời giúp họ đổi mới và xây dựng các giải pháp đám mây an toàn trên AWS. Anh ấy chuyên về AI và ML, bộ chứa và công nghệ phân tích. Ngoài công việc, anh thích chơi thể thao và trải nghiệm thiên nhiên với bộ môn trekking.
Thanh Vĩ là Chuyên gia Máy học tại Amazon Web Services. Ông nhận bằng Tiến sĩ về Nghiên cứu Hoạt động sau khi phá vỡ tài khoản tài trợ nghiên cứu của cố vấn và không thực hiện được giải Nobel mà ông đã hứa. Hiện tại, anh giúp khách hàng trong ngành dịch vụ tài chính và bảo hiểm xây dựng các giải pháp máy học trên AWS. Khi rảnh rỗi, anh ấy thích đọc sách và dạy học.
Srinivasa Shaik là Kiến trúc sư giải pháp tại AWS có trụ sở tại Boston. Anh ấy giúp các khách hàng doanh nghiệp tăng tốc hành trình của họ lên đám mây. Anh ấy đam mê công nghệ container và máy học. Khi rảnh rỗi, anh ấy thích dành thời gian cho gia đình, nấu ăn và đi du lịch.
- Phân phối nội dung và PR được hỗ trợ bởi SEO. Được khuếch đại ngay hôm nay.
- Platoblockchain. Web3 Metaverse Intelligence. Khuếch đại kiến thức. Truy cập Tại đây.
- nguồn: https://aws.amazon.com/blogs/machine-learning/bring-legacy-machine-learning-code-into-amazon-sagemaker-using-aws-step-functions/
- :là
- $ LÊN
- 1
- 10
- 100
- 214
- 8
- a
- có khả năng
- Giới thiệu
- đẩy nhanh tiến độ
- truy cập
- Tài khoản
- Hành động
- Hoạt động
- hoạt động
- thêm
- Ngoài ra
- địa chỉ
- tham gia
- Nhận con nuôi
- tiên tiến
- Lợi thế
- Sau
- AI
- Tất cả
- cho phép
- đàn bà gan dạ
- Amazon SageMaker
- Amazon Web Services
- Amazon Web Services (AWS)
- số lượng
- phân tích
- và
- api
- API
- ứng dụng
- Đăng Nhập
- phương pháp tiếp cận
- thích hợp
- kiến trúc
- LÀ
- nhân tạo
- trí tuệ nhân tạo
- Trí tuệ nhân tạo (AI)
- AS
- At
- đính kèm
- tự động
- có sẵn
- AWS
- Học máy AWS
- Chức năng bước AWS
- dựa
- cơ bản
- BE
- bắt đầu
- BEST
- boston
- mang lại
- Mang lại
- Broke
- Bị phá vỡ
- xây dựng
- Xây dựng
- xây dựng
- được xây dựng trong
- by
- cuộc gọi
- gọi là
- Cuộc gọi
- CAN
- không thể
- trường hợp
- trường hợp
- nhất định
- thay đổi
- Chọn
- khách hàng
- đám mây
- cụm
- mã
- Mã số
- hợp tác
- COM
- hoàn thành
- phức tạp
- các thành phần
- toàn diện
- điều kiện
- Cấu hình
- An ủi
- xây dựng
- Container
- Container
- chứa
- điều khiển
- Tiện lợi
- nấu ăn
- tạo
- tạo ra
- Tạo
- Hiện nay
- khách hàng
- khách hàng
- tùy biến
- dữ liệu
- nhà khoa học dữ liệu
- sâu sắc hơn
- Mặc định
- cung cấp
- chứng minh
- triển khai
- triển khai
- mô tả
- máy tính để bàn
- phát triển
- phát triển
- Phát triển
- khác nhau
- trực tiếp
- thảo luận
- khác biệt
- khác nhau
- phu bến tàu
- Bộ chứa Docker
- phim tài liệu
- miền
- dont
- xuống
- suốt trong
- mỗi
- Sớm hơn
- dễ dàng
- dễ dàng
- hiệu lực
- Hiệu quả
- hiệu quả
- nỗ lực
- hay
- loại trừ hết
- tương tác
- ky sư
- đảm bảo
- đảm bảo
- Doanh nghiệp
- khách hàng doanh nghiệp
- doanh nghiệp
- sự nhiệt tình
- Môi trường
- môi trường
- đã trang bị
- lỗi
- Ether (ETH)
- đánh giá
- ví dụ
- đặc biệt
- thực hiện
- hiện tại
- kinh nghiệm
- trải qua
- thêm
- ngoài
- tạo điều kiện
- thất bại
- Tính quen thuộc
- gia đình
- Hình
- Tập tin
- tài chính
- dịch vụ tài chính
- Tìm kiếm
- phù hợp với
- Linh hoạt
- dòng chảy
- theo
- tiếp theo
- Trong
- Khung
- từ
- đầy đủ
- chức năng
- chức năng
- chức năng
- chức năng
- Hơn nữa
- tạo ra
- GitHub
- cấp
- hướng dẫn
- Hướng dẫn
- Có
- giúp đỡ
- giúp đỡ
- giúp
- cấp độ cao
- cao
- đi bộ đường dài
- Độ đáng tin của
- Hướng dẫn
- Tuy nhiên
- HTML
- http
- HTTPS
- Hàng trăm
- IAM
- xác định
- Bản sắc
- hình ảnh
- hình ảnh
- thực hiện
- thực hiện
- nhập khẩu
- quan trọng
- in
- Mặt khác
- bao gồm
- kết hợp
- ngành công nghiệp
- Cơ sở hạ tầng
- ban đầu
- bắt đầu
- đổi mới
- đầu vào
- cài đặt, dựng lên
- Cài đặt
- ví dụ
- hướng dẫn
- bảo hiểm
- ngành bảo hiểm
- tích hợp
- Tích hợp
- hội nhập
- Sự thông minh
- tương tác
- tham gia
- sự tham gia
- IT
- ITS
- Việc làm
- việc làm
- cuộc hành trình
- jpg
- json
- chỉ một
- Ngôn ngữ
- lớn
- mới nhất
- LEARN
- học tập
- Legacy
- thư viện
- Thư viện
- vòng đời
- Lượt thích
- LINK
- Danh sách
- địa phương
- địa điểm thư viện nào
- Xem
- máy
- học máy
- Chủ yếu
- quản lý
- quản lý
- quản lý
- thủ công
- tối đa
- đề cập
- tin nhắn
- phương pháp
- phương pháp
- di chuyển
- di cư
- giảm thiểu
- tối thiểu
- ML
- MLOps
- Chế độ
- kiểu mẫu
- mô hình
- mô-đun
- chi tiết
- hầu hết
- di chuyển
- Được đặt theo tên
- Thiên nhiên
- THÔNG TIN
- cần thiết
- Cần
- cần thiết
- nhu cầu
- Mới
- giải thưởng Nobel
- máy tính xách tay
- con số
- of
- Cung cấp
- on
- ONE
- mở
- hoạt động
- Hoạt động
- tối ưu hóa
- Các lựa chọn
- dàn xếp
- tổ chức
- Tổ chức
- Nền tảng khác
- đầu ra
- bên ngoài
- riêng
- quyền sở hữu
- gói
- thông số
- các bộ phận
- niềm đam mê
- đam mê
- con đường
- thực hiện
- quyền
- kế hoạch
- plato
- Thông tin dữ liệu Plato
- PlatoDữ liệu
- chơi
- điều luật
- Bài đăng
- thực hành
- thực hành
- dự đoán
- trình bày
- trước
- giải thưởng
- quá trình
- xử lý
- Lập trình
- hứa
- đúng
- tạo mẫu
- cho
- cung cấp
- cung cấp
- cung cấp
- Kéo
- mục đích
- đẩy
- Python
- Nhanh chóng
- Mau
- phạm vi
- Reading
- nhận
- đề nghị
- Cấu trúc lại
- đề cập
- đăng ký
- đăng ký
- đăng ký
- kho
- yêu cầu
- cần phải
- Yêu cầu
- nghiên cứu
- tài nguyên
- Thông tin
- chịu trách nhiệm
- kết quả
- kết quả
- có thể tái sử dụng
- Vai trò
- chạy
- chạy
- nhà làm hiền triết
- khả năng mở rộng
- kịch bản
- Nhà khoa học
- học hỏi
- kịch bản
- sdk
- liền mạch
- an toàn
- lựa chọn
- cao cấp
- riêng biệt
- Trình tự
- Không có máy chủ
- dịch vụ
- DỊCH VỤ
- định
- bộ
- thiết lập
- thiết lập
- một số
- Chia sẻ
- thay đổi
- hiển thị
- thể hiện
- Chương trình
- Đơn giản
- đơn giản
- duy nhất
- Kích thước máy
- So
- giải pháp
- Giải pháp
- một số
- chuyên gia
- chuyên
- riêng
- đặc biệt
- quy định
- Chi
- quay
- Thể thao
- giai đoạn
- độc lập
- bắt đầu
- Tiểu bang
- Tuyên bố
- Bang
- Bước
- Các bước
- là gắn
- lưu trữ
- đơn giản
- chiến lược
- hợp lý hóa
- tinh giản
- mạnh mẽ
- phòng thu
- như vậy
- phù hợp
- phù hợp với
- hỗ trợ
- hệ thống
- TAG
- Hãy
- mất
- dùng
- nhiệm vụ
- Giảng dạy
- Kỹ thuật
- Công nghệ
- việc này
- Sản phẩm
- cung cấp their dịch
- Them
- Kia là
- hàng ngàn
- số ba
- Thông qua
- thời gian
- đến
- công cụ
- công cụ
- Hội thảo
- chuyển
- Đi du lịch
- cơ bản
- hiểu
- cập nhật
- URI
- sử dụng
- ca sử dụng
- tiện ích
- sử dụng
- tận dụng
- sử dụng
- giá trị
- khác nhau
- phiên bản
- khối lượng
- xem
- Wealth
- web
- các dịch vụ web
- cái nào
- CHÚNG TÔI LÀ
- sẽ
- với
- ở trong
- không có
- từ
- Công việc
- quy trình làm việc
- đang làm việc
- công trinh
- trên màn hình
- zephyrnet