চ্যাটবট অ্যাপ্লিকেশনের জন্য GPT-NeoXT-Chat-Base-20B ফাউন্ডেশন মডেল এখন Amazon SageMaker এ উপলব্ধ | আমাজন ওয়েব সার্ভিসেস

চ্যাটবট অ্যাপ্লিকেশনের জন্য GPT-NeoXT-Chat-Base-20B ফাউন্ডেশন মডেল এখন Amazon SageMaker এ উপলব্ধ | আমাজন ওয়েব সার্ভিসেস

উত্স নোড: 2096695

আজ আমরা ঘোষণা করতে পেরে আনন্দিত যে টুগেদার কম্পিউটারের GPT-NeoXT-Chat-Base-20B ভাষা ফাউন্ডেশন মডেল গ্রাহকদের জন্য উপলব্ধ আমাজন সেজমেকার জাম্পস্টার্ট. GPT-NeoXT-Chat-Base-20B হল কথোপকথনমূলক বট তৈরির জন্য একটি ওপেন সোর্স মডেল। আপনি সহজেই এই মডেলটি ব্যবহার করে দেখতে পারেন এবং এটি জাম্পস্টার্টের সাথে ব্যবহার করতে পারেন। জাম্পস্টার্ট হল এর মেশিন লার্নিং (ML) হাব আমাজন সেজমেকার যেটি বিল্ট-ইন অ্যালগরিদম এবং এন্ড-টু-এন্ড সলিউশন টেমপ্লেট ছাড়াও ফাউন্ডেশন মডেলগুলিতে অ্যাক্সেস প্রদান করে যাতে আপনাকে দ্রুত ML-এর সাথে শুরু করতে সহায়তা করে।

এই পোস্টে, আমরা কিভাবে মোতায়েন করা যায় তার মধ্য দিয়ে হেঁটে GPT-NeoXT-Chat-Base-20B মডেল এবং একটি মধ্যে মডেল আহ্বান OpenChatKit ইন্টারেক্টিভ শেল। এই প্রদর্শনটি আপনার অ্যাপ্লিকেশনের মধ্যে ব্যবহারের জন্য একটি ওপেন সোর্স ফাউন্ডেশন মডেল চ্যাটবট প্রদান করে।

জাম্পস্টার্ট মডেলগুলি ডিপ জাভা সার্ভিং ব্যবহার করে যা ডিপ জাভা লাইব্রেরি (ডিজেএল) ডিপ স্পিড লাইব্রেরি সহ মডেলগুলিকে অপ্টিমাইজ করতে এবং অনুমানের জন্য বিলম্ব কমাতে ব্যবহার করে। জাম্পস্টার্টের অন্তর্নিহিত বাস্তবায়ন নিম্নলিখিতগুলির অনুরূপ একটি বাস্তবায়নকে অনুসরণ করে নোটবই. জাম্পস্টার্ট মডেল হাব গ্রাহক হিসাবে, আপনি SageMaker SDK-এর বাইরে মডেল স্ক্রিপ্ট বজায় না রেখেই উন্নত কর্মক্ষমতা পান। জাম্পস্টার্ট মডেলগুলি এন্ডপয়েন্টগুলির সাথে উন্নত সুরক্ষা ভঙ্গিও অর্জন করে যা নেটওয়ার্ক বিচ্ছিন্নতা সক্ষম করে।

সেজমেকারে ফাউন্ডেশন মডেল

Hugging Face, PyTorch Hub, এবং TensorFlow Hub সহ জনপ্রিয় মডেল হাব থেকে জাম্পস্টার্ট বিভিন্ন মডেলে অ্যাক্সেস প্রদান করে, যা আপনি সেজমেকারে আপনার এমএল ডেভেলপমেন্ট ওয়ার্কফ্লোতে ব্যবহার করতে পারেন। ML-এর সাম্প্রতিক অগ্রগতিগুলি একটি নতুন শ্রেণীর মডেলের জন্ম দিয়েছে যা নামে পরিচিত ভিত্তি মডেল, যা সাধারণত কোটি কোটি প্যারামিটারের উপর প্রশিক্ষিত হয় এবং টেক্সট সংক্ষিপ্তকরণ, ডিজিটাল শিল্প তৈরি করা এবং ভাষা অনুবাদের মতো বিস্তৃত ব্যবহারের ক্ষেত্রে অভিযোজিত হয়। যেহেতু এই মডেলগুলি প্রশিক্ষণের জন্য ব্যয়বহুল, গ্রাহকরা এই মডেলগুলিকে নিজেরাই প্রশিক্ষিত করার পরিবর্তে বিদ্যমান প্রাক-প্রশিক্ষিত ফাউন্ডেশন মডেলগুলি ব্যবহার করতে চান এবং প্রয়োজন অনুসারে সেগুলিকে সূক্ষ্ম সুর করতে চান৷ সেজমেকার মডেলগুলির একটি কিউরেটেড তালিকা সরবরাহ করে যা আপনি সেজমেকার কনসোলে বেছে নিতে পারেন।

আপনি এখন জাম্পস্টার্টের মধ্যে বিভিন্ন মডেল প্রদানকারীর কাছ থেকে ফাউন্ডেশন মডেলগুলি খুঁজে পেতে পারেন, যা আপনাকে দ্রুত ফাউন্ডেশন মডেলগুলির সাথে শুরু করতে সক্ষম করে৷ আপনি বিভিন্ন কাজ বা মডেল প্রদানকারীদের উপর ভিত্তি করে ভিত্তি মডেল খুঁজে পেতে পারেন এবং সহজেই মডেলের বৈশিষ্ট্য এবং ব্যবহারের শর্তাবলী পর্যালোচনা করতে পারেন। আপনি একটি পরীক্ষা UI উইজেট ব্যবহার করে এই মডেলগুলি ব্যবহার করে দেখতে পারেন। আপনি যখন স্কেলে একটি ফাউন্ডেশন মডেল ব্যবহার করতে চান, আপনি মডেল প্রদানকারীদের থেকে পূর্ব-নির্মিত নোটবুকগুলি ব্যবহার করে SageMaker ত্যাগ না করে সহজেই করতে পারেন। যেহেতু মডেলগুলি হোস্ট করা হয়েছে এবং AWS-এ স্থাপন করা হয়েছে, আপনি নিশ্চিন্ত থাকতে পারেন যে আপনার ডেটা, মডেলটিকে মূল্যায়নের জন্য ব্যবহার করা হোক বা স্কেলে ব্যবহার করা হোক না কেন, তৃতীয় পক্ষের সাথে ভাগ করা হয় না।

GPT-NeoXT-Chat-Base-20B ভিত্তি মডেল

একসাথে কম্পিউটার GPT-NeoXT-Chat-Base-20B, একটি 20-বিলিয়ন-প্যারামিটার ল্যাঙ্গুয়েজ মডেল, ElutherAI-এর GPT-NeoX মডেল থেকে 40 মিলিয়নেরও বেশি নির্দেশ সহ সূক্ষ্ম-টিউন করা হয়েছে, ডায়ালগ-স্টাইল ইন্টারঅ্যাকশনের উপর ফোকাস করেছে। অতিরিক্তভাবে, মডেলটি বেশ কয়েকটি কাজের উপর টিউন করা হয়েছে, যেমন প্রশ্নের উত্তর, শ্রেণিবিন্যাস, নিষ্কাশন এবং সংক্ষিপ্তকরণ। মডেলটি OIG-43M ডেটাসেটের উপর ভিত্তি করে যা LAION এবং Ontocord-এর সহযোগিতায় তৈরি করা হয়েছিল।

উপরে উল্লিখিত ফাইন-টিউনিং ছাড়াও, GPT-NeoXT-Chat-Base-20B-v0.16 আরও সূক্ষ্ম-টিউনিং করা হয়েছে অল্প পরিমাণ প্রতিক্রিয়া ডেটার মাধ্যমে। এটি মডেলটিকে কথোপকথনে মানুষের পছন্দের সাথে আরও ভালভাবে মানিয়ে নিতে দেয়। GPT-NeoXT-Chat-Base-20B চ্যাটবট অ্যাপ্লিকেশানগুলিতে ব্যবহারের জন্য ডিজাইন করা হয়েছে এবং এটির উদ্দিষ্ট সুযোগের বাইরে অন্যান্য ব্যবহারের ক্ষেত্রে ভাল পারফর্ম নাও করতে পারে৷ একসাথে, Ontocord এবং LAION ওপেনচ্যাটকিট রিলিজ করতে সহযোগিতা করেছে, ChatGPT-এর একটি ওপেন-সোর্স বিকল্প ক্ষমতার সমষ্টির সাথে। OpenChatKit একটি Apache-2.0 লাইসেন্সের অধীনে চালু করা হয়েছিল, সোর্স কোড, মডেল ওজন এবং প্রশিক্ষণ ডেটাসেটের সম্পূর্ণ অ্যাক্সেস প্রদান করে। ওপেনচ্যাটকিট বাক্সের বাইরে বেশ কিছু কাজ আছে। এর মধ্যে রয়েছে সংক্ষিপ্তকরণের কাজ, নিষ্কাশন কাজ যা অসংগঠিত নথি থেকে কাঠামোগত তথ্য বের করার অনুমতি দেয় এবং একটি বাক্য বা অনুচ্ছেদকে বিভিন্ন বিভাগে শ্রেণীবদ্ধ করার জন্য শ্রেণীবিভাগের কাজগুলি অন্তর্ভুক্ত করে।

আসুন আমরা কীভাবে জাম্পস্টার্টে GPT-NeoXT-Chat-Base-20B মডেলটি ব্যবহার করতে পারি তা অন্বেষণ করি।

সমাধান ওভারভিউ

আপনি SageMaker-এ GPT-NeoXT-Chat-Base-20B-এর স্থাপনা দেখানো কোড এবং নিম্নলিখিত কমান্ড শেল ব্যবহার করে কথোপকথনমূলক পদ্ধতিতে কীভাবে স্থাপন করা মডেলটি ব্যবহার করবেন তার একটি উদাহরণ খুঁজে পেতে পারেন GitHub নোটবুক.

নিম্নলিখিত বিভাগে, আমরা মডেলটি স্থাপন করার জন্য প্রতিটি ধাপ বিশদভাবে প্রসারিত করি এবং তারপর বিভিন্ন কাজ সমাধান করতে এটি ব্যবহার করি:

  1. পূর্বশর্ত সেট আপ করুন।
  2. একটি প্রাক-প্রশিক্ষিত মডেল নির্বাচন করুন।
  3. শিল্পকর্ম পুনরুদ্ধার করুন এবং একটি শেষ পয়েন্ট স্থাপন করুন।
  4. সমাপ্তি বিন্দু ক্যোয়ারী এবং একটি প্রতিক্রিয়া পার্স.
  5. আপনার নিয়োজিত এন্ডপয়েন্টের সাথে ইন্টারঅ্যাক্ট করতে একটি OpenChatKit শেল ব্যবহার করুন।

পূর্বশর্ত সেট আপ করুন

এই নোটবুকটি একটি ml.t3.medium ইনস্ট্যান্সে পরীক্ষা করা হয়েছিল৷ অ্যামাজন সেজমেকার স্টুডিও পাইথন 3 (ডেটা সায়েন্স) কার্নেলের সাথে এবং একটি সেজমেকার নোটবুক উদাহরণে conda_python3 কার্নেলের সাথে।

আপনি নোটবুক চালানোর আগে, সেটআপের জন্য প্রয়োজনীয় কিছু প্রাথমিক পদক্ষেপগুলি সম্পূর্ণ করতে নিম্নলিখিত কমান্ডটি ব্যবহার করুন:

%pip install --upgrade sagemaker –quiet

একটি প্রাক-প্রশিক্ষিত মডেল নির্বাচন করুন

আমরা Boto3 ব্যবহার করে স্বাভাবিকের মতো একটি সেজমেকার সেশন সেট আপ করি এবং তারপরে আমরা যে মডেল আইডি স্থাপন করতে চাই সেটি নির্বাচন করুন:

model_id, model_version = "huggingface-textgeneration2-gpt-neoxt-chat-base-20b-fp16", "*"

শিল্পকর্ম পুনরুদ্ধার করুন এবং একটি শেষ পয়েন্ট স্থাপন করুন

সেজমেকারের সাহায্যে, আমরা একটি নতুন ডেটাসেটে প্রথমে ফাইন-টিউনিং না করেও প্রাক-প্রশিক্ষিত মডেলের উপর অনুমান করতে পারি। আমরা পুনরুদ্ধার দ্বারা শুরু instance_type, image_uri, এবং model_uri প্রাক-প্রশিক্ষিত মডেলের জন্য। প্রাক-প্রশিক্ষিত মডেল হোস্ট করতে, আমরা এর একটি উদাহরণ তৈরি করি sagemaker.model.Model এবং এটি স্থাপন। নিম্নোক্ত কোডটি অনুমানের শেষ বিন্দুর জন্য ml.g5.24xlarge ব্যবহার করে। স্থাপন পদ্ধতিতে কয়েক মিনিট সময় লাগতে পারে।

endpoint_name = name_from_base(f"jumpstart-example-{model_id}") # Retrieve the inference instance type for the specified model.
instance_type = instance_types.retrieve_default( model_id=model_id, model_version=model_version, scope="inference"
) # Retrieve the inference docker container uri.
image_uri = image_uris.retrieve( region=None, framework=None, image_scope="inference", model_id=model_id, model_version=model_version, instance_type=instance_type,
) # Retrieve the model uri.
model_uri = model_uris.retrieve( model_id=model_id, model_version=model_version, model_scope="inference"
) # Create the SageMaker model instance. The inference script is prepacked with the model artifact.
model = Model( image_uri=image_uri, model_data=model_uri, role=aws_role, predictor_cls=Predictor, name=endpoint_name,
) # Set the serializer/deserializer used to run inference through the sagemaker API.
serializer = JSONSerializer()
deserializer = JSONDeserializer() # Deploy the Model.
predictor = model.deploy( initial_instance_count=1, instance_type=instance_type, predictor_cls=Predictor, endpoint_name=endpoint_name, serializer=serializer, deserializer=deserializer
)

সমাপ্তি বিন্দু ক্যোয়ারী এবং প্রতিক্রিয়া পার্স

এর পরে, আমরা আপনাকে হাইপারপ্যারামিটারের একটি উপসেট সহ একটি এন্ডপয়েন্ট কীভাবে আহ্বান করতে হয় তার একটি উদাহরণ দেখাই:

payload = { "text_inputs": "<human>: Tell me the steps to make a pizzan<bot>:", "max_length": 500, "max_time": 50, "top_k": 50, "top_p": 0.95, "do_sample": True, "stopping_criteria": ["<human>"],
}
response = predictor.predict(payload)
print(response[0][0]["generated_text"])

নিম্নলিখিত প্রতিক্রিয়া যা আমরা পাই:

<human>: Tell me the steps to make a pizza
<bot>: 1. Choose your desired crust, such as thin-crust or deep-dish. 2. Preheat the oven to the desired temperature. 3. Spread sauce, such as tomato or garlic, over the crust. 4. Add your desired topping, such as pepperoni, mushrooms, or olives. 5. Add your favorite cheese, such as mozzarella, Parmesan, or Asiago. 6. Bake the pizza according to the recipe instructions. 7. Allow the pizza to cool slightly before slicing and serving.
<human>:

এখানে, আমরা পেলোড যুক্তি প্রদান করেছি "stopping_criteria": ["<human>"], যার ফলে মডেল প্রতিক্রিয়া শব্দের ক্রম প্রজন্মের সাথে শেষ হয়েছে <human>. জাম্পস্টার্ট মডেল স্ক্রিপ্ট পছন্দসই স্টপ শব্দ হিসাবে স্ট্রিংগুলির যে কোনও তালিকা গ্রহণ করবে, এই তালিকাটিকে একটি বৈধ হিসাবে রূপান্তর করুন stopping_criteria কীওয়ার্ড আর্গুমেন্ট ট্রান্সফরমার এপিআই জেনারেট করে এবং আউটপুট সিকোয়েন্সে কোনো নির্দিষ্ট স্টপ শব্দ থাকলে টেক্সট জেনারেশন বন্ধ করে। এটি দুটি কারণে কার্যকর: প্রথমত, অনুমানের সময় হ্রাস করা হয়েছে কারণ এন্ডপয়েন্টটি স্টপ শব্দের বাইরে অবাঞ্ছিত পাঠ্য তৈরি করা চালিয়ে যায় না এবং দ্বিতীয়ত, এটি ওপেনচ্যাটকিট মডেলটিকে অন্যান্য স্টপ মানদণ্ড পূরণ না হওয়া পর্যন্ত অতিরিক্ত মানব এবং বট প্রতিক্রিয়াগুলিকে হ্যালুসিনেটিং থেকে বাধা দেয়। .

আপনার নিয়োজিত এন্ডপয়েন্টের সাথে ইন্টারঅ্যাক্ট করতে একটি OpenChatKit শেল ব্যবহার করুন

OpenChatKit চ্যাটবটের সাথে ইন্টারঅ্যাক্ট করার জন্য একটি কমান্ড লাইন শেল প্রদান করে। এই ধাপে, আপনি এই শেলটির একটি সংস্করণ তৈরি করুন যা আপনার স্থাপন করা শেষ পয়েন্টের সাথে ইন্টারঅ্যাক্ট করতে পারে। আমরা এই ওপেনচ্যাটকিট রিপোজিটরিতে ইনফারেন্স স্ক্রিপ্টগুলির একটি বেয়ার-বোন সরলীকরণ প্রদান করি যা আমাদের স্থাপন করা সেজমেকার এন্ডপয়েন্টের সাথে যোগাযোগ করতে পারে।

এর জন্য দুটি প্রধান উপাদান রয়েছে:

  • একটি শেল দোভাষী (JumpStartOpenChatKitShell) যা মডেল এন্ডপয়েন্টের পুনরাবৃত্তিমূলক অনুমান আহ্বানের জন্য অনুমতি দেয়
  • একটি কথোপকথন বস্তু (Conversation) যা পূর্ববর্তী মানব/চ্যাটবট ইন্টারঅ্যাকশনগুলিকে স্থানীয়ভাবে ইন্টারেক্টিভ শেলের মধ্যে সঞ্চয় করে এবং ভবিষ্যতের অনুমান প্রসঙ্গের জন্য অতীতের কথোপকথনগুলি যথাযথভাবে ফর্ম্যাট করে

সার্জারির Conversation অবজেক্টটি ওপেনচ্যাটকিট সংগ্রহস্থল থেকে আমদানি করা হয়। নিম্নলিখিত কোডটি একটি কাস্টম শেল দোভাষী তৈরি করে যা আপনার এন্ডপয়েন্টের সাথে ইন্টারঅ্যাক্ট করতে পারে। এটি OpenChatKit বাস্তবায়নের একটি সরলীকৃত সংস্করণ। আমরা আপনাকে এই প্রসঙ্গের মধ্যে টোকেন স্ট্রিমিং, মডারেশন মডেল এবং পুনরুদ্ধার বর্ধিত প্রজন্মের মতো আরও গভীর বৈশিষ্ট্যগুলি কীভাবে ব্যবহার করতে পারেন তা দেখতে OpenChatKit সংগ্রহস্থলটি অন্বেষণ করতে উত্সাহিত করি৷ এই নোটবুকের প্রেক্ষাপটটি একটি জাম্পস্টার্ট এন্ডপয়েন্ট সহ একটি ন্যূনতম কার্যকর চ্যাটবট প্রদর্শনের উপর দৃষ্টি নিবদ্ধ করে; আপনি এখান থেকে প্রয়োজনীয় জটিলতা যোগ করতে পারেন।

একটি ছোট ডেমো প্রদর্শনের জন্য JumpStartOpenChatKitShell নিম্নলিখিত ভিডিওতে দেখানো হয়েছে।

নিম্নলিখিত স্নিপেট দেখায় কিভাবে কোড কাজ করে:

class JumpStartOpenChatKitShell(cmd.Cmd): intro = ( "Welcome to the OpenChatKit chatbot shell, modified to use a SageMaker JumpStart endpoint! Type /help or /? to " "list commands. For example, type /quit to exit shell.n" ) prompt = ">>> " human_id = "<human>" bot_id = "<bot>" def __init__(self, predictor: Predictor, cmd_queue: Optional[List[str]] = None, **kwargs): super().__init__() self.predictor = predictor self.payload_kwargs = kwargs self.payload_kwargs["stopping_criteria"] = [self.human_id] if cmd_queue is not None: self.cmdqueue = cmd_queue def preloop(self): self.conversation = Conversation(self.human_id, self.bot_id) def precmd(self, line): command = line[1:] if line.startswith('/') else 'say ' + line return command def do_say(self, arg): self.conversation.push_human_turn(arg) prompt = self.conversation.get_raw_prompt() payload = {"text_inputs": prompt, **self.payload_kwargs} response = self.predictor.predict(payload) output = response[0][0]["generated_text"][len(prompt):] self.conversation.push_model_response(output) print(self.conversation.get_last_turn()) def do_reset(self, arg): self.conversation = Conversation(self.human_id, self.bot_id) def do_hyperparameters(self, arg): print(f"Hyperparameters: {self.payload_kwargs}n") def do_quit(self, arg): return True

আপনি এখন এই শেলটিকে কমান্ড লুপ হিসাবে চালু করতে পারেন। এটি বারবার একটি প্রম্পট জারি করবে, ইনপুট গ্রহণ করবে, ইনপুট কমান্ড পার্স করবে এবং ক্রিয়া প্রেরণ করবে। যেহেতু ফলস্বরূপ শেলটি একটি অসীম লুপে ব্যবহার করা যেতে পারে, এই নোটবুকটি একটি ডিফল্ট কমান্ড সারি প্রদান করে (cmdqueue) ইনপুট লাইনের সারিবদ্ধ তালিকা হিসাবে। কারণ শেষ ইনপুট হল কমান্ড /quit, সারির ক্লান্তির পরে শেলটি প্রস্থান করবে। এই চ্যাটবটের সাথে গতিশীলভাবে ইন্টারঅ্যাক্ট করতে, সরান cmdqueue.

cmd_queue = [ "Hello!",
]
JumpStartOpenChatKitShell( endpoint_name=endpoint_name, cmd_queue=cmd_queue, max_new_tokens=128, do_sample=True, temperature=0.6, top_k=40,
).cmdloop()

উদাহরণ 1: কথোপকথনের প্রসঙ্গ বজায় রাখা হয়েছে

নিম্নলিখিত প্রম্পট দেখায় যে চ্যাটবট ফলো-আপ প্রশ্নের উত্তর দেওয়ার জন্য কথোপকথনের প্রসঙ্গ ধরে রাখতে সক্ষম:

Welcome to the OpenChatKit chatbot shell, modified to use a SageMaker JumpStart endpoint! Type /help or /? to list commands. For example, type /quit to exit shell. <<< Hello! How may I help you today? >>> What is the capital of US? <<< The capital of US is Washington, D.C. >>> How far it is from PA ? <<< It is approximately 1100 miles.

উদাহরণ 2: অনুভূতির শ্রেণীবিভাগ

নিম্নলিখিত উদাহরণে, চ্যাটবট বাক্যটির অনুভূতি সনাক্ত করে একটি শ্রেণীবিভাগের কাজ সম্পাদন করেছে। আপনি দেখতে পাচ্ছেন, চ্যাটবট সফলভাবে ইতিবাচক এবং নেতিবাচক অনুভূতি শ্রেণীবদ্ধ করতে সক্ষম হয়েছে।

Welcome to the OpenChatKit chatbot shell, modified to use a SageMaker JumpStart endpoint! Type /help or /? to list commands. For example, type /quit to exit shell. <<< Hello! How may I help you today? >>> What is the sentiment of this sentence "The weather is good and I am going to play outside, it is sunny and warm" <<< POSITIVE >>> What is the sentiment of this sentence " The news this morning was tragic and it created lot of fear and concerns in city" <<< NEGATIVE

উদাহরণ 3: সংক্ষিপ্তকরণ কাজ

এর পরে, আমরা চ্যাটবট শেল দিয়ে সংক্ষিপ্তকরণের কাজগুলি চেষ্টা করেছি। নিম্নলিখিত উদাহরণ দেখায় কিভাবে দীর্ঘ টেক্সট সম্পর্কে অ্যামাজন সমঝোতা একটি বাক্যে সংক্ষিপ্ত করা হয়েছিল এবং চ্যাটবট পাঠ্যের ফলো-আপ প্রশ্নের উত্তর দিতে সক্ষম হয়েছিল:

Welcome to the OpenChatKit chatbot shell, modified to use a SageMaker JumpStart endpoint! Type /help or /? to list commands. For example, type /quit to exit shell. <<< Hello! How may I help you today? >>> Write a short summary for this text: Amazon Comprehend uses natural language processing (NLP) to extract insights about the content of documents. It develops insights by recognizing the entities, key phrases, language, sentiments, and other common elements in a document. Use Amazon Comprehend to create new products based on understanding the structure of documents. For example, using Amazon Comprehend you can search social networking feeds for mentions of products or scan an entire document repository for key phrases. nYou can access Amazon Comprehend document analysis capabilities using the Amazon Comprehend console or using the Amazon Comprehend APIs. You can run real-time analysis for small workloads or you can start asynchronous analysis jobs for large document sets. You can use the pre-trained models that Amazon Comprehend provides, or you can train your own custom models for classification and entity recognition. nAll of the Amazon Comprehend features accept UTF-8 text documents as the input. In addition, custom classification and custom entity recognition accept image files, PDF files, and Word files as input. nAmazon Comprehend can examine and analyze documents in a variety of languages, depending on the specific feature. For more information, see Languages supported in Amazon Comprehend. Amazon Comprehend's Dominant language capability can examine documents and determine the dominant language for a far wider selection of languages. <<< Amazon Comprehend is a natural language processing (NLP) service that uses deep learning and other advanced AI techniques to extract insights from unstructured text. >>> What kind of files does custom entity recognition accept as inputs? <<< Image files, PDF files, and Word files

উদাহরণ 4: কাঠামোবিহীন পাঠ্য থেকে কাঠামোগত তথ্য বের করুন

নিম্নোক্ত উদাহরণে, আমরা চ্যাটবট ব্যবহার করে শিরোনাম, সারি এবং কলাম সহ একটি মার্কডাউন টেবিল তৈরি করেছিলাম যা ফ্রি-ফর্ম ভাষায় দেওয়া তথ্য ব্যবহার করে একটি প্রকল্প পরিকল্পনা তৈরি করতে পারে:

Welcome to the OpenChatKit chatbot shell, modified to use a SageMaker JumpStart endpoint! Type /help or /? to list commands. For example, type /quit to exit shell. <<< Hello! How may I help you today? >>> Generate a table summarizing the options outlined in this email. Team, we need to plan a project. The first task is for creating a web app and will take 3 developers, 2 testers with duration of 3 weeks. This is priority 1 The second task is for refactoring a web app and will take 2 developers, 5 testers with duration of 4 weeks. This is priority 2 A markdown table with 2 rows and six columns: (1) Task ID , (2) Task Description, (3) Developers, (4) Testers, (5) Duration, (6) Priority <<< | Task ID | Task Description | Developers | Testers | Duration | Priority |
| --------- | --------- | --------- | --------- | --------- | --------- |
| 1 | Create a web app | 3 | 2 | 3 weeks | 1 |
| 2 | Refactor a web app | 2 | 5 | 4 weeks | 2 |

উদাহরণ 5: চ্যাটবটে ইনপুট হিসাবে কমান্ড

আমরা যেমন কমান্ড হিসাবে ইনপুট প্রদান করতে পারেন /hyperparameters হাইপারপ্যারামিটারের মান দেখতে এবং /quit কমান্ড শেল প্রস্থান করতে:

>>> /hyperparameters <<< Hyperparameters: {'max_new_tokens': 128, 'do_sample': True, 'temperature': 0.6, 'top_k': 40, 'stopping_criteria': ['<human>']} >>> /quit

এই উদাহরণগুলি ওপেনচ্যাটকিটের উৎকর্ষের কিছু কাজ দেখায়। আমরা আপনাকে বিভিন্ন প্রম্পট চেষ্টা করার জন্য এবং আপনার ব্যবহারের ক্ষেত্রে কোনটি সবচেয়ে ভাল কাজ করে তা দেখতে উত্সাহিত করি।

পরিষ্কার কর

আপনি এন্ডপয়েন্ট পরীক্ষা করার পরে, চার্জ এড়াতে সেজমেকার ইনফারেন্স এন্ডপয়েন্ট এবং মডেলটি মুছে ফেলেছেন তা নিশ্চিত করুন।

উপসংহার

এই পোস্টে, আমরা আপনাকে দেখিয়েছি কিভাবে সেজমেকার ব্যবহার করে GPT-NeoXT-Chat-Base-20B মডেলটি পরীক্ষা এবং ব্যবহার করতে হয় এবং আকর্ষণীয় চ্যাটবট অ্যাপ্লিকেশন তৈরি করতে হয়। আজই সেজমেকারে ফাউন্ডেশন মডেল ব্যবহার করে দেখুন এবং আপনার প্রতিক্রিয়া আমাদের জানান!

এই নির্দেশিকা শুধুমাত্র তথ্যের উদ্দেশ্যে। আপনি এখনও আপনার নিজের স্বাধীন মূল্যায়ন করতে হবে, এবং আপনার নিজের নির্দিষ্ট মান নিয়ন্ত্রণ অনুশীলন এবং মান এবং স্থানীয় নিয়ম, আইন, প্রবিধান, লাইসেন্স এবং ব্যবহারের শর্তাবলী যা আপনার জন্য প্রযোজ্য, আপনার সামগ্রী এবং এই নির্দেশিকাতে উল্লেখ করা তৃতীয় পক্ষের মডেল। এই নির্দেশিকায় উল্লেখ করা তৃতীয়-পক্ষের মডেলের উপর AWS-এর কোনো নিয়ন্ত্রণ বা কর্তৃত্ব নেই, এবং তৃতীয় পক্ষের মডেল নিরাপদ, ভাইরাস-মুক্ত, কর্মক্ষম, বা আপনার উৎপাদন পরিবেশ এবং মানগুলির সাথে সামঞ্জস্যপূর্ণ এমন কোনো উপস্থাপনা বা ওয়ারেন্টি দেয় না। AWS কোনো উপস্থাপনা, ওয়ারেন্টি বা গ্যারান্টি দেয় না যে এই নির্দেশিকাতে থাকা কোনো তথ্য একটি নির্দিষ্ট ফলাফল বা ফলাফলে পরিণত হবে।


লেখক সম্পর্কে

রচনা চাদা AWS এ স্ট্র্যাটেজিক অ্যাকাউন্টে একজন প্রিন্সিপাল সলিউশন আর্কিটেক্ট এআই/এমএল। রচনা একজন আশাবাদী যিনি বিশ্বাস করেন যে AI এর নৈতিক ও দায়িত্বশীল ব্যবহার ভবিষ্যতে সমাজের উন্নতি করতে পারে এবং অর্থনৈতিক ও সামাজিক সমৃদ্ধি আনতে পারে। অবসর সময়ে, রচনা তার পরিবারের সাথে সময় কাটাতে, হাইকিং করতে এবং গান শুনতে পছন্দ করে।

ডাঃ কাইল উলরিচ সঙ্গে একজন ফলিত বিজ্ঞানী Amazon SageMaker বিল্ট-ইন অ্যালগরিদম টীম. তার গবেষণার আগ্রহের মধ্যে রয়েছে স্কেলযোগ্য মেশিন লার্নিং অ্যালগরিদম, কম্পিউটার ভিশন, টাইম সিরিজ, বায়েসিয়ান নন-প্যারামেট্রিক্স এবং গাউসিয়ান প্রক্রিয়া। তার পিএইচডি ডিউক বিশ্ববিদ্যালয় থেকে এবং তিনি নিউরিআইপিএস, সেল এবং নিউরনে গবেষণাপত্র প্রকাশ করেছেন।

আশিস খেতান ড অ্যামাজন সেজমেকার বিল্ট-ইন অ্যালগরিদম সহ একজন সিনিয়র ফলিত বিজ্ঞানী এবং মেশিন লার্নিং অ্যালগরিদম বিকাশে সহায়তা করে। তিনি ইউনিভার্সিটি অফ ইলিনয় আরবানা-চ্যাম্পেইন থেকে পিএইচডি লাভ করেন। তিনি মেশিন লার্নিং এবং পরিসংখ্যানগত অনুমানে একজন সক্রিয় গবেষক এবং নিউরিআইপিএস, আইসিএমএল, আইসিএলআর, জেএমএলআর, এসিএল এবং ইএমএনএলপি সম্মেলনে অনেক গবেষণাপত্র প্রকাশ করেছেন।

সময় স্ট্যাম্প:

থেকে আরো এডাব্লুএস মেশিন লার্নিং

Amazon SageMaker Canvas-এর সাথে ডেটা প্রসেসিং, প্রশিক্ষণ এবং অনুমানে 70% কর্মক্ষমতা উন্নতির সাথে ব্যবসায়িক ফলাফলগুলিকে ত্বরান্বিত করুন | আমাজন ওয়েব সার্ভিসেস

উত্স নোড: 2198983
সময় স্ট্যাম্প: আগস্ট 3, 2023

অ্যামাজন ইঞ্জিনিয়ারিংয়ের জন্য অ্যামাজন সেজমেকারে মানব এবং এআই প্রতিক্রিয়া সহ এলএলএম কর্মক্ষমতা উন্নত করুন | আমাজন ওয়েব সার্ভিসেস

উত্স নোড: 2556385
সময় স্ট্যাম্প: এপ্রিল 24, 2024

SageMaker স্বয়ংক্রিয় মডেল টিউনিংয়ের সাথে ন্যায়সঙ্গততার মতো অতিরিক্ত উদ্দেশ্যগুলির জন্য ML মডেলগুলি টিউন করুন৷

উত্স নোড: 1983705
সময় স্ট্যাম্প: ফেব্রুয়ারী 27, 2023