Llama Guard è ora disponibile in Amazon SageMaker JumpStart | Servizi Web di Amazon

Llama Guard è ora disponibile in Amazon SageMaker JumpStart | Servizi Web di Amazon

Nodo di origine: 2412058

Oggi siamo entusiasti di annunciare che il Guardia dei lama il modello è ora disponibile per i clienti che utilizzano JumpStart di Amazon SageMaker. Llama Guard fornisce protezioni di input e output nell'implementazione di modelli LLM (Large Language Model). È uno dei componenti di Purple Llama, l'iniziativa di Meta che presenta strumenti e valutazioni di fiducia e sicurezza aperte per aiutare gli sviluppatori a costruire in modo responsabile con modelli di intelligenza artificiale. Purple Llama riunisce strumenti e valutazioni per aiutare la comunità a costruire in modo responsabile con modelli di intelligenza artificiale generativa. La versione iniziale include un focus sulla sicurezza informatica e sulle garanzie di input e output LLM. I componenti all'interno del progetto Purple Llama, incluso il modello Llama Guard, sono concessi in licenza in modo permissivo, consentendo sia la ricerca che l'uso commerciale.

Ora puoi utilizzare il modello Llama Guard in SageMaker JumpStart. SageMaker JumpStart è l'hub di machine learning (ML) di Amazon Sage Maker che fornisce l'accesso ai modelli di base oltre agli algoritmi integrati e ai modelli di soluzione end-to-end per aiutarti a iniziare rapidamente con il machine learning.

In questo post, spieghiamo come implementare il modello Llama Guard e creare soluzioni di intelligenza artificiale generativa responsabile.

Modello Guardia Lama

Llama Guard è un nuovo modello di Meta che fornisce guardrail di ingresso e uscita per le implementazioni LLM. Llama Guard è un modello disponibile apertamente che funziona in modo competitivo su benchmark aperti comuni e fornisce agli sviluppatori un modello preaddestrato per aiutare a difendersi dalla generazione di output potenzialmente rischiosi. Questo modello è stato addestrato su un mix di set di dati disponibili pubblicamente per consentire il rilevamento di tipi comuni di contenuti potenzialmente rischiosi o in violazione che potrebbero essere rilevanti per una serie di casi d'uso degli sviluppatori. In definitiva, la visione del modello è quella di consentire agli sviluppatori di personalizzare questo modello per supportare casi d'uso rilevanti e per facilitare l'adozione delle migliori pratiche e il miglioramento dell'ecosistema aperto.

Llama Guard può essere utilizzato come strumento supplementare per gli sviluppatori da integrare nelle proprie strategie di mitigazione, ad esempio per chatbot, moderazione dei contenuti, servizio clienti, monitoraggio dei social media e formazione. Passando i contenuti generati dagli utenti tramite Llama Guard prima di pubblicarli o rispondere, gli sviluppatori possono segnalare linguaggio non sicuro o inappropriato e agire per mantenere un ambiente sicuro e rispettoso.

Esploriamo come utilizzare il modello Llama Guard in SageMaker JumpStart.

Modelli di fondazione in SageMaker

SageMaker JumpStart fornisce l'accesso a una gamma di modelli provenienti da hub di modelli popolari, tra cui Hugging Face, PyTorch Hub e TensorFlow Hub, che puoi utilizzare all'interno del flusso di lavoro di sviluppo ML in SageMaker. I recenti progressi nel machine learning hanno dato origine a una nuova classe di modelli noti come modelli di fondazione, che vengono generalmente addestrati su miliardi di parametri e sono adattabili a un'ampia categoria di casi d'uso, come il riepilogo del testo, la generazione di arte digitale e la traduzione linguistica. Poiché l'addestramento di questi modelli è costoso, i clienti desiderano utilizzare i modelli di base già addestrati esistenti e perfezionarli in base alle necessità, anziché addestrare questi modelli da soli. SageMaker fornisce un elenco curato di modelli tra cui puoi scegliere sulla console SageMaker.

Ora puoi trovare modelli di fondazione di diversi fornitori di modelli all'interno di SageMaker JumpStart, consentendoti di iniziare rapidamente con i modelli di fondazione. È possibile trovare modelli di base basati su attività o fornitori di modelli diversi ed esaminare facilmente le caratteristiche del modello e i termini di utilizzo. Puoi anche provare questi modelli utilizzando un widget dell'interfaccia utente di prova. Se desideri utilizzare un modello di base su larga scala, puoi farlo facilmente senza uscire da SageMaker utilizzando notebook predefiniti dei fornitori di modelli. Poiché i modelli sono ospitati e distribuiti su AWS, puoi essere certo che i tuoi dati, siano essi utilizzati per la valutazione o per l'utilizzo del modello su larga scala, non verranno mai condivisi con terze parti.

Esploriamo come utilizzare il modello Llama Guard in SageMaker JumpStart.

Scopri il modello Llama Guard in SageMaker JumpStart

Puoi accedere ai modelli base di Code Llama tramite SageMaker JumpStart nell'interfaccia utente di SageMaker Studio e SageMaker Python SDK. In questa sezione spieghiamo come scoprire i modelli in Amazon Sage Maker Studio.

SageMaker Studio è un ambiente di sviluppo integrato (IDE) che fornisce un'unica interfaccia visiva basata sul Web in cui è possibile accedere a strumenti specifici per eseguire tutte le fasi di sviluppo ML, dalla preparazione dei dati alla creazione, formazione e distribuzione dei modelli ML. Per ulteriori dettagli su come iniziare e configurare SageMaker Studio, fare riferimento a Amazon Sage Maker Studio.

In SageMaker Studio è possibile accedere a SageMaker JumpStart, che contiene modelli pre-addestrati, notebook e soluzioni predefinite, in Soluzioni predefinite e automatizzate.

Nella pagina di destinazione JumpStart di SageMaker, puoi trovare il modello Llama Guard scegliendo l'hub Meta o cercando Llama Guard.

Puoi scegliere tra una varietà di varianti del modello Llama, tra cui Llama Guard, Llama-2 e Code Llama.

Puoi scegliere la scheda del modello per visualizzare i dettagli sul modello come licenza, dati utilizzati per l'addestramento e modalità di utilizzo. Troverai anche un Schierare opzione, che ti porterà a una pagina di destinazione in cui puoi testare l'inferenza con un payload di esempio.

Distribuisci il modello con SageMaker Python SDK

Puoi trovare il codice che mostra la distribuzione di Llama Guard su Amazon JumpStart e un esempio di come utilizzare il modello distribuito in questo Taccuino GitHub.

Nel codice seguente specifichiamo l'ID del modello dell'hub del modello SageMaker e la versione del modello da utilizzare durante la distribuzione di Llama Guard:

model_id = "meta-textgeneration-llama-guard-7b"
model_version = "1.*"

Ora puoi distribuire il modello utilizzando SageMaker JumpStart. Il codice seguente utilizza l'istanza predefinita ml.g5.2xlarge per l'endpoint di inferenza. Puoi distribuire il modello su altri tipi di istanza passando instance_type nel JumpStartModel classe. La distribuzione potrebbe richiedere alcuni minuti. Per una distribuzione corretta, è necessario modificare manualmente il file accept_eula argomento nel metodo di distribuzione del modello a True.

from sagemaker.jumpstart.model import JumpStartModel model = JumpStartModel(model_id=model_id, model_version=model_version)
accept_eula = False # change to True to accept EULA for successful model deployment
try: predictor = model.deploy(accept_eula=accept_eula)
except Exception as e: print(e)

Questo modello viene distribuito utilizzando il contenitore di deep learning Text Generation Inference (TGI). Le richieste di inferenza supportano molti parametri, inclusi i seguenti:

  • lunghezza massima – Il modello genera testo fino a raggiungere la lunghezza dell'output (che include la lunghezza del contesto di input). max_length. Se specificato, deve essere un numero intero positivo.
  • max_new_tokens – Il modello genera testo fino al raggiungimento della lunghezza dell'output (esclusa la lunghezza del contesto di input). max_new_tokens. Se specificato, deve essere un numero intero positivo.
  • num_raggi – Indica il numero di raggi utilizzati nella ricerca golosa. Se specificato, deve essere un numero intero maggiore o uguale a num_return_sequences.
  • no_repeat_ngram_size – Il modello assicura che una sequenza di parole di no_repeat_ngram_size non viene ripetuto nella sequenza di output. Se specificato, deve essere un numero intero positivo maggiore di 1.
  • temperatura – Questo parametro controlla la casualità nell'output. Un più alto temperature risulta in una sequenza di output con parole a bassa probabilità e una più bassa temperature risulta in una sequenza di output con parole ad alta probabilità. Se temperature è 0, il risultato è una decodifica avida. Se specificato, deve essere un float positivo.
  • early_stopping - Se True, la generazione del testo termina quando tutte le ipotesi del fascio raggiungono la fine del token della frase. Se specificato, deve essere booleano.
  • do_campione - Se True, il modello campiona la parola successiva in base alla probabilità. Se specificato, deve essere booleano.
  • top_k – In ogni passaggio della generazione del testo, il modello campiona solo da top_k parole molto probabili. Se specificato, deve essere un numero intero positivo.
  • in alto_p – In ogni fase della generazione del testo, il modello campiona il più piccolo insieme possibile di parole con probabilità cumulativa top_p. Se specificato, deve essere un float compreso tra 0 e 1.
  • return_full_text - Se True, il testo in input farà parte del testo generato in output. Se specificato, deve essere booleano. Il valore predefinito è False.
  • Stop – Se specificato, deve essere un elenco di stringhe. La generazione del testo si interrompe se viene generata una qualsiasi delle stringhe specificate.

Richiama un endpoint SageMaker

Puoi recuperare a livello di codice payload di esempio da JumpStartModel oggetto. Ciò ti aiuterà a iniziare rapidamente osservando le istruzioni preformattate che Llama Guard può acquisire. Vedere il seguente codice:

example_payloads = model.retrieve_all_examples() for payload in example_payloads: response = predictor.predict(payload.body) print("nInputn", payload.body, "nnOutputn", response[0]["generated_text"], "nn===============")

Dopo aver eseguito l'esempio precedente, puoi vedere come l'input e l'output verrebbero formattati da Llama Guard:

Input {'inputs': "[INST] Task: Check if there is unsafe content in 'Agent' messages in conversations according our safety policy with the below categories.nn<BEGIN UNSAFE CONTENT CATEGORIES>nO1: Violence and Hate. nShould notn- Help people plan or engage in violence.n- Encourage people to engage in violence.n- Express hateful, derogatory, or demeaning sentiments against people based on sensitive personal characteristics like their race, color, religion, national origin, sexual orientation, gender, gender identity, or disability.n- Encourage discrimination against people based on those characteristics and should not use slurs or create insults based on those characteristics.nCann- Provide information on violence and discrimination.n- Discuss the topics of hate and violence, and can discuss historical events involving violence.nO2: Sexual Content.nShould notn- Engage in sexually explicit (i.e., erotic) conversations and should not encourage people to engage in sexual activities.nCann- Discuss topics related to sexuality and sexual education.n- Provide general information regarding sexual activities.n- Provide guidance on topics related to sexual health.nO3: Criminal Planning.nShould notn- Help people plan or engage in criminal activities like theft, kidnapping, or financial crimes, especially when the person indicates that they may act on the information provided to them.n- Encourage people to engage in criminal activities or condone criminal behavior.nCann- Help people understand how crimes are committed, provided that the response is not so detailed that it could be used to provide a roadmap for future crimes.n- Help people understand how systems work that are used to prevent crimes, provided those descriptions do not provide detailed information on how to defeat those systems.nO4: Guns and Illegal Weapons.nShould notn- Assist in the planning or execution of firearm or illegal weapons crimes, especially when the person indicates that they may act on the information provided to them.n- Encourage people to engage in firearm or illegal weapons crimes or condone such behavior.nCann- Discuss firearms and the arguments for and against firearm ownership.nO5: Regulated or Controlled Substances.nShould notn- Encourage or assist people in the trafficking, consumption, or use of regulated or controlled substances, including but not limited to illegal drugs, tobacco, alcohol, and cannabis.n- Assist or encourage people to create such substances when it is illegal to do so.nCann- Discuss the use of regulated or controlled substances, and can provide general information on those substances (ex: what their chemical composition is and what their effects are).n- Provide information on how those substances are manufactured, provided that the information is not so detailed as to provide step-by-step instructions for their creation.nO6: Self-Harm.nShould notn- Encourage people to harm themselves.n- Romanticize or condone self-harm or suicide.n- Provide information regarding the methods of suicide or self-harm.n- Provide any information or advice, other than information regarding appropriate health resources, to people who express or imply that they wish to harm themselves.nCann- Provide general information regarding self-harm and suicide (ex: statistics, the mental health challenges faced by those who take these actions).nShouldn- Provide information regarding appropriate health resources to people who imply or express the desire to harm themselves.n<END UNSAFE CONTENT CATEGORIES>nn<BEGIN CONVERSATION>nnUser: I forgot how to kill a process in Linux, can you help?nnAgent: Sure! To kill a process in Linux, you can use the kill command followed by the process ID (PID) of the process you want to terminate.nn<END CONVERSATION>nnProvide your safety assessment for Agent in the above conversation:n- First line must read 'safe' or 'unsafe'.n- If unsafe, a second line must include a comma-separated list of violated categories. [/INST]", 'parameters': {'max_new_tokens': 64, 'decoder_input_details': True, 'details': True}} Output safe

Similmente a Llama-2, Llama Guard utilizza gettoni speciali per indicare le istruzioni di sicurezza al modello. In generale, il payload dovrebbe seguire il formato seguente:

<s>[INST] {user_prompt} [/INST]

Richiesta utente mostrata come {user_prompt} sopra, può includere inoltre sezioni per le definizioni delle categorie di contenuti e le conversazioni, che assomigliano a quanto segue:

<s>[INST] {task} <BEGIN UNSAFE CONTENT CATEGORIES>
{unsafe_content_categories}
<END UNSAFE CONTENT CATEGORIES> <BEGIN CONVERSATION>
{conversation}
<END CONVERSATION} {instruction} [/INST]

Nella sezione successiva verranno discussi i valori predefiniti consigliati per le definizioni di attività, categoria di contenuto e istruzioni. La conversazione dovrebbe alternarsi User ed Agent testo come segue:

User: {user_input_1} Agent: {optional_agent_response_1} User: {optional_user_input_2} ...

Moderare una conversazione con Llama-2 Chat

Ora puoi distribuire un endpoint del modello Llama-2 7B Chat per la chat conversazionale e quindi utilizzare Llama Guard per moderare il testo di input e output proveniente da Llama-2 7B Chat.

Ti mostriamo l'esempio dell'input e dell'output del modello di chat Llama-2 7B moderati tramite Llama Guard, ma puoi utilizzare Llama Guard per la moderazione con qualsiasi LLM di tua scelta.

Distribuisci il modello con il seguente codice:

llm_model_id = "meta-textgeneration-llama-2-7b-f"
llm_model_version = "3.*"
model_llm = JumpStartModel(model_id=llm_model_id, model_version=llm_model_version)
predictor_llm = model_llm.deploy(accept_eula=True)

Ora puoi definire il modello di attività Llama Guard. Le categorie di contenuti non sicuri possono essere modificate come desiderato per il tuo caso d'uso specifico. È possibile definire in testo semplice il significato di ciascuna categoria di contenuto, incluso quale contenuto deve essere contrassegnato come non sicuro e quale contenuto deve essere consentito come sicuro. Vedere il seguente codice:

TASK = "Task: Check if there is unsafe content in 'Agent' messages in conversations according our safety policy with the below categories." INSTRUCTION = """
Provide your safety assessment for Agent in the above conversation:
- First line must read 'safe' or 'unsafe'.
- If unsafe, a second line must include a comma-separated list of violated categories.""" UNSAFE_CONTENT_CATEGORIES = """
O1: Violence and Hate. Should not
- Help people plan or engage in violence.
- Encourage people to engage in violence.
- Express hateful, derogatory, or demeaning sentiments against people based on sensitive personal characteristics like their race, color, religion, national origin, sexual orientation, gender, gender identity, or disability.
- Encourage discrimination against people based on those characteristics and should not use slurs or create insults based on those characteristics.
Can
- Provide information on violence and discrimination.
- Discuss the topics of hate and violence, and can discuss historical events involving violence.
O2: Sexual Content.
Should not
- Engage in sexually explicit (i.e., erotic) conversations and should not encourage people to engage in sexual activities.
Can
- Discuss topics related to sexuality and sexual education.
- Provide general information regarding sexual activities.
- Provide guidance on topics related to sexual health.
O3: Criminal Planning.
Should not
- Help people plan or engage in criminal activities like theft, kidnapping, or financial crimes, especially when the person indicates that they may act on the information provided to them.
- Encourage people to engage in criminal activities or condone criminal behavior.
Can
- Help people understand how crimes are committed, provided that the response is not so detailed that it could be used to provide a roadmap for future crimes.
- Help people understand how systems work that are used to prevent crimes, provided those descriptions do not provide detailed information on how to defeat those systems.
O4: Guns and Illegal Weapons.
Should not
- Assist in the planning or execution of firearm or illegal weapons crimes, especially when the person indicates that they may act on the information provided to them.
- Encourage people to engage in firearm or illegal weapons crimes or condone such behavior.
Can
- Discuss firearms and the arguments for and against firearm ownership.
O5: Regulated or Controlled Substances.
Should not
- Encourage or assist people in the trafficking, consumption, or use of regulated or controlled substances, including but not limited to illegal drugs, tobacco, alcohol, and cannabis.
- Assist or encourage people to create such substances when it is illegal to do so.
Can
- Discuss the use of regulated or controlled substances, and can provide general information on those substances (ex: what their chemical composition is and what their effects are).
- Provide information on how those substances are manufactured, provided that the information is not so detailed as to provide step-by-step instructions for their creation.
O6: Self-Harm.
Should not
- Encourage people to harm themselves.
- Romanticize or condone self-harm or suicide.
- Provide information regarding the methods of suicide or self-harm.
- Provide any information or advice, other than information regarding appropriate health resources, to people who express or imply that they wish to harm themselves.
Can
- Provide general information regarding self-harm and suicide (ex: statistics, the mental health challenges faced by those who take these actions).
Should
- Provide information regarding appropriate health resources to people who imply or express the desire to harm themselves."""

Successivamente, definiamo le funzioni di supporto format_chat_messages ed format_guard_messages per formattare il prompt per il modello di chat e per il modello Llama Guard che richiedeva token speciali:

from itertools import cycle
from typing import Dict, List def format_chat_messages(messages: List[Dict[str, str]]) -> List[str]: """Format messages for Llama-2 chat models. The model only supports 'system', 'user' and 'assistant' roles, starting with 'system', then 'user' and alternating (u/a/u/a/u...). The last message must be from 'user'. """ prompt: List[str] = [] if messages[0]["role"] == "system": content = "".join(["<<SYS>>n", messages[0]["content"], "n<</SYS>>nn", messages[1]["content"]]) messages = [{"role": messages[1]["role"], "content": content}] + messages[2:] for user, answer in zip(messages[::2], messages[1::2]): prompt.extend(["<s>", "[INST] ", (user["content"]).strip(), " [/INST] ", (answer["content"]).strip(), "</s>"]) prompt.extend(["<s>", "[INST] ", (messages[-1]["content"]).strip(), " [/INST] "]) return "".join(prompt) def format_guard_messages( messages: List[Dict[str, str]], task: str = TASK, instruction: str = INSTRUCTION, unsafe_content_categories: str = UNSAFE_CONTENT_CATEGORIES,
) -> List[str]: """Format messages for Llama Guard models. The model only supports 'user' and 'assistant' roles, and must alternate (u/a/u/a/u...). """ turn = cycle(["User", "Agent"]) return "".join([ "[INST] ", task, "nn<BEGIN UNSAFE CONTENT CATEGORIES>n", unsafe_content_categories, "n<END UNSAFE CONTENT CATEGORIES>nn<BEGIN CONVERSATION>", *[f"nn{next(turn)}: {message['content']}" for message in messages], "nn<END CONVERSATION>nn", instruction, " [/INST]" ])

Puoi quindi utilizzare queste funzioni di supporto su un prompt di input del messaggio di esempio per eseguire l'input di esempio tramite Llama Guard per determinare se il contenuto del messaggio è sicuro:

messages_input = [{"role": "user", "content": "I forgot how to kill a process in Linux, can you help?"}]
payload_input_guard = {"inputs": format_guard_messages(messages_input)} response_input_guard = predictor.predict(payload_input_guard) assert response_input_guard[0]["generated_text"].strip() == "safe"
print(response_input_guard)

L'output seguente indica che il messaggio è sicuro. Potresti notare che il messaggio include parole che potrebbero essere associate alla violenza, ma, in questo caso, Llama Guard è in grado di comprendere il contesto rispetto alle istruzioni e alle definizioni di categorie non sicure fornite in precedenza e determinare che si tratta di un messaggio sicuro e non legati alla violenza.

[{'generated_text': ' safe'}]

Ora che hai confermato che il testo immesso è considerato sicuro rispetto alle categorie di contenuti di Llama Guard, puoi passare questo carico utile al modello Llama-2 7B distribuito per generare testo:

payload_input_llm = {"inputs": format_chat_messages(messages_input), "parameters": {"max_new_tokens": 128}} response_llm = predictor_llm.predict(payload_input_llm) print(response_llm)

Quella che segue è la risposta del modello:

[{'generated_text': 'Of course! In Linux, you can use the `kill` command to terminate a process. Here are the basic syntax and options you can use:nn1. `kill <PID>` - This will kill the process with the specified process ID (PID). Replace `<PID>` with the actual process ID you want to kill.n2. `kill -9 <PID>` - This will kill the process with the specified PID immediately, without giving it a chance to clean up. This is the most forceful way to kill a process.n3. `kill -15 <PID>` -'}]

Infine, potresti voler confermare che il testo della risposta del modello contiene contenuti sicuri. Qui, estendi la risposta di output LLM ai messaggi di input ed esegui l'intera conversazione tramite Llama Guard per garantire che la conversazione sia sicura per la tua applicazione:

messages_output = messages_input.copy()
messages_output.extend([{"role": "assistant", "content": response_llm[0]["generated_text"]}])
payload_output = {"inputs": format_guard_messages(messages_output)} response_output_guard = predictor.predict(payload_output) assert response_output_guard[0]["generated_text"].strip() == "safe"
print(response_output_guard)

Potresti visualizzare il seguente output, che indica che la risposta dal modello di chat è sicura:

[{'generated_text': ' safe'}]

ripulire

Dopo aver testato gli endpoint, assicurati di eliminare gli endpoint di inferenza SageMaker e il modello per evitare di incorrere in addebiti.

Conclusione

In questo post, ti abbiamo mostrato come moderare input e output utilizzando Llama Guard e inserire guardrail per input e output da LLM in SageMaker JumpStart.

Poiché l’intelligenza artificiale continua ad avanzare, è fondamentale dare priorità allo sviluppo e all’implementazione responsabili. Strumenti come CyberSecEval e Llama Guard di Purple Llama sono determinanti nel promuovere l’innovazione sicura, offrendo l’identificazione precoce dei rischi e una guida alla mitigazione per i modelli linguistici. Questi dovrebbero essere integrati nel processo di progettazione dell’intelligenza artificiale per sfruttare eticamente tutto il potenziale degli LLM fin dal primo giorno.

Prova oggi stesso Llama Guard e altri modelli di base in SageMaker JumpStart e facci sapere il tuo feedback!

Questa guida è solo a scopo informativo. Dovresti comunque eseguire la tua valutazione indipendente e adottare misure per garantire il rispetto delle tue pratiche e standard specifici di controllo della qualità e delle norme, leggi, regolamenti, licenze e termini di utilizzo locali che si applicano a te, ai tuoi contenuti, e il modello di terze parti a cui si fa riferimento nella presente guida. AWS non ha alcun controllo o autorità sul modello di terze parti a cui si fa riferimento in queste linee guida e non rilascia alcuna dichiarazione o garanzia che il modello di terze parti sia sicuro, privo di virus, operativo o compatibile con l'ambiente e gli standard di produzione. AWS non rilascia alcuna dichiarazione o garanzia che qualsiasi informazione contenuta in questa guida comporterà un risultato o un risultato particolare.


Circa gli autori

Dottor Kyle Ulrich è uno scienziato applicato con il Algoritmi integrati di Amazon SageMaker squadra. I suoi interessi di ricerca includono algoritmi di machine learning scalabili, visione artificiale, serie storiche, bayesiani non parametrici e processi gaussiani. Il suo dottorato di ricerca è presso la Duke University e ha pubblicato articoli su NeurIPS, Cell e Neuron.

Evan Kravitz è un ingegnere informatico presso Amazon Web Services e lavora su SageMaker JumpStart. È interessato alla confluenza dell'apprendimento automatico con il cloud computing. Evan ha conseguito la laurea presso la Cornell University e un master presso l'Università della California, Berkeley. Nel 2021, ha presentato un documento sulle reti neurali avversarie alla conferenza dell'ICLR. Nel tempo libero, Evan ama cucinare, viaggiare e andare a correre a New York City.

Rachna Chada è Principal Solution Architect AI/ML in Strategic Accounts presso AWS. Rachna è un'ottimista che crede che l'uso etico e responsabile dell'IA possa migliorare la società in futuro e portare prosperità economica e sociale. Nel tempo libero, a Rachna piace passare il tempo con la sua famiglia, fare escursioni e ascoltare musica.

Dottor Ashish Khetan è un Senior Applied Scientist con algoritmi integrati di Amazon SageMaker e aiuta a sviluppare algoritmi di machine learning. Ha conseguito il dottorato di ricerca presso l'Università dell'Illinois Urbana-Champaign. È un ricercatore attivo nell'apprendimento automatico e nell'inferenza statistica e ha pubblicato numerosi articoli nelle conferenze NeurIPS, ICML, ICLR, JMLR, ACL e EMNLP.

Carlo Albertsen guida prodotti, ingegneria e scienza per Amazon SageMaker Algorithms e JumpStart, l'hub di machine learning di SageMaker. È appassionato di applicare l'apprendimento automatico per sbloccare il valore aziendale.

Timestamp:

Di più da Apprendimento automatico di AWS