Llama Guard já está disponível no Amazon SageMaker JumpStart | Amazon Web Services

Llama Guard já está disponível no Amazon SageMaker JumpStart | Amazon Web Services

Nó Fonte: 3028399

Hoje temos o prazer de anunciar que o Guarda Lhama modelo agora está disponível para clientes que usam JumpStart do Amazon SageMaker. O Llama Guard fornece proteções de entrada e saída na implantação de modelo de linguagem grande (LLM). É um dos componentes do Purple Llama, a iniciativa da Meta que apresenta ferramentas e avaliações abertas de confiança e segurança para ajudar os desenvolvedores a construir de forma responsável com modelos de IA. Purple Llama reúne ferramentas e avaliações para ajudar a comunidade a construir de forma responsável com modelos generativos de IA. A versão inicial inclui foco em segurança cibernética e salvaguardas de entrada e saída do LLM. Os componentes do projeto Purple Llama, incluindo o modelo Llama Guard, são licenciados de forma permissiva, permitindo tanto a pesquisa quanto o uso comercial.

Agora você pode usar o modelo Llama Guard no SageMaker JumpStart. SageMaker JumpStart é o centro de aprendizado de máquina (ML) de Amazon Sage Maker que fornece acesso a modelos de base, além de algoritmos integrados e modelos de solução de ponta a ponta para ajudá-lo a começar a usar o ML rapidamente.

Nesta postagem, explicamos como implantar o modelo Llama Guard e construir soluções de IA generativas e responsáveis.

Modelo Lhama Guard

Llama Guard é um novo modelo da Meta que fornece proteções de entrada e saída para implantações LLM. Llama Guard é um modelo disponível abertamente que funciona de forma competitiva em benchmarks abertos comuns e fornece aos desenvolvedores um modelo pré-treinado para ajudar na defesa contra a geração de resultados potencialmente arriscados. Este modelo foi treinado em uma combinação de conjuntos de dados disponíveis publicamente para permitir a detecção de tipos comuns de conteúdo potencialmente arriscado ou violador que pode ser relevante para vários casos de uso de desenvolvedores. Em última análise, a visão do modelo é permitir que os desenvolvedores personalizem este modelo para apoiar casos de uso relevantes e facilitar a adoção de melhores práticas e a melhoria do ecossistema aberto.

O Llama Guard pode ser usado como uma ferramenta complementar para desenvolvedores integrarem suas próprias estratégias de mitigação, como chatbots, moderação de conteúdo, atendimento ao cliente, monitoramento de mídia social e educação. Ao passar o conteúdo gerado pelo usuário pelo Llama Guard antes de publicá-lo ou responder a ele, os desenvolvedores podem sinalizar linguagem insegura ou inadequada e tomar medidas para manter um ambiente seguro e respeitoso.

Vamos explorar como podemos usar o modelo Llama Guard no SageMaker JumpStart.

Modelos de fundação no SageMaker

O SageMaker JumpStart fornece acesso a uma variedade de modelos de hubs de modelos populares, incluindo Hugging Face, PyTorch Hub e TensorFlow Hub, que você pode usar em seu fluxo de trabalho de desenvolvimento de ML no SageMaker. Avanços recentes em ML deram origem a uma nova classe de modelos conhecida como modelos de fundação, que normalmente são treinados em bilhões de parâmetros e são adaptáveis ​​a uma ampla categoria de casos de uso, como resumo de texto, geração de arte digital e tradução de idiomas. Como o treinamento desses modelos é caro, os clientes desejam usar modelos básicos pré-treinados existentes e ajustá-los conforme necessário, em vez de treinar eles próprios esses modelos. O SageMaker fornece uma lista selecionada de modelos que você pode escolher no console do SageMaker.

Agora você pode encontrar modelos de base de diferentes fornecedores de modelos no SageMaker JumpStart, permitindo que você comece a usar modelos de base rapidamente. Você pode encontrar modelos básicos baseados em diferentes tarefas ou provedores de modelos e revisar facilmente as características do modelo e os termos de uso. Você também pode experimentar esses modelos usando um widget de IU de teste. Quando quiser usar um modelo básico em escala, você pode fazer isso facilmente, sem sair do SageMaker, usando notebooks pré-construídos de fornecedores de modelos. Como os modelos são hospedados e implantados na AWS, você pode ter certeza de que seus dados, sejam usados ​​para avaliação ou para uso do modelo em escala, nunca serão compartilhados com terceiros.

Vamos explorar como podemos usar o modelo Llama Guard no SageMaker JumpStart.

Descubra o modelo Llama Guard no SageMaker JumpStart

Você pode acessar os modelos básicos do Code Llama por meio do SageMaker JumpStart na IU do SageMaker Studio e do SageMaker Python SDK. Nesta seção, veremos como descobrir os modelos em Estúdio Amazon SageMaker.

SageMaker Studio é um ambiente de desenvolvimento integrado (IDE) que fornece uma única interface visual baseada na web onde você pode acessar ferramentas específicas para executar todas as etapas de desenvolvimento de ML, desde a preparação de dados até a construção, treinamento e implantação de seus modelos de ML. Para obter mais detalhes sobre como começar e configurar o SageMaker Studio, consulte Estúdio Amazon SageMaker.

No SageMaker Studio, você pode acessar o SageMaker JumpStart, que contém modelos pré-treinados, notebooks e soluções pré-construídas, em Soluções pré-construídas e automatizadas.

Na página inicial do SageMaker JumpStart, você pode encontrar o modelo Llama Guard escolhendo o hub Meta ou pesquisando por Llama Guard.

Você pode selecionar entre uma variedade de variantes de modelo Llama, incluindo Llama Guard, Llama-2 e Code Llama.

Você pode escolher o cartão do modelo para visualizar detalhes sobre o modelo, como licença, dados usados ​​para treinar e como usar. Você também encontrará um Implantação opção, que o levará a uma página de destino onde você pode testar a inferência com um exemplo de carga útil.

Implante o modelo com o SageMaker Python SDK

Você pode encontrar o código que mostra a implantação do Llama Guard no Amazon JumpStart e um exemplo de como usar o modelo implantado em isto Caderno GitHub.

No código a seguir, especificamos o ID do modelo do hub do modelo SageMaker e a versão do modelo a ser usada ao implantar o Llama Guard:

model_id = "meta-textgeneration-llama-guard-7b"
model_version = "1.*"

Agora você pode implantar o modelo usando o SageMaker JumpStart. O código a seguir usa a instância padrão ml.g5.2xlarge para o endpoint de inferência. Você pode implantar o modelo em outros tipos de instância passando instance_type no JumpStartModel aula. A implantação pode levar alguns minutos. Para uma implantação bem-sucedida, você deve alterar manualmente o accept_eula argumento no método de implantação do modelo para True.

from sagemaker.jumpstart.model import JumpStartModel

model = JumpStartModel(model_id=model_id, model_version=model_version)
accept_eula = False  # change to True to accept EULA for successful model deployment
try:
    predictor = model.deploy(accept_eula=accept_eula)
except Exception as e:
    print(e)

Este modelo é implantado usando o contêiner de aprendizagem profunda Text Generation Inference (TGI). As solicitações de inferência suportam muitos parâmetros, incluindo os seguintes:

  • comprimento máximo – O modelo gera texto até que o comprimento de saída (que inclui o comprimento do contexto de entrada) atinja max_length. Se especificado, deve ser um número inteiro positivo.
  • max_new_tokens – O modelo gera texto até que o comprimento de saída (excluindo o comprimento do contexto de entrada) atinja max_new_tokens. Se especificado, deve ser um número inteiro positivo.
  • num_beams – Indica o número de feixes utilizados na busca gananciosa. Se especificado, deve ser um número inteiro maior ou igual a num_return_sequences.
  • no_repeat_ngram_size – O modelo garante que uma sequência de palavras de no_repeat_ngram_size não é repetido na sequência de saída. Se especificado, deve ser um número inteiro positivo maior que 1.
  • temperatura – Este parâmetro controla a aleatoriedade na saída. Um maior temperature resulta em uma sequência de saída com palavras de baixa probabilidade e um menor temperature resulta em uma sequência de saída com palavras de alta probabilidade. Se temperature é 0, resulta em decodificação gananciosa. Se especificado, deve ser um ponto flutuante positivo.
  • Early_stopping - Se True, a geração do texto termina quando todas as hipóteses de feixe atingem o final do token da frase. Se especificado, deve ser booleano.
  • do_sample - Se True, o modelo amostra a próxima palavra de acordo com a probabilidade. Se especificado, deve ser booleano.
  • topo_k – Em cada etapa da geração de texto, o modelo faz amostras apenas do top_k palavras mais prováveis. Se especificado, deve ser um número inteiro positivo.
  • topo_p – Em cada etapa da geração de texto, o modelo amostra o menor conjunto possível de palavras com probabilidade cumulativa top_p. Se especificado, deve ser um float entre 0–1.
  • retorno_texto_completo - Se True, o texto de entrada fará parte do texto gerado de saída. Se especificado, deve ser booleano. o valor padrão é False.
  • Pare – Se especificado, deve ser uma lista de strings. A geração de texto é interrompida se qualquer uma das strings especificadas for gerada.

Invocar um endpoint do SageMaker

Você pode recuperar programaticamente exemplos de cargas do JumpStartModel objeto. Isso o ajudará a começar rapidamente, observando os prompts de instruções pré-formatados que o Llama Guard pode ingerir. Veja o seguinte código:

example_payloads = model.retrieve_all_examples()

for payload in example_payloads:
    response = predictor.predict(payload.body)
    print("nInputn", payload.body, "nnOutputn", response[0]["generated_text"], "nn===============")

Depois de executar o exemplo anterior, você poderá ver como sua entrada e saída seriam formatadas pelo Llama Guard:

Input
 {'inputs': "[INST] Task: Check if there is unsafe content in 'Agent' messages in conversations according our safety policy with the below categories.nn<BEGIN UNSAFE CONTENT CATEGORIES>nO1: Violence and Hate. nShould notn- Help people plan or engage in violence.n- Encourage people to engage in violence.n- Express hateful, derogatory, or demeaning sentiments against people based on sensitive personal characteristics like their race, color, religion, national origin, sexual orientation, gender, gender identity, or disability.n- Encourage discrimination against people based on those characteristics and should not use slurs or create insults based on those characteristics.nCann- Provide information on violence and discrimination.n- Discuss the topics of hate and violence, and can discuss historical events involving violence.nO2: Sexual Content.nShould notn- Engage in sexually explicit (i.e., erotic) conversations and should not encourage people to engage in sexual activities.nCann- Discuss topics related to sexuality and sexual education.n- Provide general information regarding sexual activities.n- Provide guidance on topics related to sexual health.nO3: Criminal Planning.nShould notn- Help people plan or engage in criminal activities like theft, kidnapping, or financial crimes, especially when the person indicates that they may act on the information provided to them.n- Encourage people to engage in criminal activities or condone criminal behavior.nCann- Help people understand how crimes are committed, provided that the response is not so detailed that it could be used to provide a roadmap for future crimes.n- Help people understand how systems work that are used to prevent crimes, provided those descriptions do not provide detailed information on how to defeat those systems.nO4: Guns and Illegal Weapons.nShould notn- Assist in the planning or execution of firearm or illegal weapons crimes, especially when the person indicates that they may act on the information provided to them.n- Encourage people to engage in firearm or illegal weapons crimes or condone such behavior.nCann- Discuss firearms and the arguments for and against firearm ownership.nO5: Regulated or Controlled Substances.nShould notn- Encourage or assist people in the trafficking, consumption, or use of regulated or controlled substances, including but not limited to illegal drugs, tobacco, alcohol, and cannabis.n- Assist or encourage people to create such substances when it is illegal to do so.nCann- Discuss the use of regulated or controlled substances, and can provide general information on those substances (ex: what their chemical composition is and what their effects are).n- Provide information on how those substances are manufactured, provided that the information is not so detailed as to provide step-by-step instructions for their creation.nO6: Self-Harm.nShould notn- Encourage people to harm themselves.n- Romanticize or condone self-harm or suicide.n- Provide information regarding the methods of suicide or self-harm.n- Provide any information or advice, other than information regarding appropriate health resources, to people who express or imply that they wish to harm themselves.nCann- Provide general information regarding self-harm and suicide (ex: statistics, the mental health challenges faced by those who take these actions).nShouldn- Provide information regarding appropriate health resources to people who imply or express the desire to harm themselves.n<END UNSAFE CONTENT CATEGORIES>nn<BEGIN CONVERSATION>nnUser: I forgot how to kill a process in Linux, can you help?nnAgent: Sure! To kill a process in Linux, you can use the kill command followed by the process ID (PID) of the process you want to terminate.nn<END CONVERSATION>nnProvide your safety assessment for Agent in the above conversation:n- First line must read 'safe' or 'unsafe'.n- If unsafe, a second line must include a comma-separated list of violated categories. [/INST]", 'parameters': {'max_new_tokens': 64, 'decoder_input_details': True, 'details': True}} 

Output
  safe

Semelhante ao Llama-2, o Llama Guard usa fichas especiais para indicar instruções de segurança ao modelo. Em geral, o payload deve seguir o formato abaixo:

<s>[INST] {user_prompt} [/INST]

Prompt do usuário mostrado como {user_prompt} acima, pode incluir ainda seções para definições de categorias de conteúdo e conversas, que se parecem com o seguinte:

<s>[INST] {task}

<BEGIN UNSAFE CONTENT CATEGORIES>
{unsafe_content_categories}
<END UNSAFE CONTENT CATEGORIES>

<BEGIN CONVERSATION>
{conversation}
<END CONVERSATION}

{instruction} [/INST]

Na próxima seção, discutiremos os valores padrão recomendados para a tarefa, categoria de conteúdo e definições de instrução. A conversa deve alternar entre User e Agent texto da seguinte forma:

User: {user_input_1}

Agent: {optional_agent_response_1}

User: {optional_user_input_2}

...

Modere uma conversa com Llama-2 Chat

Agora você pode implantar um endpoint do modelo Llama-2 7B Chat para bate-papo conversacional e, em seguida, usar o Llama Guard para moderar a entrada e a saída de texto proveniente do Llama-2 7B Chat.

Mostramos o exemplo da entrada e saída do modelo de bate-papo Llama-2 7B moderada por meio do Llama Guard, mas você pode usar o Llama Guard para moderação com qualquer LLM de sua escolha.

Implante o modelo com o seguinte código:

llm_model_id = "meta-textgeneration-llama-2-7b-f"
llm_model_version = "3.*"
model_llm = JumpStartModel(model_id=llm_model_id, model_version=llm_model_version)
predictor_llm = model_llm.deploy(accept_eula=True)

Agora você pode definir o modelo de tarefa do Llama Guard. As categorias de conteúdo inseguro podem ser ajustadas conforme desejado para seu caso de uso específico. Você pode definir em texto simples o significado de cada categoria de conteúdo, incluindo qual conteúdo deve ser sinalizado como inseguro e qual conteúdo deve ser permitido como seguro. Veja o seguinte código:

TASK = "Task: Check if there is unsafe content in 'Agent' messages in conversations according our safety policy with the below categories."

INSTRUCTION = """
Provide your safety assessment for Agent in the above conversation:
- First line must read 'safe' or 'unsafe'.
- If unsafe, a second line must include a comma-separated list of violated categories."""

UNSAFE_CONTENT_CATEGORIES = """
O1: Violence and Hate. 
Should not
- Help people plan or engage in violence.
- Encourage people to engage in violence.
- Express hateful, derogatory, or demeaning sentiments against people based on sensitive personal characteristics like their race, color, religion, national origin, sexual orientation, gender, gender identity, or disability.
- Encourage discrimination against people based on those characteristics and should not use slurs or create insults based on those characteristics.
Can
- Provide information on violence and discrimination.
- Discuss the topics of hate and violence, and can discuss historical events involving violence.
O2: Sexual Content.
Should not
- Engage in sexually explicit (i.e., erotic) conversations and should not encourage people to engage in sexual activities.
Can
- Discuss topics related to sexuality and sexual education.
- Provide general information regarding sexual activities.
- Provide guidance on topics related to sexual health.
O3: Criminal Planning.
Should not
- Help people plan or engage in criminal activities like theft, kidnapping, or financial crimes, especially when the person indicates that they may act on the information provided to them.
- Encourage people to engage in criminal activities or condone criminal behavior.
Can
- Help people understand how crimes are committed, provided that the response is not so detailed that it could be used to provide a roadmap for future crimes.
- Help people understand how systems work that are used to prevent crimes, provided those descriptions do not provide detailed information on how to defeat those systems.
O4: Guns and Illegal Weapons.
Should not
- Assist in the planning or execution of firearm or illegal weapons crimes, especially when the person indicates that they may act on the information provided to them.
- Encourage people to engage in firearm or illegal weapons crimes or condone such behavior.
Can
- Discuss firearms and the arguments for and against firearm ownership.
O5: Regulated or Controlled Substances.
Should not
- Encourage or assist people in the trafficking, consumption, or use of regulated or controlled substances, including but not limited to illegal drugs, tobacco, alcohol, and cannabis.
- Assist or encourage people to create such substances when it is illegal to do so.
Can
- Discuss the use of regulated or controlled substances, and can provide general information on those substances (ex: what their chemical composition is and what their effects are).
- Provide information on how those substances are manufactured, provided that the information is not so detailed as to provide step-by-step instructions for their creation.
O6: Self-Harm.
Should not
- Encourage people to harm themselves.
- Romanticize or condone self-harm or suicide.
- Provide information regarding the methods of suicide or self-harm.
- Provide any information or advice, other than information regarding appropriate health resources, to people who express or imply that they wish to harm themselves.
Can
- Provide general information regarding self-harm and suicide (ex: statistics, the mental health challenges faced by those who take these actions).
Should
- Provide information regarding appropriate health resources to people who imply or express the desire to harm themselves."""

A seguir, definimos funções auxiliares format_chat_messages e format_guard_messages para formatar o prompt para o modelo de chat e para o modelo Llama Guard que exigia tokens especiais:

from itertools import cycle
from typing import Dict, List


def format_chat_messages(messages: List[Dict[str, str]]) -> List[str]:
    """Format messages for Llama-2 chat models.
    
    The model only supports 'system', 'user' and 'assistant' roles, starting with 'system', then 'user' and 
    alternating (u/a/u/a/u...). The last message must be from 'user'.
    """
    prompt: List[str] = []

    if messages[0]["role"] == "system":
        content = "".join(["<<SYS>>n", messages[0]["content"], "n<</SYS>>nn", messages[1]["content"]])
        messages = [{"role": messages[1]["role"], "content": content}] + messages[2:]

    for user, answer in zip(messages[::2], messages[1::2]):
        prompt.extend(["<s>", "[INST] ", (user["content"]).strip(), " [/INST] ", (answer["content"]).strip(), "</s>"])

    prompt.extend(["<s>", "[INST] ", (messages[-1]["content"]).strip(), " [/INST] "])

    return "".join(prompt)


def format_guard_messages(
    messages: List[Dict[str, str]],
    task: str = TASK,
    instruction: str = INSTRUCTION,
    unsafe_content_categories: str = UNSAFE_CONTENT_CATEGORIES,
) -> List[str]:
    """Format messages for Llama Guard models.
    
    The model only supports 'user' and 'assistant' roles, and must alternate (u/a/u/a/u...).
    """
    turn = cycle(["User", "Agent"])

    return "".join([
        "[INST] ",
        task,
        "nn<BEGIN UNSAFE CONTENT CATEGORIES>n",
        unsafe_content_categories,
        "n<END UNSAFE CONTENT CATEGORIES>nn<BEGIN CONVERSATION>",
        *[f"nn{next(turn)}: {message['content']}" for message in messages],
        "nn<END CONVERSATION>nn",
        instruction,
        " [/INST]"
    ])

Você pode então usar essas funções auxiliares em um prompt de entrada de mensagem de exemplo para executar a entrada de exemplo por meio do Llama Guard para determinar se o conteúdo da mensagem é seguro:

messages_input = [{"role": "user", "content": "I forgot how to kill a process in Linux, can you help?"}]
payload_input_guard = {"inputs": format_guard_messages(messages_input)}

response_input_guard = predictor.predict(payload_input_guard)

assert response_input_guard[0]["generated_text"].strip() == "safe"
print(response_input_guard)

A saída a seguir indica que a mensagem é segura. Você pode perceber que a mensagem inclui palavras que podem estar associadas à violência, mas, neste caso, o Llama Guard é capaz de compreender o contexto em relação às instruções e definições de categorias inseguras que fornecemos anteriormente e determinar que é uma mensagem segura e não relacionado à violência.

[{'generated_text': ' safe'}]

Agora que você confirmou que o texto de entrada foi determinado como seguro em relação às categorias de conteúdo do Llama Guard, você pode passar essa carga útil para o modelo Llama-2 7B implantado para gerar texto:

payload_input_llm = {"inputs": format_chat_messages(messages_input), "parameters": {"max_new_tokens": 128}}

response_llm = predictor_llm.predict(payload_input_llm)

print(response_llm)

A seguir está a resposta do modelo:

[{'generated_text': 'Of course! In Linux, you can use the `kill` command to terminate a process. Here are the basic syntax and options you can use:nn1. `kill <PID>` - This will kill the process with the specified process ID (PID). Replace `<PID>` with the actual process ID you want to kill.n2. `kill -9 <PID>` - This will kill the process with the specified PID immediately, without giving it a chance to clean up. This is the most forceful way to kill a process.n3. `kill -15 <PID>` -'}]

Por fim, você pode querer confirmar se o texto de resposta do modelo contém conteúdo seguro. Aqui, você estende a resposta de saída do LLM às mensagens de entrada e executa toda essa conversa por meio do Llama Guard para garantir que a conversa seja segura para seu aplicativo:

messages_output = messages_input.copy()
messages_output.extend([{"role": "assistant", "content": response_llm[0]["generated_text"]}])
payload_output = {"inputs": format_guard_messages(messages_output)}

response_output_guard = predictor.predict(payload_output)

assert response_output_guard[0]["generated_text"].strip() == "safe"
print(response_output_guard)

Você poderá ver a seguinte saída, indicando que a resposta do modelo de chat é segura:

[{'generated_text': ' safe'}]

limpar

Depois de testar os endpoints, exclua os endpoints de inferência do SageMaker e o modelo para evitar cobranças.

Conclusão

Nesta postagem, mostramos como você pode moderar entradas e saídas usando Llama Guard e colocar proteções para entradas e saídas de LLMs no SageMaker JumpStart.

À medida que a IA continua a avançar, é fundamental priorizar o desenvolvimento e a implantação responsáveis. Ferramentas como CyberSecEval e Llama Guard da Purple Llama são fundamentais para promover a inovação segura, oferecendo identificação precoce de riscos e orientação de mitigação para modelos de linguagem. Estes devem estar enraizados no processo de concepção da IA ​​para aproveitar todo o potencial dos LLMs de forma ética desde o primeiro dia.

Experimente hoje mesmo o Llama Guard e outros modelos de base no SageMaker JumpStart e deixe-nos saber sua opinião!

Esta orientação é apenas para fins informativos. Você ainda deve realizar sua própria avaliação independente e tomar medidas para garantir o cumprimento de suas próprias práticas e padrões específicos de controle de qualidade e das regras, leis, regulamentos, licenças e termos de uso locais que se aplicam a você, seu conteúdo, e o modelo de terceiros mencionado nesta orientação. A AWS não tem controle ou autoridade sobre o modelo de terceiros mencionado nesta orientação e não faz nenhuma representação ou garantia de que o modelo de terceiros seja seguro, livre de vírus, operacional ou compatível com seu ambiente e padrões de produção. A AWS não faz nenhuma representação ou garantia de que qualquer informação nesta orientação resultará em um resultado ou resultado específico.


Sobre os autores

Dr. é um Cientista Aplicado com o Algoritmos integrados do Amazon SageMaker equipe. Seus interesses de pesquisa incluem algoritmos de aprendizado de máquina escaláveis, visão computacional, séries temporais, processos não paramétricos bayesianos e processos gaussianos. Seu PhD é pela Duke University e ele publicou artigos em NeurIPS, Cell e Neuron.

Evan Kravitz é engenheiro de software na Amazon Web Services e trabalha no SageMaker JumpStart. Ele está interessado na confluência do aprendizado de máquina com a computação em nuvem. Evan recebeu seu diploma de graduação pela Cornell University e mestrado pela University of California, Berkeley. Em 2021, ele apresentou um artigo sobre redes neurais adversárias na conferência ICLR. Em seu tempo livre, Evan gosta de cozinhar, viajar e correr pela cidade de Nova York.

Rachna Chadha é Arquiteto Principal de Soluções AI/ML em Contas Estratégicas na AWS. Rachna é uma otimista que acredita que o uso ético e responsável da IA ​​pode melhorar a sociedade no futuro e trazer prosperidade econômica e social. Em seu tempo livre, Rachna gosta de passar o tempo com sua família, fazer caminhadas e ouvir música.

Dr. é um cientista aplicado sênior com algoritmos integrados do Amazon SageMaker e ajuda a desenvolver algoritmos de aprendizado de máquina. Ele obteve seu PhD pela University of Illinois Urbana-Champaign. Ele é um pesquisador ativo em aprendizado de máquina e inferência estatística e publicou muitos artigos em conferências NeurIPS, ICML, ICLR, JMLR, ACL e EMNLP.

Carlos Albertsen lidera produtos, engenharia e ciência para algoritmos do Amazon SageMaker e JumpStart, o hub de aprendizado de máquina do SageMaker. Ele é apaixonado por aplicar o aprendizado de máquina para gerar valor comercial.

Carimbo de hora:

Mais de Aprendizado de máquina da AWS