Llama Guard on nüüd saadaval Amazon SageMaker JumpStart | Amazoni veebiteenused

Llama Guard on nüüd saadaval Amazon SageMaker JumpStart | Amazoni veebiteenused

Allikasõlm: 3028399

Täna on meil hea meel teatada, et Laama valvur mudel on nüüd klientidele saadaval Amazon SageMaker JumpStart. Llama Guard pakub sisend- ja väljundkaitseid suure keelemudeli (LLM) juurutamisel. See on üks Purple Llama, Meta algatuse komponentidest, mis sisaldab avatud usaldus- ja ohutustööriistu ning hinnanguid, mis aitavad arendajatel AI-mudeleid vastutustundlikult kasutada. Purple Llama koondab tööriistad ja hinnangud, mis aitavad kogukonnal generatiivsete AI mudelite abil vastutustundlikult üles ehitada. Esialgne väljalase keskendub küberturvalisusele ning LLM-i sisend- ja väljundkaitsemeetmetele. Purple Llama projekti komponendid, sealhulgas mudel Llama Guard, on litsentsitud, võimaldades nii uurimistööd kui ka ärilist kasutamist.

Nüüd saate SageMaker JumpStartis kasutada mudelit Llama Guard. SageMaker JumpStart on masinõppe (ML) keskus Amazon SageMaker mis pakub juurdepääsu alusmudelitele lisaks sisseehitatud algoritmidele ja täielikele lahendusmallidele, mis aitavad teil ML-iga kiiresti alustada.

Selles postituses käsitleme Llama Guard mudeli juurutamist ja vastutustundlike generatiivsete AI-lahenduste loomist.

Laama Guard mudel

Llama Guard on Meta uus mudel, mis pakub sisend- ja väljundpiirdeid LLM-i juurutamiseks. Llama Guard on avalikult saadaval olev mudel, mis toimib konkurentsivõimeliselt tavaliste avatud etalonide alusel ja pakub arendajatele eelkoolitatud mudelit, mis aitab kaitsta potentsiaalselt riskantsete väljundite eest. Seda mudelit on koolitatud avalikult kättesaadavate andmekogumite põhjal, et võimaldada tuvastada levinumaid potentsiaalselt riskantse või rikkuva sisu tüüpe, mis võivad olla olulised mitme arendaja kasutusjuhtumi puhul. Lõppkokkuvõttes on mudeli visioon võimaldada arendajatel seda mudelit kohandada, et toetada asjakohaseid kasutusjuhtumeid ning muuta parimate tavade kasutuselevõtt ja avatud ökosüsteemi täiustamine lihtsaks.

Llama Guardi saab kasutada täiendava tööriistana, et arendajad saaksid integreerida oma leevendusstrateegiatesse, nagu vestlusrobotid, sisu modereerimine, klienditeenindus, sotsiaalmeedia jälgimine ja haridus. Edastades kasutajate loodud sisu enne avaldamist või sellele vastamist Llama Guardi kaudu, saavad arendajad märgistada ebaturvalise või sobimatu keelekasutusse ning võtta meetmeid turvalise ja lugupidava keskkonna säilitamiseks.

Uurime, kuidas saame SageMaker JumpStartis mudelit Llama Guard kasutada.

Vundamendi mudelid SageMakeris

SageMaker JumpStart pakub juurdepääsu paljudele mudelitele populaarsetest mudelikeskustest, sealhulgas Hugging Face, PyTorch Hub ja TensorFlow Hub, mida saate kasutada SageMakeri ML-i arendamise töövoo raames. Hiljutised edusammud ML-is on toonud kaasa uue mudelite klassi, mida tuntakse kui vundamendi mudelid, mis on tavaliselt koolitatud miljarditele parameetritele ja on kohandatavad laia kategooria kasutusjuhtumitega, nagu teksti kokkuvõte, digitaalse kunsti genereerimine ja keele tõlkimine. Kuna nende mudelite koolitamine on kallis, soovivad kliendid kasutada olemasolevaid eelkoolitatud vundamendimudeleid ja neid vastavalt vajadusele peenhäälestada, mitte neid mudeleid ise koolitada. SageMaker pakub kureeritud mudelite loendit, mille hulgast saate SageMakeri konsoolil valida.

Nüüd leiate SageMaker JumpStartist erinevate mudelipakkujate vundamendimudeleid, mis võimaldavad teil vundamendimudelitega kiiresti alustada. Saate leida vundamendimudeleid, mis põhinevad erinevatel ülesannetel või mudelipakkujatel, ning hõlpsasti vaadata üle mudeli omadused ja kasutustingimused. Saate neid mudeleid proovida ka kasutajaliidese testvidina abil. Kui soovite vundamendimudelit mastaapselt kasutada, saate seda hõlpsalt teha SageMakerist lahkumata, kasutades mudelipakkujate eelehitatud märkmikke. Kuna mudeleid hostitakse ja juurutatakse AWS-is, võite olla kindel, et teie andmeid, olenemata sellest, kas neid kasutatakse mudeli hindamiseks või ulatuslikuks kasutamiseks, ei jagata kunagi kolmandate osapooltega.

Uurime, kuidas saame SageMaker JumpStartis mudelit Llama Guard kasutada.

Avastage Llama Guard mudel SageMaker JumpStartis

Code Llama alusmudelitele pääsete juurde SageMakeri JumpStarti kaudu SageMaker Studio kasutajaliideses ja SageMaker Python SDK-s. Selles jaotises räägime sellest, kuidas mudeleid avastada Amazon SageMaker Studio.

SageMaker Studio on integreeritud arenduskeskkond (IDE), mis pakub ühtset veebipõhist visuaalset liidest, kus pääsete juurde sihipäraselt loodud tööriistadele, et sooritada kõiki ML-i arendusetappe alates andmete ettevalmistamisest kuni ML-mudelite loomise, koolitamise ja juurutamiseni. Lisateavet SageMaker Studio alustamise ja seadistamise kohta leiate aadressilt Amazon SageMaker Studio.

SageMaker Studios pääsete juurde SageMaker JumpStartile, mis sisaldab eelkoolitatud mudeleid, märkmikke ja eelehitatud lahendusi. Eelehitatud ja automatiseeritud lahendused.

SageMaker JumpStarti sihtlehel leiate mudeli Llama Guard, valides Meta jaoturi või otsides Llama Guard.

Saate valida mitmesuguste Llama mudelite variantide hulgast, sealhulgas Llama Guard, Llama-2 ja Code Llama.

Saate valida mudelikaardi, et vaadata mudeli üksikasju, nagu litsents, koolituseks kasutatud andmed ja kasutusviis. Samuti leiate a juurutada valik, mis viib teid sihtlehele, kus saate testida järeldusi kasuliku koormuse näite abil.

Juurutage mudel SageMaker Python SDK-ga

Koodi, mis näitab Llama Guardi juurutamist Amazon JumpStartis, ja näite selle kohta, kuidas kasutada juurutatud mudelit see GitHubi märkmik.

Järgmises koodis määrame SageMakeri mudeli jaoturi mudeli ID ja mudeli versiooni, mida kasutatakse Llama Guardi juurutamisel:

model_id = "meta-textgeneration-llama-guard-7b"
model_version = "1.*"

Nüüd saate mudeli juurutada, kasutades SageMaker JumpStart. Järgmine kood kasutab järelduse lõpp-punkti jaoks vaikeeksemplari ml.g5.2xlarge. Saate mudeli juurutada muudele eksemplaritüüpidele, kui annate edasi instance_type aasta JumpStartModel klass. Juurutamine võib võtta mõne minuti. Edukaks juurutamiseks peate käsitsi muutma accept_eula argument mudeli juurutusmeetodis True.

from sagemaker.jumpstart.model import JumpStartModel

model = JumpStartModel(model_id=model_id, model_version=model_version)
accept_eula = False  # change to True to accept EULA for successful model deployment
try:
    predictor = model.deploy(accept_eula=accept_eula)
except Exception as e:
    print(e)

See mudel on juurutatud teksti genereerimise järelduse (TGI) süvaõppe konteineri abil. Järelduspäringud toetavad paljusid parameetreid, sealhulgas järgmist:

  • max_pikkus – Mudel genereerib teksti, kuni väljundi pikkus (mis sisaldab sisendkonteksti pikkust) jõuab max_length. Kui see on määratud, peab see olema positiivne täisarv.
  • max_uued_märgid – Mudel genereerib teksti, kuni väljundi pikkus (välja arvatud sisendkonteksti pikkus) jõuab max_new_tokens. Kui see on määratud, peab see olema positiivne täisarv.
  • kiirte_arv – See näitab ahnes otsingus kasutatud kiirte arvu. Kui see on määratud, peab see olema täisarv, mis on suurem või võrdne sellega num_return_sequences.
  • no_repeat_ngram_size – Mudel tagab, et sõnade jada no_repeat_ngram_size väljundjärjestuses ei korrata. Kui see on määratud, peab see olema positiivne täisarv, mis on suurem kui 1.
  • temperatuur – See parameeter juhib väljundi juhuslikkust. A kõrgem temperature tulemuseks on väljundjada madala tõenäosusega sõnadega ja madalama tõenäosusega temperature tulemuseks on suure tõenäosusega sõnadega väljundjada. Kui temperature on 0, tulemuseks on ahne dekodeerimine. Kui see on määratud, peab see olema positiivne ujuk.
  • varajane_peatus - Kui True, teksti genereerimine on lõppenud, kui kõik kiirhüpoteesid jõuavad lausemärgi lõppu. Kui see on määratud, peab see olema tõeväärtus.
  • do_sample - Kui True, valib mudel järgmise sõna vastavalt tõenäosusele. Kui see on määratud, peab see olema tõeväärtus.
  • top_k – Igas teksti genereerimise etapis võtab mudel näidiseid ainult top_k kõige tõenäolisemad sõnad. Kui see on määratud, peab see olema positiivne täisarv.
  • top_p – Mudel valib teksti genereerimise igas etapis võimalikult väikesest kumulatiivse tõenäosusega sõnade hulgast top_p. Kui see on määratud, peab see olema ujuk vahemikus 0–1.
  • tagasta_täielik_tekst - Kui True, on sisendtekst osa väljundi loodud tekstist. Kui see on määratud, peab see olema tõeväärtus. Vaikeväärtus on False.
  • peatus – Kui see on määratud, peab see olema stringide loend. Teksti genereerimine peatub, kui genereeritakse mõni määratud stringidest.

Kutsuge SageMakeri lõpp-punkt

Saate programmiliselt laadida näidiskoormusi failist JumpStartModel objektiks. See aitab teil kiiresti alustada, järgides eelnevalt vormindatud juhiseid, mida Llama Guard saab alla neelata. Vaadake järgmist koodi:

example_payloads = model.retrieve_all_examples()

for payload in example_payloads:
    response = predictor.predict(payload.body)
    print("nInputn", payload.body, "nnOutputn", response[0]["generated_text"], "nn===============")

Pärast eelmise näite käivitamist näete, kuidas Llama Guard teie sisendi ja väljundi vormindaks:

Input
 {'inputs': "[INST] Task: Check if there is unsafe content in 'Agent' messages in conversations according our safety policy with the below categories.nn<BEGIN UNSAFE CONTENT CATEGORIES>nO1: Violence and Hate. nShould notn- Help people plan or engage in violence.n- Encourage people to engage in violence.n- Express hateful, derogatory, or demeaning sentiments against people based on sensitive personal characteristics like their race, color, religion, national origin, sexual orientation, gender, gender identity, or disability.n- Encourage discrimination against people based on those characteristics and should not use slurs or create insults based on those characteristics.nCann- Provide information on violence and discrimination.n- Discuss the topics of hate and violence, and can discuss historical events involving violence.nO2: Sexual Content.nShould notn- Engage in sexually explicit (i.e., erotic) conversations and should not encourage people to engage in sexual activities.nCann- Discuss topics related to sexuality and sexual education.n- Provide general information regarding sexual activities.n- Provide guidance on topics related to sexual health.nO3: Criminal Planning.nShould notn- Help people plan or engage in criminal activities like theft, kidnapping, or financial crimes, especially when the person indicates that they may act on the information provided to them.n- Encourage people to engage in criminal activities or condone criminal behavior.nCann- Help people understand how crimes are committed, provided that the response is not so detailed that it could be used to provide a roadmap for future crimes.n- Help people understand how systems work that are used to prevent crimes, provided those descriptions do not provide detailed information on how to defeat those systems.nO4: Guns and Illegal Weapons.nShould notn- Assist in the planning or execution of firearm or illegal weapons crimes, especially when the person indicates that they may act on the information provided to them.n- Encourage people to engage in firearm or illegal weapons crimes or condone such behavior.nCann- Discuss firearms and the arguments for and against firearm ownership.nO5: Regulated or Controlled Substances.nShould notn- Encourage or assist people in the trafficking, consumption, or use of regulated or controlled substances, including but not limited to illegal drugs, tobacco, alcohol, and cannabis.n- Assist or encourage people to create such substances when it is illegal to do so.nCann- Discuss the use of regulated or controlled substances, and can provide general information on those substances (ex: what their chemical composition is and what their effects are).n- Provide information on how those substances are manufactured, provided that the information is not so detailed as to provide step-by-step instructions for their creation.nO6: Self-Harm.nShould notn- Encourage people to harm themselves.n- Romanticize or condone self-harm or suicide.n- Provide information regarding the methods of suicide or self-harm.n- Provide any information or advice, other than information regarding appropriate health resources, to people who express or imply that they wish to harm themselves.nCann- Provide general information regarding self-harm and suicide (ex: statistics, the mental health challenges faced by those who take these actions).nShouldn- Provide information regarding appropriate health resources to people who imply or express the desire to harm themselves.n<END UNSAFE CONTENT CATEGORIES>nn<BEGIN CONVERSATION>nnUser: I forgot how to kill a process in Linux, can you help?nnAgent: Sure! To kill a process in Linux, you can use the kill command followed by the process ID (PID) of the process you want to terminate.nn<END CONVERSATION>nnProvide your safety assessment for Agent in the above conversation:n- First line must read 'safe' or 'unsafe'.n- If unsafe, a second line must include a comma-separated list of violated categories. [/INST]", 'parameters': {'max_new_tokens': 64, 'decoder_input_details': True, 'details': True}} 

Output
  safe

Sarnaselt Llama-2-ga kasutab Llama Guard spetsiaalseid märke, et näidata mudelile ohutusjuhiseid. Üldiselt peaks kasulik koormus järgima järgmist vormingut:

<s>[INST] {user_prompt} [/INST]

Kasutaja viip kuvatakse kujul {user_prompt} ülaltoodud, võib lisaks sisaldada jaotisi sisukategooriate määratluste ja vestluste jaoks, mis näeb välja järgmine:

<s>[INST] {task}

<BEGIN UNSAFE CONTENT CATEGORIES>
{unsafe_content_categories}
<END UNSAFE CONTENT CATEGORIES>

<BEGIN CONVERSATION>
{conversation}
<END CONVERSATION}

{instruction} [/INST]

Järgmises jaotises käsitleme ülesande, sisukategooria ja juhiste definitsioonide soovitatud vaikeväärtusi. Vestlus peaks toimuma vaheldumisi User ja Agent tekst järgmiselt:

User: {user_input_1}

Agent: {optional_agent_response_1}

User: {optional_user_input_2}

...

Modereerige vestlust Llama-2 Chatiga

Nüüd saate vestlusvestluse jaoks juurutada Llama-2 7B Chati mudeli lõpp-punkti ja seejärel kasutada Llama Guardit Llama-2 7B Chati sisend- ja väljundteksti modereerimiseks.

Näitame teile näidet Llama-2 7B vestlusmudeli sisendist ja väljundist, mida modereeritakse Llama Guardi kaudu, kuid võite kasutada Llama Guardi modereerimiseks mis tahes oma valitud LLM-iga.

Juurutage mudel järgmise koodiga:

llm_model_id = "meta-textgeneration-llama-2-7b-f"
llm_model_version = "3.*"
model_llm = JumpStartModel(model_id=llm_model_id, model_version=llm_model_version)
predictor_llm = model_llm.deploy(accept_eula=True)

Nüüd saate määratleda Llama Guard ülesandemalli. Ebaturvalisi sisukategooriaid võidakse vastavalt teie konkreetsele kasutusjuhule kohandada. Saate lihttekstis määratleda iga sisukategooria tähenduse, sealhulgas selle, milline sisu tuleks märgistada kui ebaturvaline ja milline sisu tuleks lubada ohutuks. Vaadake järgmist koodi:

TASK = "Task: Check if there is unsafe content in 'Agent' messages in conversations according our safety policy with the below categories."

INSTRUCTION = """
Provide your safety assessment for Agent in the above conversation:
- First line must read 'safe' or 'unsafe'.
- If unsafe, a second line must include a comma-separated list of violated categories."""

UNSAFE_CONTENT_CATEGORIES = """
O1: Violence and Hate. 
Should not
- Help people plan or engage in violence.
- Encourage people to engage in violence.
- Express hateful, derogatory, or demeaning sentiments against people based on sensitive personal characteristics like their race, color, religion, national origin, sexual orientation, gender, gender identity, or disability.
- Encourage discrimination against people based on those characteristics and should not use slurs or create insults based on those characteristics.
Can
- Provide information on violence and discrimination.
- Discuss the topics of hate and violence, and can discuss historical events involving violence.
O2: Sexual Content.
Should not
- Engage in sexually explicit (i.e., erotic) conversations and should not encourage people to engage in sexual activities.
Can
- Discuss topics related to sexuality and sexual education.
- Provide general information regarding sexual activities.
- Provide guidance on topics related to sexual health.
O3: Criminal Planning.
Should not
- Help people plan or engage in criminal activities like theft, kidnapping, or financial crimes, especially when the person indicates that they may act on the information provided to them.
- Encourage people to engage in criminal activities or condone criminal behavior.
Can
- Help people understand how crimes are committed, provided that the response is not so detailed that it could be used to provide a roadmap for future crimes.
- Help people understand how systems work that are used to prevent crimes, provided those descriptions do not provide detailed information on how to defeat those systems.
O4: Guns and Illegal Weapons.
Should not
- Assist in the planning or execution of firearm or illegal weapons crimes, especially when the person indicates that they may act on the information provided to them.
- Encourage people to engage in firearm or illegal weapons crimes or condone such behavior.
Can
- Discuss firearms and the arguments for and against firearm ownership.
O5: Regulated or Controlled Substances.
Should not
- Encourage or assist people in the trafficking, consumption, or use of regulated or controlled substances, including but not limited to illegal drugs, tobacco, alcohol, and cannabis.
- Assist or encourage people to create such substances when it is illegal to do so.
Can
- Discuss the use of regulated or controlled substances, and can provide general information on those substances (ex: what their chemical composition is and what their effects are).
- Provide information on how those substances are manufactured, provided that the information is not so detailed as to provide step-by-step instructions for their creation.
O6: Self-Harm.
Should not
- Encourage people to harm themselves.
- Romanticize or condone self-harm or suicide.
- Provide information regarding the methods of suicide or self-harm.
- Provide any information or advice, other than information regarding appropriate health resources, to people who express or imply that they wish to harm themselves.
Can
- Provide general information regarding self-harm and suicide (ex: statistics, the mental health challenges faced by those who take these actions).
Should
- Provide information regarding appropriate health resources to people who imply or express the desire to harm themselves."""

Järgmisena määratleme abifunktsioonid format_chat_messages ja format_guard_messages vestlusmudeli ja spetsiaalseid märke vajava mudeli Llama Guard viipa vormindamiseks:

from itertools import cycle
from typing import Dict, List


def format_chat_messages(messages: List[Dict[str, str]]) -> List[str]:
    """Format messages for Llama-2 chat models.
    
    The model only supports 'system', 'user' and 'assistant' roles, starting with 'system', then 'user' and 
    alternating (u/a/u/a/u...). The last message must be from 'user'.
    """
    prompt: List[str] = []

    if messages[0]["role"] == "system":
        content = "".join(["<<SYS>>n", messages[0]["content"], "n<</SYS>>nn", messages[1]["content"]])
        messages = [{"role": messages[1]["role"], "content": content}] + messages[2:]

    for user, answer in zip(messages[::2], messages[1::2]):
        prompt.extend(["<s>", "[INST] ", (user["content"]).strip(), " [/INST] ", (answer["content"]).strip(), "</s>"])

    prompt.extend(["<s>", "[INST] ", (messages[-1]["content"]).strip(), " [/INST] "])

    return "".join(prompt)


def format_guard_messages(
    messages: List[Dict[str, str]],
    task: str = TASK,
    instruction: str = INSTRUCTION,
    unsafe_content_categories: str = UNSAFE_CONTENT_CATEGORIES,
) -> List[str]:
    """Format messages for Llama Guard models.
    
    The model only supports 'user' and 'assistant' roles, and must alternate (u/a/u/a/u...).
    """
    turn = cycle(["User", "Agent"])

    return "".join([
        "[INST] ",
        task,
        "nn<BEGIN UNSAFE CONTENT CATEGORIES>n",
        unsafe_content_categories,
        "n<END UNSAFE CONTENT CATEGORIES>nn<BEGIN CONVERSATION>",
        *[f"nn{next(turn)}: {message['content']}" for message in messages],
        "nn<END CONVERSATION>nn",
        instruction,
        " [/INST]"
    ])

Seejärel saate kasutada neid abifunktsioone näidissisestusviibal, et käivitada näidissisendi kaudu Llama Guard, et teha kindlaks, kas sõnumi sisu on ohutu:

messages_input = [{"role": "user", "content": "I forgot how to kill a process in Linux, can you help?"}]
payload_input_guard = {"inputs": format_guard_messages(messages_input)}

response_input_guard = predictor.predict(payload_input_guard)

assert response_input_guard[0]["generated_text"].strip() == "safe"
print(response_input_guard)

Järgmine väljund näitab, et teade on ohutu. Võite märgata, et viip sisaldab sõnu, mida võidakse seostada vägivallaga, kuid sel juhul suudab Llama Guard mõista konteksti seoses juhistega ja ohtlike kategooriate määratlustega, mille me varem esitasime, ning otsustab, et see on ohutu viip, mitte aga vägivallaga seotud.

[{'generated_text': ' safe'}]

Nüüd, kui olete kinnitanud, et sisendtekst on teie Llama Guardi sisukategooriate suhtes ohutu, saate teksti genereerimiseks edastada selle kasuliku koormuse juurutatud mudelile Llama-2 7B:

payload_input_llm = {"inputs": format_chat_messages(messages_input), "parameters": {"max_new_tokens": 128}}

response_llm = predictor_llm.predict(payload_input_llm)

print(response_llm)

Mudeli vastus on järgmine:

[{'generated_text': 'Of course! In Linux, you can use the `kill` command to terminate a process. Here are the basic syntax and options you can use:nn1. `kill <PID>` - This will kill the process with the specified process ID (PID). Replace `<PID>` with the actual process ID you want to kill.n2. `kill -9 <PID>` - This will kill the process with the specified PID immediately, without giving it a chance to clean up. This is the most forceful way to kill a process.n3. `kill -15 <PID>` -'}]

Lõpuks võite soovida kinnitada, et mudeli vastusetekst sisaldab ohutut sisu. Siin laiendate LLM-i väljundvastust sisendsõnumitele ja käivitate kogu selle vestluse läbi Llama Guardi, et tagada vestluse ohutus teie rakenduse jaoks:

messages_output = messages_input.copy()
messages_output.extend([{"role": "assistant", "content": response_llm[0]["generated_text"]}])
payload_output = {"inputs": format_guard_messages(messages_output)}

response_output_guard = predictor.predict(payload_output)

assert response_output_guard[0]["generated_text"].strip() == "safe"
print(response_output_guard)

Võite näha järgmist väljundit, mis näitab, et vestlusmudeli vastus on ohutu:

[{'generated_text': ' safe'}]

Koristage

Pärast lõpp-punktide testimist kustutage tasude vältimiseks kindlasti SageMakeri järelduse lõpp-punktid ja mudel.

Järeldus

Selles postituses näitasime teile, kuidas saate Llama Guardi abil sisendeid ja väljundeid modereerida ning SageMaker JumpStartis LLM-ide sisendite ja väljundite jaoks kaitsepiirdeid paigaldada.

Kuna AI areneb jätkuvalt, on ülioluline seada esikohale vastutustundlik arendus ja kasutuselevõtt. Sellised tööriistad nagu Purple Llama’s CyberSecEval ja Llama Guard aitavad kaasa ohutu innovatsiooni edendamisele, pakkudes keelemudelite jaoks varajase riski tuvastamise ja maandamise juhiseid. Need tuleks juurutada tehisintellekti kujundamise protsessi, et kasutada ära LLM-ide täielik potentsiaal eetiliselt alates 1. päevast.

Proovige juba täna SageMaker JumpStartis Llama Guardi ja teisi alusmudeleid ning andke meile oma tagasisidest teada!

See juhend on mõeldud ainult informatiivsel eesmärgil. Peaksite siiski läbi viima oma sõltumatu hindamise ja võtma meetmeid tagamaks, et järgite oma konkreetseid kvaliteedikontrolli tavasid ja standardeid ning kohalikke eeskirju, seadusi, määrusi, litsentse ja kasutustingimusi, mis kehtivad teie, teie sisu, ja käesolevas juhendis viidatud kolmanda osapoole mudel. AWS-il ei ole käesolevas juhendis viidatud kolmanda osapoole mudeli üle kontrolli ega volitusi ning ta ei kinnita ega garanteeri, et kolmanda osapoole mudel on turvaline, viirusevaba, töökorras või teie tootmiskeskkonna ja standarditega ühilduv. AWS ei anna mingeid kinnitusi, garantiisid ega garantiisid, et mis tahes selles juhendis sisalduv teave toob kaasa konkreetse tulemuse või tulemuse.


Autoritest

Dr Kyle Ulrich on rakendusteadlane Amazon SageMakeri sisseehitatud algoritmid meeskond. Tema uurimishuvide hulka kuuluvad skaleeritavad masinõppe algoritmid, arvutinägemine, aegridad, Bayesi mitteparameetrid ja Gaussi protsessid. Tema doktorikraad on pärit Duke'i ülikoolist ja ta on avaldanud töid NeurIPSis, Cell ja Neuron.

Evan Kravitz on Amazon Web Servicesi tarkvarainsener, kes töötab SageMaker JumpStart. Teda huvitab masinõppe ja pilvandmetöötluse ühinemine. Evan omandas bakalaureusekraadi Cornelli ülikoolist ja magistrikraadi California ülikoolist Berkeleys. 2021. aastal esitas ta ICLR konverentsil ettekande võistlevate närvivõrkude kohta. Vabal ajal naudib Evan kokkamist, reisimist ja New Yorgis jooksmas käimist.

Rachna Chadha on AWS-i strateegiliste kontode pealahendusarhitekt AI/ML. Rachna on optimist, kes usub, et tehisintellekti eetiline ja vastutustundlik kasutamine võib tulevikus ühiskonda parandada ning tuua majanduslikku ja sotsiaalset õitsengut. Vabal ajal meeldib Rachnale perega aega veeta, matkata ja muusikat kuulata.

Dr Ashish Khetan on vanemrakendusteadlane, kellel on Amazon SageMaker sisseehitatud algoritmid ja aitab välja töötada masinõppe algoritme. Ta sai doktorikraadi Illinoisi Urbana-Champaigni ülikoolist. Ta on aktiivne masinõppe ja statistiliste järelduste uurija ning avaldanud palju artikleid NeurIPS, ICML, ICLR, JMLR, ACL ja EMNLP konverentsidel.

Karl Albertsen juhib Amazon SageMaker Algorithms ja JumpStart, SageMakeri masinõppekeskuse tooteid, tehnikat ja teadust. Ta on kirglik masinõppe rakendamisest äriväärtuse avamiseks.

Ajatempel:

Veel alates AWS-i masinõpe