Înapoi la elementele de bază Săptămâna 4: Subiecte avansate și implementare - KDnuggets

Înapoi la elementele de bază Săptămâna 4: Subiecte avansate și implementare – KDnuggets

Nodul sursă: 2980746

Înapoi la elementele de bază Săptămâna 4: Subiecte avansate și implementare
Imagine de autor
 

Alăturați-vă KDnuggets cu calea noastră Înapoi la elementele de bază pentru a vă ajuta să începeți o nouă carieră sau să vă perfecționați abilitățile de știință a datelor. Calea Înapoi la principii este împărțită în 4 săptămâni, cu o săptămână bonus. Sperăm că puteți folosi aceste bloguri ca ghid de curs. 

Dacă nu ați făcut-o deja, aruncați o privire la:

Trecând la a treia săptămână, ne vom scufunda în subiecte avansate și implementare.

  • Ziua 1: Explorarea rețelelor neuronale
  • Ziua 2: Introducere în bibliotecile Deep Learning: PyTorch și Lightening AI
  • Ziua 3: Începeți cu PyTorch în 5 pași
  • Ziua 4: Construirea unei rețele neuronale convoluționale cu PyTorch
  • Ziua 5: Introducere în procesarea limbajului natural
  • Ziua 6: Implementarea primului model de învățare automată
  • Ziua 7: Introducere în Cloud Computing pentru Data Science

Săptămâna 4 – Partea 1: Explorarea rețelelor neuronale

Deblocarea puterii AI: un ghid pentru rețelele neuronale și aplicațiile acestora.

Imaginați-vă o mașină care gândește, învață și se adaptează ca creierul uman și descoperă tipare ascunse în date.

Această tehnologie, rețelele neuronale (NN), algoritmii imită cogniția. Vom explora mai târziu ce sunt NN-urile și cum funcționează.

În acest articol, vă voi explica aspectele fundamentale ale rețelelor neuronale (NN) – structură, tipuri, aplicații din viața reală și termeni cheie care definesc funcționarea.

Săptămâna 4 – Partea 2: Introducere în bibliotecile Deep Learning: PyTorch și Lightning AI

O explicație simplă a PyTorch și Lightning AI.

Învățarea profundă este o ramură a modelului de învățare automată bazată pe rețele neuronale. În celălalt model de mașină, prelucrarea datelor pentru a găsi caracteristicile semnificative se face adesea manual sau bazându-se pe expertiza domeniului; cu toate acestea, învățarea profundă poate imita creierul uman pentru a descoperi caracteristicile esențiale, crescând performanța modelului. 

Există multe aplicații pentru modele de învățare profundă, inclusiv recunoașterea facială, detectarea fraudei, vorbire în text, generare de text și multe altele. Învățarea profundă a devenit o abordare standard în multe aplicații avansate de învățare automată și nu avem nimic de pierdut dacă aflăm despre ele.

Pentru a dezvolta acest model de învățare profundă, există diverse cadre de bibliotecă pe care ne putem baza, mai degrabă decât să lucrăm de la zero. În acest articol, vom discuta două biblioteci diferite pe care le putem folosi pentru a dezvolta modele de învățare profundă: PyTorch și Lighting AI.

Săptămâna 4 – Partea 3: Noțiuni introductive cu PyTorch în 5 pași

Acest tutorial oferă o introducere aprofundată în învățarea automată folosind PyTorch și învelișul său de nivel înalt, PyTorch Lightning. Articolul acoperă pașii esențiali de la instalare la subiecte avansate, oferind o abordare practică a construirii și antrenării rețelelor neuronale și subliniind beneficiile utilizării Lightning.

PyTorch este un cadru de învățare automată cu sursă deschisă popular, bazat pe Python și optimizat pentru calcularea accelerată de GPU. Dezvoltat inițial de Meta AI în 2016 și acum parte a Fundației Linux, PyTorch a devenit rapid unul dintre cele mai utilizate cadre pentru cercetarea și aplicațiile de deep learning.

PyTorch Lightning este un înveliș ușor construit pe PyTorch, care simplifică și mai mult procesul de flux de lucru al cercetătorilor și de dezvoltare a modelului. Cu Lightning, oamenii de știință de date se pot concentra mai mult pe proiectarea modelelor decât pe codul standard. 

Săptămâna 4 – Partea 4: Construirea unei rețele neuronale convoluționale cu PyTorch

Această postare de blog oferă un tutorial despre construirea unei rețele neuronale convoluționale pentru clasificarea imaginilor în PyTorch, valorificând straturi convoluționale și de grupare pentru extragerea caracteristicilor, precum și straturi complet conectate pentru predicție.

O rețea neuronală convoluțională (CNN sau ConvNet) este un algoritm de învățare profundă conceput special pentru sarcini în care recunoașterea obiectelor este crucială - cum ar fi clasificarea, detectarea și segmentarea imaginilor. CNN-urile sunt capabile să obțină acuratețe de ultimă generație în sarcini de viziune complexe, alimentând multe aplicații din viața reală, cum ar fi sistemele de supraveghere, managementul depozitelor și multe altele.

Ca oameni, putem recunoaște cu ușurință obiectele din imagini analizând modele, forme și culori. CNN-urile pot fi antrenate să efectueze și această recunoaștere, învățând care modele sunt importante pentru diferențiere. De exemplu, când încercăm să facem distincția între o fotografie a unei pisici și a unui câine, creierul nostru se concentrează asupra formei, texturilor și trăsăturilor faciale unice. Un CNN învață să înțeleagă aceleași tipuri de caracteristici distinctive. Chiar și pentru sarcinile de clasificare foarte fine, CNN-urile sunt capabile să învețe reprezentări complexe de caracteristici direct din pixeli.

Săptămâna 4 – Partea 5: Introducere în procesarea limbajului natural

O prezentare generală a procesării limbajului natural (NLP) și a aplicațiilor sale.

Învățăm multe despre ChatGPT și modelele de limbaj mari (LLM). Procesarea limbajului natural a fost un subiect interesant, un subiect care ia cu asalt lumea AI și a tehnologiei. Da, LLM-urile precum ChatGPT le-au ajutat la creșterea lor, dar nu ar fi bine să înțelegem de unde vine totul? Deci, să revenim la elementele de bază – NLP.

NLP este un subdomeniu al inteligenței artificiale și este capacitatea unui computer de a detecta și înțelege limbajul uman, prin vorbire și text, așa cum putem noi oamenii. NLP ajută modelele să proceseze, să înțeleagă și să producă limbajul uman.

Scopul NLP este de a reduce decalajul de comunicare dintre oameni și computere. Modelele NLP sunt de obicei instruite pe sarcini precum predicția cuvântului următor, care le permit să construiască dependențe contextuale și apoi să poată genera rezultate relevante. 

Săptămâna 4 – Partea 6: Implementarea primului model de învățare automată

Cu doar 3 pași simpli, puteți construi și implementa un model de clasificare a sticlei mai repede decât puteți spune... model de clasificare a sticlei!

În acest tutorial, vom învăța cum să construim un model simplu de clasificare multiplă folosind Clasificarea sticlei set de date. Scopul nostru este să dezvoltăm și să implementăm o aplicație web care poate prezice diferite tipuri de sticlă, cum ar fi: 

  1. Clădire Windows Float Processed
  2. Construire Windows Non-Float Processed
  3. Geamuri plutitoare ale vehiculului procesate
  4. Geamurile vehiculului nu au fost procesate (lipsesc din setul de date)
  5. Containere
  6. Tacâmuri
  7. Reglabile

Mai mult, vom afla despre:

  • Skops: Partajați modelele bazate pe scikit-learn și puneți-le în producție.
  • Grad: cadru de aplicații web ML.
  • HuggingFace Spaces: model gratuit de învățare automată și platformă de găzduire a aplicațiilor. 

Până la sfârșitul acestui tutorial, veți avea experiență practică în construirea, instruirea și implementarea unui model de bază de învățare automată ca aplicație web.

Săptămâna 4 – Partea 7: Introducere în cloud computing pentru știința datelor

Și Power Duo of Modern Tech.

În lumea de astăzi, două forțe principale au apărut ca schimbări de joc: Data Science și Cloud Computing. 

Imaginați-vă o lume în care cantități colosale de date sunt generate în fiecare secundă. Ei bine... nu trebuie să-ți imaginezi... Este lumea noastră!

De la interacțiunile cu rețelele sociale la tranzacțiile financiare, de la înregistrările medicale la preferințele de comerț electronic, datele sunt peste tot. 

Dar ce folos au aceste date dacă nu putem obține valoare? Exact asta face Data Science. 

Și unde stocăm, procesăm și analizăm aceste date? Acolo strălucește Cloud Computing. 

Să pornim într-o călătorie pentru a înțelege relația împletită dintre aceste două minuni tehnologice. Să (încercăm) să descoperim totul împreună! 

Felicitări pentru finalizarea săptămânii 4!!

Echipa KDnuggets speră că calea Back to Basics a oferit cititorilor o abordare cuprinzătoare și structurată pentru a stăpâni fundamentele științei datelor. 

Săptămâna bonus va fi postată săptămâna viitoare luni – rămâneți pe fază!
 
 

Nisha Arya este un Data Scientist și un scriitor tehnic independent. Ea este interesată în special să ofere sfaturi în carieră în domeniul științei datelor sau tutoriale și cunoștințe bazate pe teorie în jurul științei datelor. Ea dorește, de asemenea, să exploreze diferitele moduri în care Inteligența Artificială este/poate aduce beneficii longevității vieții umane. O învățătoare pasionată, care încearcă să-și extindă cunoștințele tehnice și abilitățile de scriere, în timp ce îi ajută să-i ghideze pe alții.

Timestamp-ul:

Mai mult de la KDnuggets