Deep Learning (w języku polskim)
Informacje ogólne
Kod przedmiotu: | 23A1P0-S |
Kod Erasmus / ISCED: |
11.9
|
Nazwa przedmiotu: | Deep Learning (w języku polskim) |
Jednostka: | Szkoła Główna Handlowa w Warszawie |
Grupy: | |
Punkty ECTS i inne: |
3.00 (zmienne w czasie)
|
Język prowadzenia: | polski |
Efekty uczenia się: |
Wiedza: Student rozumie teoretyczne założenia uczenia głębokiego. Student zna podstawowe podstawowe algorytmy modeli uczenia głębokiego. Student zna podstawowe techniki i narzędzia programistyczne potrzebne do budowy modeli uczenia głębokiego. Student zna różne złożone architektury sieci neuronowych, rozumie różnice między nimi i zna ich zastosowania. Umiejętności: Student potrafi zbudować, zweryfikować i ocenić model uczenia głębokiego. Student potrafi zebrać, przetworzyć i wykorzystać dane potrzebne do budowy modeli uczenia głębokiego. Student potrafi samodzielnie zbudować odpowiednie środowisko i workflow do uczenia i analizy modeli uczenia głębokiego Student potrafi zwizualizować i przedstawić wyniki swojej pracy. Kompetencje społeczne: Komunikowanie wyników modeli uczenia głębokiego specjalistom i decydentom. Zdolność do dalszego samodzielnego poszerzania wiedzy w tematyce uczenia głębokiego. |
Zajęcia w cyklu "Semestr letni 2024/25" (jeszcze nie rozpoczęty)
Okres: | 2025-02-15 - 2025-09-30 |
Przejdź do planu
PN WT ŚR CZ PT |
Typ zajęć: |
Laboratorium, 14 godzin
|
|
Koordynatorzy: | (brak danych) | |
Prowadzący grup: | Bartosz Pankratz | |
Lista studentów: | (nie masz dostępu) | |
Zaliczenie: |
Przedmiot -
Ocena
Laboratorium - Ocena |
|
Skrócony opis: |
Podczas zajęć studenci poznają wybrane metody i praktyczne zastosowania algorytmów deep learningowych. W pierwszej części kursu studenci poznają podstawowe teoretyczne zagadnienia związane z deep learningiem. Nastepnie omówione zostaną różne powszechnie wykorzystywane architektury sieci neuronowych, między innym: sieci konwolucyjne, modele generatywne (wariacyjne autoencodery, modele generative adversarial networks i modele stabilnej dyfuzji), rekurencyjne i rekursywne sieci neuronowe oraz przedstawione zostaną podstawy modelowania języka naturalnego. W ramach każdego tematu pokazane będą eksperymenty przygotowane za pomocą języka programowania Julia. Wykład zakłada wcześniejsze ukończenie przedmiotu Statystyczne Reguły Decyzyjne. |
|
Pełny opis: |
Celem przedmiotu jest przedstawienie podstawowych założeń teoretycznych i narzędzi uczenia głębokiego. W trakcie studenci zostaną nauczeni samodzielnelnego projektowania i implementacji modeli uczenia głębokiego, a także omówione zostaną sytuacje w których takie modelowanie jest właściwą techniką analityczną. Przedmiot zakłada wcześniejsze ukończenie przedmiotu Statystyczne Reguły Decyzyjne, zajęcia prowadzone są w języku programowania Julia. |
|
Literatura: |
Literatura podstawowa: Goodfellow I., Bengio Y., Courville A. (2016), Deep Learning (http://www.deeplearningbook.org/) Roberts D. A., Yaida S., Hanin B. (2022), The Principles of Deep Learning Theory: An Effective Theory Approach to Understanding Neural Networks, Cambridge University Press (https://deeplearningtheory.com/) Calin O. (2020), Deep Learning Architectures: A Mathematical Approach, Springer. Literatura uzupełniająca: Weidman S. (2019), Deep Learning from Scratch, first edition. O'Reilly Media, Inc. Howard J., Gugger S. (2020), Deep Learning for Coders with Fastai and PyTorch: AI Applications Without a Ph,D first Edition (https://course.fast.ai/Resources/book.html) Boyd S., Vandenberghe L. (2018), Introduction to Applied Linear Algebra ? Vectors, Matrices, and Least Squares (http://vmls-book.stanford.edu/) Publikacje własne: Bogumił Kamiński, Tomasz Olczak, Bartosz Pankratz, Paweł Prałat , dr Francois Theberge, Properties and Performance of the ABCDe Random Graph Model with Community Structure, W: Big Data Research,2022 |
|
Uwagi: |
Kryteria oceniania: egzamin tradycyjny-pisemny: 50.00% egzamin testowy: 0.00% egzamin ustny: 0.00% referaty/eseje: 0.00% inne: 0.00% projekty: 50.00% studia przypadków: 0.00% prezentacje indywidualne lub grupowe: 0.00% |
Zajęcia w cyklu "Semestr zimowy 2024/25" (w trakcie)
Okres: | 2024-10-01 - 2025-02-14 |
Przejdź do planu
PN WT ŚR CZ PT |
Typ zajęć: |
Laboratorium, 14 godzin
|
|
Koordynatorzy: | (brak danych) | |
Prowadzący grup: | (brak danych) | |
Lista studentów: | (nie masz dostępu) | |
Zaliczenie: |
Przedmiot -
Ocena
Laboratorium - Ocena |
|
Skrócony opis: |
Podczas zajęć studenci poznają wybrane metody i praktyczne zastosowania algorytmów deep learningowych. W pierwszej części kursu studenci poznają podstawowe teoretyczne zagadnienia związane z deep learningiem. Nastepnie omówione zostaną różne powszechnie wykorzystywane architektury sieci neuronowych, między innym: sieci konwolucyjne, modele generatywne (wariacyjne autoencodery, modele generative adversarial networks i modele stabilnej dyfuzji), rekurencyjne i rekursywne sieci neuronowe oraz przedstawione zostaną podstawy modelowania języka naturalnego. W ramach każdego tematu pokazane będą eksperymenty przygotowane za pomocą języka programowania Julia. Wykład zakłada wcześniejsze ukończenie przedmiotu Statystyczne Reguły Decyzyjne. |
|
Pełny opis: |
Celem przedmiotu jest przedstawienie podstawowych założeń teoretycznych i narzędzi uczenia głębokiego. W trakcie studenci zostaną nauczeni samodzielnelnego projektowania i implementacji modeli uczenia głębokiego, a także omówione zostaną sytuacje w których takie modelowanie jest właściwą techniką analityczną. Przedmiot zakłada wcześniejsze ukończenie przedmiotu Statystyczne Reguły Decyzyjne, zajęcia prowadzone są w języku programowania Julia. |
|
Literatura: |
Literatura podstawowa: Goodfellow I., Bengio Y., Courville A. (2016), Deep Learning (http://www.deeplearningbook.org/) Roberts D. A., Yaida S., Hanin B. (2022), The Principles of Deep Learning Theory: An Effective Theory Approach to Understanding Neural Networks, Cambridge University Press (https://deeplearningtheory.com/) Calin O. (2020), Deep Learning Architectures: A Mathematical Approach, Springer. Literatura uzupełniająca: Weidman S. (2019), Deep Learning from Scratch, first edition. O'Reilly Media, Inc. Howard J., Gugger S. (2020), Deep Learning for Coders with Fastai and PyTorch: AI Applications Without a Ph,D first Edition (https://course.fast.ai/Resources/book.html) Boyd S., Vandenberghe L. (2018), Introduction to Applied Linear Algebra ? Vectors, Matrices, and Least Squares (http://vmls-book.stanford.edu/) Publikacje własne: Bogumił Kamiński, Tomasz Olczak, Bartosz Pankratz, Paweł Prałat , dr Francois Theberge, Properties and Performance of the ABCDe Random Graph Model with Community Structure, W: Big Data Research,2022 |
|
Uwagi: |
Kryteria oceniania: egzamin tradycyjny-pisemny: 50.00% egzamin testowy: 0.00% egzamin ustny: 0.00% referaty/eseje: 0.00% inne: 0.00% projekty: 50.00% studia przypadków: 0.00% prezentacje indywidualne lub grupowe: 0.00% |
Właścicielem praw autorskich jest Szkoła Główna Handlowa w Warszawie.