Popis předmětu - B3B33UROB

Přehled studia | Přehled oborů | Všechny skupiny předmětů | Všechny předměty | Seznam rolí | Vysvětlivky               Návod
B3B33UROB Učení robotů
Role:PV Rozsah výuky:2P+2C
Katedra:13133 Jazyk výuky:CS
Garanti:Zimmermann K. Zakončení:Z,ZK
Přednášející:Zimmermann K. Kreditů:6
Cvičící:Osob je mnoho Semestr:Z

Webová stránka:

https://cw.fel.cvut.cz/wiki/courses/b3b33urob/start

Anotace:

Předmět naučí metody hlubokého učení na známých robotických problémy, jako je sémantická segmentace nebo reaktivní řízení pohybu robota. Celkovým cílem je spíše nadčasová univerzální znalost než výčet všech známých architektur hlubokého učení. Předpokládá se, že studenti mají předchozí znalosti z matematiky (gradient, jacobian, hessian, gradient descend, Taylorův polynom) a strojového učení (minimalizace Bayesova rizika, lineární klasifikátor). Laboratoře jsou rozděleny do dvou částí, v první budou studenti řešit základní úlohy hlubokého ML od nuly (včetně reimplementace autograd backpropagation), ve druhé budou studenti stavět na existujících šablonách za účelem řešení složitých úloh včetně RL, transformátory a generativní sítě.

Osnovy přednášek:

Machine learning 101: model, loss, learning, issues, regression, classification Under the hood of a linear classifier: two-class and multi-class linear classifier on RGB images Under the hood of auto-differentiation: Computational graph of fully connected NN, Vector-Jacobian-Product (VJP) vs chainrule and multiplication of Jacobians. The story of the cat's brain surgery: cortex + convolutional layer and its Vector-Jacobian-Product (VJP) Where the hell does the loss come from? MAP and ML estimate, KL divergence and losses. Why is learning prone to fail? - Structural issues: layers + issues, batch-norm, drop-out Why is learning prone to fail? - Optimization issues: optimization vs learning, KL divergence, SGD, momentum, convergence rate, Adagrad, RMSProp, AdamOptimizer, diminishing/exploding gradient, oscillation, double descent What can('t) we do with a deep net?: Classification (ResNet, Squeeze and Excitation Nets), Segmentation (DeepLab), Detection (Yolo, fast-RCNN), Regression (OpenPose), Spatial Transformer Nets, Reinforcement learning: Approximated Q-learning, DQN, DDPG, Derivation of the policy gradient (REINFORCE), A2C, TRPO, PPO, Reward shaping, Inverse RL, Applications, Memory and attention: recurrent nets, Image transformers with attention module Generative models: GANs and diffusion models Implicit layers: Backpropagation through unconstrained and constrained optimization problems, ODE solvers, roots, fixed points) + existing end-to-end differentiable modules cvxpy, gradSLAM, gradMPC, gradODE, pytorch3d

Osnovy cvičení:

Laboratoře jsou rozděleny do dvou částí, v první budou studenti řešit základní úlohy hlubokého ML od nuly (včetně reimplementace autograd backpropagation), ve druhé budou studenti stavět na existujících šablonách za účelem řešení složitých úloh včetně RL, transformátory a generativní sítě.

Literatura:

Ian Goodfellow and Yoshua Bengio and Aaron Courville, Deep learning, MIT press, 2016 http://www.deeplearningbook.org

Požadavky:

Klíčová slova:

strojové učení, hluboké neuronové sítě

Předmět je zahrnut do těchto studijních plánů:

Plán Obor Role Dop. semestr
BPKYR_2021 Před zařazením do oboru PV 5


Stránka vytvořena 20.4.2024 17:50:40, semestry: Z/2023-4, Z/2024-5, L/2023-4, připomínky k informační náplni zasílejte správci studijních plánů Návrh a realizace: I. Halaška (K336), J. Novák (K336)