Tuần 01

$$\gdef \sam #1 {\mathrm{softargmax}(#1)}$$ $$\gdef \vect #1 {\boldsymbol{#1}} $$ $$\gdef \matr #1 {\boldsymbol{#1}} $$ $$\gdef \E {\mathbb{E}} $$ $$\gdef \V {\mathbb{V}} $$ $$\gdef \R {\mathbb{R}} $$ $$\gdef \N {\mathbb{N}} $$ $$\gdef \relu #1 {\texttt{ReLU}(#1)} $$ $$\gdef \D {\,\mathrm{d}} $$ $$\gdef \deriv #1 #2 {\frac{\D #1}{\D #2}}$$ $$\gdef \pd #1 #2 {\frac{\partial #1}{\partial #2}}$$ $$\gdef \set #1 {\left\lbrace #1 \right\rbrace} $$

Bài giảng phần A

Trong phần này, chúng ta thảo luận về động lực đằng sau học sâu (Deep Learning). Chúng ta bắt đầu với lịch sử và nguồn cảm hứng (inspiration) của học sâu. Sau đó, chúng ta thảo luận về lịch sử của nhận dạng mẫu và giới thiệu về giảm độc dốc (gradient descent) bằng phương pháp lan truyền ngược (backpropagation). Cuối cùng, chúng ta thảo luận về sự biểu diễn cấp bậc (hierarchital representation) của vỏ não thị giác (visual cortex).

Bài giảng phần B

Trước tiên, chúng ta thảo luận về sự bùng nổ của CNNs, từ Fukushima đến LeCun và AlexNet. Sau đó, chúng ta thảo luận một vài ứng dụng của CNNs, bao gồm: phân đoạn hình ảnh (image segmentation), xe tự lái (autonomous vehicles) và phân tích hình ảnh y tế (medical image analysis). Chúng ta thảo luận về bản chất phân cấp của mạng học sâu và các thuộc tính làm cho nó trở nên phổ biến. Kết thúc, chúng tôi thảo luận về cách tạo và học từ các đặc trung/ sự biểu diễn.

Thực hành

Chúng ta thảo luận về động lực áp dụng các phép biến đổi cho các điểm dữ liệu được hình dung trong không gian. Chúng ta nói về Đại số tuyến tính và ứng dụng của các phép biến đổi tuyến tính và phi tuyến tính. Chúng ta thảo luận về việc sử dụng trực quan để hiểu chức năng và tác dụng của các phép biến đổi này. Chúng ta xem qua các ví dụ trong Jupyter Notebook và kết thúc bằng một cuộc thảo luận về các chức năng được đại diện bởi mạng nơ-ron.



Huynh Nguyen