본문 바로가기

공부 정리31

[MIT Linear Algebra] 7. Solving Ax = 0: Pivot Variables, Special Solutions 본 게시글은 Gilbert strang 교수님의 Linear Algebra, MIT 정리글입니다. 개인적인 공부를 위해 작성한 글이며, 잘못된 내용이 존재할 가능성이 있습니다. 잘못된 내용, 오타는 지적해 주시면 감사하겠습니다. 강의링크: https://www.youtube.com/watch?v=VqP2tREMvt0&t=2s 이번 강의에서 살펴볼 내용은 다음과 같다. Computing the nullspace (Ax=0) Pivot variables-free variables Special Solution-rref(A)=R Computing the nullspace (Ax=0) 다음 Matrix A를 사용한다. A의 Elimination을 진행하면 다음의 Upper Matrix U를 얻을 수 있다. 우리.. 2024. 1. 15.
[MIT Linear Algebra] 6. Column Space and Nullspace 본 게시글은 Gilbert strang 교수님의 Linear Algebra, MIT 정리글입니다. 개인적인 공부를 위해 작성한 글이며, 잘못된 내용이 존재할 가능성이 있습니다. 잘못된 내용, 오타는 지적해 주시면 감사하겠습니다. 강의링크: https://www.youtube.com/watch?v=8o5Cmfpeo6g 이번 강의에서 살펴볼 내용은 다음과 같다. Vector spaces andsubspaces column space of A: solving Ax=b Nullspace of A Vector spaces andsubspaces Vector space가 되기 위해서는 다음 조건을 만족하여야 한다. v+w and cv are in the space all linear combinations cv+d.. 2024. 1. 13.
[MIT Linear Algebra] 5. Transposes, Permutations, Spaces R^n 본 게시글은 Gilbert strang 교수님의 Linear Algebra, MIT 정리글입니다. 개인적인 공부를 위해 작성한 글이며, 잘못된 내용이 존재할 가능성이 있습니다. 잘못된 내용, 오타는 지적해 주시면 감사하겠습니다. 강의링크: https://www.youtube.com/watch?v=JibVXBElKL0 이번 강의에서 살펴볼 내용은 다음과 같다. PA=LU vector spaces subspaces 이번 시간부터 vector를 넘어, vector 'space'를 살펴본다. 주의 깊게 들어야 할 부분이다. PA=LU 이전 강의에서, no row exchanges 상황에서의 A = LU를 배웠다. 그러나 Permutation matrix, P를 사용하면 row exchanges가 가능해진다. P.. 2024. 1. 11.
[MIT Linear Algebra] 4. Factorization into A = LU 본 게시글은 Gilbert strang 교수님의 Linear Algebra, MIT 정리글입니다. 개인적인 공부를 위해 작성한 글이며, 잘못된 내용이 존재할 가능성이 있습니다. 잘못된 내용, 오타는 지적해 주시면 감사하겠습니다. 강의링크: https://www.youtube.com/watch?v=MsIvs_6vC38 이번 강의에서 살펴볼 내용은 다음과 같다. Inverse of product of elimination matrics A=LU (no row exchanges) 강의 초반, 다음 성질을 설명한다. 다음으로 왜 A=LU를 사용하는지 살펴본다. 먼저 다음 식을 만족하는 Elimination matrix가 있다고 생각해 보자. 만약 기존의 Elimination matrix만을 사용해 보자. 얼핏 .. 2024. 1. 11.
[MIT Linear Algebra] 3. Multiplication and Inverse Matrices 본 게시글은 Gilbert strang 교수님의 Linear Algebra, MIT 정리글입니다. 개인적인 공부를 위해 작성한 글이며, 잘못된 내용이 존재할 가능성이 있습니다. 잘못된 내용, 오타는 지적해 주시면 감사하겠습니다. 강의링크: https://www.youtube.com/watch?v=FX4C-JpTFgY 이번 강의에서는 살펴볼 내용은 다음과 같다. Matrix Multiplication Inverse of Gauss-Jordan Matrix Multiplication 행렬 곱에 대한 다양한 시각을 보여준다. 다음과 같은 행 곱을 생각해 보자 1. summation formula, dot product (행렬 곱을 계산할 때 접근하는 일반적인 방식) 2. Columns of C are comb.. 2024. 1. 10.
[MIT Linear Algebra] 2. Elimination with Matrices 본 게시글은 Gilbert strang 교수님의 Linear Algebra, MIT 정리글입니다. 개인적인 공부를 위해 작성한 글이며, 잘못된 내용이 존재할 가능성이 있습니다. 잘못된 내용, 오타는 지적해 주시면 감사하겠습니다. 강의링크: https://www.youtube.com/watch?v=QVKj3LADCnA 이번 강의에서는 살펴볼 내용은 다음과 같다. Elimination Back-sbustitution Elimination matrics Matrix multiplication Elimination 오늘 강의에서는 다음 식을 예시로 살펴본다. 좌측의 Matirx를 우측으로 만드는 과정이 Elimination이다. 1. 1열에서, 1행을 제외하고는 모두 0으로 만든다. 2. 2열에서, 1행, 2행.. 2024. 1. 8.
[MIT Linear Algebra] 1. The Geometry of Linear Equations 본 게시글은 Gilbert strang 교수님의 Linear Algebra, MIT 정리글입니다. 개인적인 공부를 위해 작성한 글이며, 잘못된 내용이 존재할 가능성이 있습니다. 잘못된 내용, 오타는 지적해 주시면 감사하겠습니다. 강의링크: https://www.youtube.com/watch?v=J7DzL2_Na80&t=1678s 이번 강의에서는 살펴볼 내용은 다음과 같다. Row picture Column picture Matrix form 선형대수를 배우기 전에는 방정식을 다음과 같은 형태로 살펴보았다. 해당 식을 바탕으로 Lecture 1의 내용을 정리한다. Row picture 위 식을 행렬의 형태로 바꾸면 다음과 같다. 선형대수를 접하기 전에는, 흔히 Row picutre의 형태로 접근하였다. .. 2024. 1. 8.
[EECS 498-007 / 598-005] Lecture 20: Generative Models II 본 게시글은 Justin Johnson 교수님의 Deep Learning for Computer Vision, University of Michigan 정리글입니다. 개인적인 생각이 서술되어 있습니다. 잘못된 내용이 존재할 확률이 존재하기에 주의 바랍니다. 잘못된 내용, 오타는 지적해 주시면 감사하겠습니다. 강의링크: https://www.youtube.com/watch?v=igP03FXZqgo&list=PL5-TkQAfAZFbzxjBHtzdVCWE0Zbhomg7r&index=20 강의자료: https://web.eecs.umich.edu/~justincj/slides/eecs498/498_FA2019_lecture20.pdf 지난 게시물에서는 Autorgressive와 VAE에 대해 살펴보았습니다. 이.. 2023. 2. 22.
[EECS 498-007 / 598-005] Lecture 19: Generative Models I 본 게시글은 Justin Johnson 교수님의 Deep Learning for Computer Vision, University of Michigan 정리글입니다. 개인적인 생각이 서술되어 있습니다. 잘못된 내용이 존재할 확률이 존재하기에 주의 바랍니다. 잘못된 내용, 오타는 지적해 주시면 감사하겠습니다. 강의링크: https://www.youtube.com/watch?v=Q3HU2vEhD5Y&list=PL5-TkQAfAZFbzxjBHtzdVCWE0Zbhomg7r&index=19 강의자료: https://web.eecs.umich.edu/~justincj/slides/eecs498/498_FA2019_lecture19.pdf Supervised vs Unsupervised Learning 학습을 하는 .. 2023. 2. 15.
[EECS 498-007 / 598-005] Lecture 13: Attention 본 게시글은 Justin Johnson 교수님의 Deep Learning for Computer Vision, University of Michigan 정리글입니다. 개인적인 생각이 서술되어 있습니다. 잘못된 내용이 존재할 확률이 존재하기에 주의 바랍니다. 잘못된 내용, 오타는 지적해 주시면 감사하겠습니다. 강의링크: https://www.youtube.com/watch?v=YAgjfMR9R_M&list=PL5-TkQAfAZFbzxjBHtzdVCWE0Zbhomg7r&index=13 강의자료: https://web.eecs.umich.edu/~justincj/slides/eecs498/498_FA2019_lecture13.pdf seq2seq & Attention 위 그림은 이전시간에 배운 RNN을 사용하.. 2023. 2. 9.
[EECS 498-007 / 598-005] Lecture 12: Recurrent Neural Networks 본 게시글은 Justin Johnson 교수님의 Deep Learning for Computer Vision, University of Michigan 정리글입니다. 개인적인 생각이 서술되어 있습니다. 잘못된 내용이 존재할 확률이 존재하기에 주의 바랍니다. 잘못된 내용, 오타는 지적해 주시면 감사하겠습니다. 강의링크: https://www.youtube.com/watch?v=dUzLD91Sj-o&list=PL5-TkQAfAZFbzxjBHtzdVCWE0Zbhomg7r&index=12 강의자료: https://web.eecs.umich.edu/~justincj/slides/eecs498/498_FA2019_lecture12.pdf RNN Process Sequences one to one ex) Image .. 2023. 2. 8.
[EECS 498-007 / 598-005] Lecture 11: Training Neural Network 본 게시글은 Justin Johnson 교수님의 Deep Learning for Computer Vision, University of Michigan 정리글입니다. 개인적인 생각이 서술되어 있습니다. 잘못된 내용이 존재할 확률이 존재하기에 주의 바랍니다. 잘못된 내용, 오타는 지적해 주시면 감사하겠습니다. 강의링크: https://www.youtube.com/watch?v=WUazOtlti0g&list=PL5-TkQAfAZFbzxjBHtzdVCWE0Zbhomg7r&index=11 강의자료: https://web.eecs.umich.edu/~justincj/slides/eecs498/498_FA2019_lecture11.pdf Learning Rate Schedules 모든 optimizer들은 lear.. 2023. 2. 1.