SMALL

7. 수학공부 22

Lecture18 Properties of Determinants

MIT Gilbert Strang교수님의 Linear Algebra 18강 Properties of Determinants 리뷰입니다. DeterminantsThe determinant is a number associated with any square matrix; det A or |A|determinant는 any square matrix와 연관되어 있는 숫자로써, det A 혹은 |A|로 표기한다.The matrix is invertible exactly when the determinant is non-zero.행렬은 행렬식이 0이 아닐 때 invertible하다.  Properties모든 크기의 정방행렬의 행렬식에 대한 공식을 줄 것이다.특징으로는 아래와 같다. 1. det I = 1 2. 행..

Lecture17 Orthogonal Matrices and Gram-Schmidt

MIT Gilbertsrang 교수님의 Linear algebra 17강 Orthogonal Matrices and Gram-Schmidt 배우겠습니다. Orthonormal Vectors (직교벡터) : 길이가 1인 모든 열벡터가 서로 직교하는 것All have (normal) length 1 and are perpendicular (ortho) to each other. Orthonormal vectors are always independent. 모두 (정규) 길이가 1이고 서로 수직이다. 직교 벡터는 항상 독립적이다. 나아가, Orthonormal vector = orthogonal and unit vector 이다. 즉 every q is orthogonal to every other q.이다...

Lecture16 Projection Matrices and Least Squares

오늘은 MIT Gilbertstrang 교수님의 Linearalgebra 16강 Projection matrices and least squares를 배우겠습니다.Projections(사영)If b is perpendicular to the column space, then it’s in the left nullspace N(AT) of A and Pb = 0. If b is in the column space then b = Ax for some x, and Pb = b. 1. perpendicular한 경우 : b가 column space에 수직이라면 Pb = 0이다. (vectors in the left nullspace of AT)2) column space 안에 있는 경우 : b가 column ..

Lecture15 Projections onto Subspaces

MIT Gilberstrang 교수님의 Linear Algebra 15강 Projections onto Subspaces 강의 Projections (투영) : 하나의 vector를 다른 vector로 옮겨 표현하는 것We can see from Figure 1 that this closest point p is at the intersection formed by a line through b that is orthogonal to a. If we think of p as an approximation of b, then the length of e = b − p is the error in that approxi­mation. We could try to find p using trigonometry..

Lecture14 Orthogonal Vectors and Subspaces

MIT GilbertStrang 교수님의 Linearalgebra 14강 Orthogonal Vectors and subspacesThe “big picture” of this course is that the row space of a matrix’ is orthog­onal to its nullspace, and its column space is orthogonal to its left nullspace.Row space & nullspace는 orthogonal(직교)한다. Column space & left nullspace도 orthogonal(직교)한다.Orthogonal vectors (직교 벡터)Orthogonal is just another word for perpendicular. T..

Lecture12 Graphs, Networks, Incidence Matrices

안녕하세요,오늘은 MIT Gilbert Strang 교수님의 선형대수학 Lecture12 Graphs, Networks, Incidence Matrices에 대해 학습하겠습니다. Graph : Nodes, Edge그래프는 꼭짓점인 Node와 변인 Edge로 구성되어 있다.아래의 그래프는 꼭짓점 4개 (N=4), 변 5개(M=5)로 이루어져 있다.Incidence Matrix (근접행렬)The incidence matrix of this directed graph has one column for each node of the graph and one row for each edge of the graph꼭짓점인 Node의 개수를 column으로, 변인 Edge의 개수를 row로 만들어 5*4 근접행렬을 ..

Lecture11 Matrix Spaces; Rank 1; Small World Graphs

안녕하세요오늘은Lecture11 Matrix Spaces; Rank 1; Small World Graphs 에 대해 학습하겠습니다.  Matrix spaces (New vector spaces)New vector spaces = Matrix spaces, M = all 3 by 3 matrices새로운 벡터공간은 행렬 공간이며, M은 모든 3 * 3 행렬이다.또한, 행렬 M은 3가지 부분 공간인 Symmetric Matrix, Upper triangular Matrix, Diagonal Matrix를 가지고 있다.Dimension & BasisThe dimension of M is 9; we must choose 9 numbers to specify an element of M. The space M i..

Lecture10 The Four Fundamental Subspaces

안녕하세요,오늘은 MIT Gilbert Strang 교수님의 Linear algebra 10강 four fundamental subspaces에 대해 학습하겠습니다.  Four subspacesAny m by n matrix A determines four subspaces (possibly containing only the zero vector):Column space, C(A)C(A) consists of all combinations of the columns of A and is a vector space in Rm.C(A)는 A의 열의 모든 조합으로 구성되며 Rm의 벡터 공간이다. Nullspace, N(A)This consists of all solutions x of the equation..

Lecture9 Independence, Basis and Dimension

안녕하세요,오늘은 9강 Independence, Basis and Dimension에 대해 학습하겠습니다. Linear independence : Vector가 있을 때, 모든 계수(coefficient)가 0인 경우를 제외하고, 선형 조합(Linear combination)으로도 0을 만들 수 없다면 이 벡터들은 독립(independent)하다고 한다.A combination of the columns is zero, so the columns of this A are dependent.열의 A 조합이 0이라면, A의 열은 종속(depdendent)이 된다.We say vectors x1,x2,...xn are linearly independent (or just independent) if c1x1 ..

Lecture 5 Training Neural Networks, Part I

안녕하세요,오늘은 Lecture 5강 두번째 Data Preprocessing부터 학습해보도록 하겠습니다.  2) Data Preprocessing (데이터 전처리) original data를 zero-centered로 맞춰준다.(방법은 각각에 대해서 전체의 평균값을 빼준다.)정규화 작업 : 표준편차로 나눠줌으로써 수행한다. (ex -1~1 사이의 특정 범위 안에 들어가도록) 이미지에서 zero-centered는 일반적으로 해주고, 다만 normalization은 일반적으로 수행하지 않는다.normalization 목적 자체가 특정 범위에 들어가도록 해주는 것인데 이미지는 0에서 255 사이의 픽셀이라는 이미 특정 범위에 들어있는 것이라서 주성분 분석 PCA : 데이터를 비상관화해서 차원을 줄이는 것Wh..

728x90
LIST