전체 글
-
PandasNAVER AI TECH 2023. 3. 9. 18:04
From BoostCourse AI Tech TEMLAB director 최성철: PythonDataAnalysisLibrary - Pandas 판다스 강의를 보고 나서 자신 있게 실습 문제를 풀려고 했지만 복습이 필요하다는 것을 깨달았다. 하하. 가장 먼저는 Series와 DataFrame을 다룰 줄 알아야 한다. class pandas.Series(data=None, index=None, dtype=None, name=None, copy=False, fastpath=False) class pandas.DataFrame(data=None, index=None, columns=None, dtype=None, copy=None) 흥미롭게도 Series와 DataFrame 모두 dict type을 사용 가능..
-
OptimizationBoostCourse 2023. 1. 11. 03:28
From BoostCourse 최성준 (고려대학교 인공지능학과) 1. Gradient Descent Methods A. Stochastic gradient descent vs Mini-batch gradient descent vs Batch gradient descent - large-batch methods tend to converge to sharp minimizers - small-batch methods consistently converge to flat minimizers >> small-batch methods are better than large-batch methods B. Momentum - momentum accumulates the gradient of the past steps..
-
선형결합BoostCourse 2023. 1. 7. 22:25
From BoostCourse 주재걸 Given vectors $v_1, v_2, \cdot\cdot\cdot, v_p \in \mathbb{R}^n$ and given scalars $c_1, c_2, \cdot\cdot\cdot, c_p$, $c_1v_1 + \cdot\cdot\cdot + c_pv_p$ is called a linear combination of $v_1, \cdot\cdot\cdot, v_p$ with weights or coefficients $c_1, \cdot\cdot\cdot, c_p$. Given a set of vectors $v_1, \cdot\cdot\cdot, v_p \in \mathbb{R}^n$, Span ${v_1, \cdot\cdot\cdot, v_p}$ i..
-
행렬은 뭔가요?BoostCourse 2023. 1. 7. 19:22
From BoostCourse 임성빈 수학기호 쓰려고 LaTex까지 배워왔다. 1. 행렬은 벡터를 원소로 가지는 2차원 배열이다. 2. 벡터가 공간에서 한 점을 의미한다면 행렬은 여러 점들을 나타낸다. 3. 행렬은 벡터 공간에서 사용되는 연산자로 이해할 수 있다. >> $z = Ax$ (벡터 $x$ $\rightarrow$ 벡터 $z$) >> 행렬곱을 통해 벡터를 다른 공간으로 보낼 수 있다. >> 행렬곱을 통해 패턴을 추출하거나 데이터를 압축할 수 있다. 4. 행렬식이 0이 아니고 $n=m$인 경우 역행렬이 존재한다. >> $AA^{-1} = A^{-1}A = I$ np.linalg.inv(x) 5. 역행렬을 계산할 수 없다면 유사역행렬(pseudo-inverse) 또는 무어-펜로즈(Moore-Penr..
-
벡터가 뭐에요?BoostCourse 2023. 1. 5. 02:41
From BoostCourse 임성빈 교수님 나긋나긋한 목소리로 설명해주신다. 하지만 수업량에 비해 동영상 길이가 짧아 이 강의만으로는 벡터에 대해 이해하기 어려울 수도 있다고 생각된다. 다른 강의를 통해 보충할 필요가 있어 보인다. 어쨌든 시작해보자. 기본적인 내용은 이전에 Math Mart 황한순 선생님 동영상을 공부하며 적은 필기내용을 첨부하겠다. (동영상 링크) 해당 동영상은 편입 시험을 위한 선형대수 강의이다 ㅎㅎ 벡터의 노름 구하기 L1 노름: 각 성분의 절대값의 합 사용처: Robust 학습, Lasso 회귀 def l1_norm(x): x_norm = np.abs(x) x_norm = np.sum(x_norm) return x_norm L2 노름: 유클리드 거리 사용처: Laplace 근사..