전체 글
-
3주차 회고록 (DL Basic & Data Visualization & Git)NAVER AI TECH 2023. 3. 24. 16:05
1. 개요 이번 주 월요일(3/20) ~ 금요일(3/24)에 Naver AI Tech에서 DL Basic, Data Visualization(1/2), Git(1/2)에 대해 공부했다. 지난 5일 동안 어땠는지 돌아보자. 2. 학습 목표 이번 주 학습 목표는 다음과 같았다. 첫째, 강의내용 숙지하고 기본과제 및 심화과제 제출하기. 둘째, 블로그에 정리하기. 셋째, 밀린 심화과제(1주차, 2주차) 정리하기. 3. 목표 달성률 ★★★ 첫째, 강의내용을 숙지했다고 볼 수 있을까..? 어려웠다. 기본과제 및 심화과제는 제출하였다. 둘째, 블로그에 비공개로 정리한 글이 있기는 하지만 공개할 정도로 잘 정리하지는 못했다. 셋째, 1주차 심화과제 2, 3을 정리했다. 2주차 심화과제는 아직 정리하지 못했다. 4. 주..
-
2주차 회고록 (PyTorch)NAVER AI TECH 2023. 3. 17. 17:28
1. 개요 이번 주 월요일(3/13) ~ 금요일(3/17)에 Naver AI Tech에서 PyTorch에 대해 공부했다. 지난 5일 동안 어땠는지 돌아보자. 2. 학습 목표 이번 주 학습 목표는 다음과 같았다. 첫째, PyTorch 강의내용 숙지하고 기본과제 및 심화과제 제출하기. 둘째, 블로그에 정리하기. 3. 학습 방법 매일 해당 일차의 강의를 수강하고 과제를 풀어서 제출하는 것을 목표로 삼았다. 4. 배운 것 PyTorch 파이토치의 기본 문법에 대해 학습했다. 파이토치의 Datasets & DataLoaders에 대해 학습했다. 파이토치로 Custom Model을 제작해보았다. 파이토치로 image, text data에 대해 Custom Datasets 및 DataLoaders를 적용해보았다. 모..
-
1주차 회고록 (Python & AI Math)NAVER AI TECH 2023. 3. 10. 19:16
첫 회고록은 Chat GPT로 시작하겠다. 나: "지난 5일 동안의 학습을 회고하는 글을 적고 싶어. 목차를 작성해 줘." 답: "당신의 "지난 5일 동안의 학습 회고"에 대한 글의 목차는 다음과 같을 수 있습니다:" 오늘은 Chat GPT가 제안해 준 대로 한 번 즐겁게 작성해보고자 한다. 1. 개요 이번 주 월요일(3/6)에 Naver AI Tech가 시작되었다. 금요일인 오늘 지난 5일 동안의 경험을 돌아보고자 한다. 2. 학습 목표 이번 주 학습 목표는 다음과 같았다. 첫째, 부스트캠프 전 과정에 익숙해지기. 둘째, 이번 주 강의인 Python & AI Math를 모두 수강하고 내용 숙지하기. 셋째, 블로그에 정리하기. 3. 학습 방법 아무래도 첫 주다보니 계획적으로 학습하고 정리하진 못했고 주먹..
-
PandasNAVER AI TECH 2023. 3. 9. 18:04
From BoostCourse AI Tech TEMLAB director 최성철: PythonDataAnalysisLibrary - Pandas 판다스 강의를 보고 나서 자신 있게 실습 문제를 풀려고 했지만 복습이 필요하다는 것을 깨달았다. 하하. 가장 먼저는 Series와 DataFrame을 다룰 줄 알아야 한다. class pandas.Series(data=None, index=None, dtype=None, name=None, copy=False, fastpath=False) class pandas.DataFrame(data=None, index=None, columns=None, dtype=None, copy=None) 흥미롭게도 Series와 DataFrame 모두 dict type을 사용 가능..
-
OptimizationBoostCourse 2023. 1. 11. 03:28
From BoostCourse 최성준 (고려대학교 인공지능학과) 1. Gradient Descent Methods A. Stochastic gradient descent vs Mini-batch gradient descent vs Batch gradient descent - large-batch methods tend to converge to sharp minimizers - small-batch methods consistently converge to flat minimizers >> small-batch methods are better than large-batch methods B. Momentum - momentum accumulates the gradient of the past steps..
-
선형결합BoostCourse 2023. 1. 7. 22:25
From BoostCourse 주재걸 Given vectors $v_1, v_2, \cdot\cdot\cdot, v_p \in \mathbb{R}^n$ and given scalars $c_1, c_2, \cdot\cdot\cdot, c_p$, $c_1v_1 + \cdot\cdot\cdot + c_pv_p$ is called a linear combination of $v_1, \cdot\cdot\cdot, v_p$ with weights or coefficients $c_1, \cdot\cdot\cdot, c_p$. Given a set of vectors $v_1, \cdot\cdot\cdot, v_p \in \mathbb{R}^n$, Span ${v_1, \cdot\cdot\cdot, v_p}$ i..