전체 글
-
Word Embedding (4주차)NAVER AI TECH 2023. 3. 27. 18:14
우리는 자연어 처리가 컴퓨터가 인간의 언어를 이해, 해석 및 생성하는 방법이라는 점을 배웠다. 그러나 컴퓨터가 이해할 수 있는 것은 숫자뿐이다. 따라서 자연어 처리에서 말뭉치를 숫자로 변환하는 작업은 필수적이다. 자연어를 벡터로 변환하는 가장 쉬운 방법은 one-hot encoding을 적용하는 것이다. 예를 들어서 "I really really love eating ice cream."이라는 문장이 있다고 하자. 이때, 중복되는 단어를 제외하면 'I', 'really', 'love', 'eating', 'ice', 'cream'이라는 6개의 단어가 있다. 6개의 단어에 one-hot encoding을 적용하게 되면 각 단어에 순서대로 다음 벡터가 할당되게 된다. [1, 0, 0, 0, 0, 0] [0,..
-
Intro to NLP (4주차)NAVER AI TECH 2023. 3. 27. 15:16
공부를 시작하기에 앞서 NLP가 무엇인지 OpenAI에게 물어보았다. NLP stands for Natural Language Processing. It is a subfield of artificial intelligence (AI) and computer science that deals with the interaction between human language and computers. The goal of NLP is to enable computers to understand, interpret, and generate human language, allowing them to communicate with people in a way that is more natural and intuit..
-
3주차 회고록 (DL Basic & Data Visualization & Git)NAVER AI TECH 2023. 3. 24. 16:05
1. 개요 이번 주 월요일(3/20) ~ 금요일(3/24)에 Naver AI Tech에서 DL Basic, Data Visualization(1/2), Git(1/2)에 대해 공부했다. 지난 5일 동안 어땠는지 돌아보자. 2. 학습 목표 이번 주 학습 목표는 다음과 같았다. 첫째, 강의내용 숙지하고 기본과제 및 심화과제 제출하기. 둘째, 블로그에 정리하기. 셋째, 밀린 심화과제(1주차, 2주차) 정리하기. 3. 목표 달성률 ★★★ 첫째, 강의내용을 숙지했다고 볼 수 있을까..? 어려웠다. 기본과제 및 심화과제는 제출하였다. 둘째, 블로그에 비공개로 정리한 글이 있기는 하지만 공개할 정도로 잘 정리하지는 못했다. 셋째, 1주차 심화과제 2, 3을 정리했다. 2주차 심화과제는 아직 정리하지 못했다. 4. 주..
-
Computer Vision Applications (3주차)NAVER AI TECH 2023. 3. 21. 15:26
오늘은 Semantic Segmentation과 Detection에 대해 복습해보겠다. A. Semantic Segmentation key word: Fully Convolutional Network, Deconvolution Semantic Segmentation을 위해서는 Fully Convolutional Network를 활용하게 된다. Fully Convolutional Network란 Dense Layer를 쌓는 대신 Convolutional Layer를 활용해 마지막 Label를 출력하는 방법을 뜻한다. 이를 통해 Classfication Net은 마치 Heatmap과 같은 모습을 보이며 이를 통해 대상을 구별할 수 있다. Fully Convolutional Network는 input size..
-
Modern CNN (3주차)NAVER AI TECH 2023. 3. 21. 13:44
1. AlexNet ImageNet Large-Scale Visual Recognition Challenge 2012 1st 11 x 11 x 3 filters, 5 convolutional layers, 3 dense layers ReLU activation - overcome the gradient vanishing problem GPU implementation (2 GPUs) Local response normalization, Overlapping Pooling Data augmentation Dropout 2. VGGNet ImageNet Large-Scale Visual Recognition Challenge 2014 2nd 3 x 3 filters - 동일한 receptive field를 ..
-
2주차 회고록 (PyTorch)NAVER AI TECH 2023. 3. 17. 17:28
1. 개요 이번 주 월요일(3/13) ~ 금요일(3/17)에 Naver AI Tech에서 PyTorch에 대해 공부했다. 지난 5일 동안 어땠는지 돌아보자. 2. 학습 목표 이번 주 학습 목표는 다음과 같았다. 첫째, PyTorch 강의내용 숙지하고 기본과제 및 심화과제 제출하기. 둘째, 블로그에 정리하기. 3. 학습 방법 매일 해당 일차의 강의를 수강하고 과제를 풀어서 제출하는 것을 목표로 삼았다. 4. 배운 것 PyTorch 파이토치의 기본 문법에 대해 학습했다. 파이토치의 Datasets & DataLoaders에 대해 학습했다. 파이토치로 Custom Model을 제작해보았다. 파이토치로 image, text data에 대해 Custom Datasets 및 DataLoaders를 적용해보았다. 모..
-
PyTorch (1일차)NAVER AI TECH 2023. 3. 13. 11:43
Introduction to PyTorch Question 1. 딥러닝을 할 때 코드는 처음부터 다 짠다? Answer1: 죽을 수도 있습니다 ㅋㅋㅋㅋ A Front Runner of Deep Learning Framework 1. PyTorch 2. TensorFlow ML03: PyTorch vs. Tensorflow * Define by Run (DCG; Dynamic Computational Graph) > 실행을 하면서 그래프를 생성하는 방식 > 디버깅이 편함 * Define and Run > 그래프를 먼저 정의하고 실행시점에 데이터를 대입하는 방식 > Eager Execution을 도입했으나.... > Production, Cloud, Multi-GPU에 강점이 있음 PyTorch = Nump..
-
1주차 회고록 (Python & AI Math)NAVER AI TECH 2023. 3. 10. 19:16
첫 회고록은 Chat GPT로 시작하겠다. 나: "지난 5일 동안의 학습을 회고하는 글을 적고 싶어. 목차를 작성해 줘." 답: "당신의 "지난 5일 동안의 학습 회고"에 대한 글의 목차는 다음과 같을 수 있습니다:" 오늘은 Chat GPT가 제안해 준 대로 한 번 즐겁게 작성해보고자 한다. 1. 개요 이번 주 월요일(3/6)에 Naver AI Tech가 시작되었다. 금요일인 오늘 지난 5일 동안의 경험을 돌아보고자 한다. 2. 학습 목표 이번 주 학습 목표는 다음과 같았다. 첫째, 부스트캠프 전 과정에 익숙해지기. 둘째, 이번 주 강의인 Python & AI Math를 모두 수강하고 내용 숙지하기. 셋째, 블로그에 정리하기. 3. 학습 방법 아무래도 첫 주다보니 계획적으로 학습하고 정리하진 못했고 주먹..