변수 명 동적 할당( loop : for문을 이용하여 변수 생성 , 할당 )
·
공부 정리/파이썬
여러 딥러닝 관련 프로젝트를 진행하며 느낀점은, 다음 사진과 같이 특정 부분만 변경된 채 반복되는 변수 할당이 많다는 것이였다. ( 아래의 코드가 이해되지 않는다면 그냥 넘어가도 좋다. 본 포스팅과 크게 상관없는 코드이다. ) 위 코드를 보면 폴더 명(라벨)에 따라 변수명과 path.join할때의 문자열만 변경될 뿐 모두 동일한 코드가 반복되어 진행되었다.( print문 또한 포함! ) 나는 반복되는 코드에서 for문을 쓰는걸 아주 좋아하는데, 변수 할당도 혹시 for문을 이용하여 할수 있지 않을까? 역시나 동적 언어인 우리의 킹갓 파이썬에서는 동적으로 변수 할당이 지원되고 있었다! ( 정적 언어인 C++같은 경우 동적 변수 할당이 되지 않는다고 한다. ㅠㅠ 관련 정보 : https://stackover..
2.2. Gradient Descent Methods # 여기서부터 개념 잡고 들었음.
·
공부 정리 ( 강의 )/딥러닝 기초 다지기
> Gradient Descent Methods 3가지가 있습니다. - Stochastic gradient descent = Update with the gradient computed from a single sample. 확률적 경사 하강법 - Mini-batch gradient descent = Update with the gradient computed from a subset of data. 미니배치 경사 하강법 - Batch gradient descent = Update with the gradient computed from the whole data. 배치 경사하강 > Batch-size Matters 1. Gradient descent W(new) = W + 러닝레이트*기울기 러닝레이트 ..
2.1. 최적화의 주요 용어 이해 (Optimization)
·
공부 정리 ( 강의 )/딥러닝 기초 다지기
> Gradient Descent First-order iterative optimization algorithm for finding a local minimum of a differentiable function. 1차 미분 값만 사용하게 되고, 계속 반복적으로 최적화 시키고, 로컬 미니넘으로 간다. > Important Concepts in Optimization - Generalization How well the learned model will behave on unseen data. 일반화 성능을 높이는게 우리의 목적. 일반적으로 학습을 시키게 되면, 트레이닝에러는 줄지만, 테스트 에러는 오히려 늘어남. 이 네트워크의 성능이 학습데이터와 비슷하게 나올 것이다. >> Generalization..
1.2. 뉴럴 네트워크 - MLP
·
공부 정리 ( 강의 )/딥러닝 기초 다지기
> Neural Networks - 신경망은 선형과 비선형이 반복적으로 이루어지는 함수의 근사값입니다. ( Neural networks are function approximators that stack affine transformations followed by nonlinear transformations. ) 네트워크를 여러개 쌓을 때 중간에 비선형 변환이 필요함. x란 입력에서 y란 출력으로 갈때 네트워크가 표현할 수 있는 표현력을 극대화 하기위해선 선형결합이후 액티비션 펑션을 통해 비선형을 통해 얻은 피쳐를 다시 선형 n번 반복해야 많은 표현 > Beyond Linear Neural Networks - 히든레이어가 1개인 뉴럴 네트워크의 표현력은 우리가 일반적으로 사용하는 대부분의 컨티뉴스한 ..
1.1. 딥러닝 기본 용어 설명
·
공부 정리 ( 강의 )/딥러닝 기초 다지기
인공지능 > 머신러닝 > 딥러닝 인공지능 : 사람의 지적 능력을 컴퓨터를 통해 구현하는 기술 머신러닝 : 사람이 정한 모델과 특징 추출 방법을 이용하여 데이터를 기반으로 추론할 수 있게 하는 기술 딥러닝 : 인공신경망 방법을 이용해 만든 머신러닝 기술로, 빅테이터 학습에 적합한 기술 딥러닝의 중요 요소 4가지 1. 데이터 ( 모델이 배울 수 있는것 ) The data that model can learn from 2. 모델 ( 라벨로 데이터를 어캐 바꿀지. ) The model how to transform the data 3. 로스 ( 모델을 만들고 나면, 모델을 학습시키기 위한 로스 펑션이 필요. ) The loss function that quantifies the badness of the mod..
수료!
·
공부 정리 ( 강의 )/AI 기초
사실상 수료증 발급 날자를 보면 알 수 있듯, 네이버 Ai tech 합격을 위해 이미 다 수료했었던 강의이다. 하지만 수료할 당시, 맹목적적으로 가산점 및 시험 통과만을 위해서 빠르게 간력히 암기적으로 수강하였기에 머리속에 제대로 정리 되있지 않았다. MS Ai School을 수강하며 이 강의를 제대로 학습하면 도움이 될 것같아 다시한번 강의를 수강하며 정리하고 관련 문제를 풀어보았다. 생각보다 9시부터 18시까지 매일 이루어지는 MS Ai Shcool 강의와 병행하기 힘들었으나, 확실히 강의를 보고 안보고 이해도 차이가 확 느껴졌기에 어서 빨리 남은 인공지능과 관련된 부스트 코스들도 최대한 빨리 끝낼 예정이다.
부스트코스 딥러닝 기초 다지기
·
공부 정리 ( 강의 )/딥러닝 기초 다지기
이 카테고리는 네이버 Ai Tech 과정에 합격하기 위해 수강하였던 [부스트캠프 AI Tech 4기] Pre-Course 에 소개되어있는 강의인 "딥러닝 기초 다지기" 강의를 들으며 정리한 글입니다. 강의 영상은 다음과 같은 사이트에서 보실 수 있습니다. https://www.boostcourse.org/ai111/ 이 카테고리안의 글들은 개인적으로 공부하며 정리한 내용을 올리는 카테고리이므로 불친절한 글 양식을 띄고 있습니다. 기본 지식없이 글을 보면 이해하기 어려울 수 있으므로 강의를 직접 수강하시기를 추천드립니다. 해당 과정은 다음과 같은 과정으로 진행됩니다. 딥러닝 기초 다지기 1. 딥러닝 기초 2. 최적화 3. CNN 4. RNN 5.Generative Model
4.3.2. 통계학 맛보기
·
공부 정리 ( 강의 )/AI 기초
> 모수란? - 통계적 모델링은 적절한 가정 위에서 확률분포를 추정(inference) 하는 것이 목표이며, 기계학습과 통계학이 공통적으로 추구하는 목표입니다. - 그러나 유한한 개수의 데이터만 관찰해서 모집단의 분포를 정확하게 알아낸다는 것은 불가능하므로, 근사적으로 확률분포를 추정할 수 밖에 없습니다. - 데이터가 특정 확률분포를 따른다고 선험적으로(apriori) 가정한 후 그 분포를 결정하는 모수(parameter)를 추정하는 방법을 모수적(parametric)방법론이라합니다 - 특정 확률분포를 가정하지 않고 데이터에 따라 모델의 구조 및 모수의 개수가 유연하게 바뀌면 비..
포카칩인심
포카의 IT 블로그