본문 바로가기

인공지능 개발하기/Machine Learning38

Latent Space에 대해서 Latent Space는 딥러닝에서 자주 보이는 개념입니다.모델이 훈련을 잘 하기 위해서는 고차원의 데이터를 저차원의 데이터로 변환시키는 작업이 필요합니다.이렇게 저차원으로 변환해 추상화된 정보나 특성들로 저장하는 공간을 말합니다. 예를 들어, 동물 사진을 분류하고 싶다면,동물 이미지 데이터를 CNN(Convolutional Neural Network)의 여러 convolution layer를 통과시켜이미지의 중요한 특성들이 추출되고, 점차적으로 저차원의 Representation으로 압축합니다.(*Representation은 표현 방식으로 딥러닝에서는 n차원 벡터로 많이 표현됩니다.) 그렇게 압축된 데이터의 저장 공간을 Latent Space 라고 합니다. 아래의 사진은 동물 이미지를 각각 다르게 특.. 2024. 11. 12.
결정트리(Decision Tree) 이번 포스팅은 결정트리(Decision Tree)에 대해서 학습해보겠습니다해당 포스팅을 보고 학습하겠습니다.  https://bkshin.tistory.com/entry/%EB%A8%B8%EC%8B%A0%EB%9F%AC%EB%8B%9D-4-%EA%B2%B0%EC%A0%95-%ED%8A%B8%EB%A6%ACDecision-Tree 머신러닝 - 4. 결정 트리(Decision Tree)결정 트리(Decision Tree, 의사결정트리, 의사결정나무라고도 함)는 분류(Classification)와 회귀(Regression) 모두 가능한 지도 학습 모델 중 하나입니다. 결정 트리는 스무고개 하듯이 예/아니오 질문을 이bkshin.tistory.comhttps://wooono.tistory.com/104 [ML].. 2024. 3. 28.
하이퍼파라미터 최적화 (Hyperparameter Optimization) 이번 포스팅에서는 하이퍼파라미터 최적화 방법론에 대해서학습해보겠습니다.해당 포스팅을 참조했습니다. https://velog.io/@emseoyk/%ED%95%98%EC%9D%B4%ED%8D%BC%ED%8C%8C%EB%9D%BC%EB%AF%B8%ED%84%B0-%ED%8A%9C%EB%8B%9D 하이퍼파라미터 튜닝캐글 노트북으로 하이퍼파라미터 튜닝 공부velog.io  1. 하이퍼 파라미터 최적화(HyperParameter Optimization)란? 모델의 최적의 가중치를 구하기 위한최적의 하이퍼 파라미터 조합을 찾는 것 입니다. 예를들어 tensorflow 측면에서 보자면model의 epochs, batch_size,layer의 활성함수 선택, 노드 수 조절, 레이어 층 수 조절split의 random_.. 2024. 2. 18.
교차검증(Cross-Validation) 이번 포스팅에서는 교차검증(Cross-Validation)에 대해서학습해보겠습니다.  아래 포스팅을 보고 따라가보겠습니다.https://wooono.tistory.com/105 [ML] 교차검증 (CV, Cross Validation) 이란?교차 검증이란? 보통은 train set 으로 모델을 훈련, test set으로 모델을 검증한다. 여기에는 한 가지 약점이 존재한다. 고정된 test set을 통해 모델의 성능을 검증하고 수정하는 과정을 반복하면, 결wooono.tistory.comhttps://heytech.tistory.com/113 [머신러닝] 교차검증(Cross-validation) 필요성 및 장단점📚 목차 1. 교차검증 정의 2. 교차검증의 장단점 3. 교차검증의 종류 3.1. Hold-o.. 2024. 2. 18.
퍼셉트론과 XOR 문제 인공지능의 역사를 올라가보면인공지능의 겨울이 두번 있었다고 합니다.이중 첫번째 겨울의 원인이였던 XOR 문제를 해결한 방법 대해서 다뤄보려고 합니다. 해당 포스팅을 보며 확인했습니다. https://www.insilicogen.com/blog/340  人Co BLOG  :: 인공지능(AI)의 역사Posted at 2020/03/10 14:16 Filed under 지식관리 인공지능의 개념은 언제, 어디서부터 시작되어 오늘날 이렇게 각광 받고 있는지 함께 알아보도록 하겠습니다! 영화 속 주인공인 토니 스타크가 아이언맨www.insilicogen.comhttps://www.letr.ai/blog/story-20211119-1 [AI 이야기] 인공지능의 결정적 인물들 (4)딥러닝의 선구자, 로젠블랫시리즈의 네.. 2024. 2. 18.
SVM(Support Vector Mchine) SVM에 대해 학습해보겠습니다.  정말 잘 설명해주신 글이 있어 참고하였습니다.https://bkshin.tistory.com/entry/%EB%A8%B8%EC%8B%A0%EB%9F%AC%EB%8B%9D-2%EC%84%9C%ED%8F%AC%ED%8A%B8-%EB%B2%A1%ED%84%B0-%EB%A8%B8%EC%8B%A0-SVM 머신러닝 - 2. 서포트 벡터 머신 (SVM) 개념서포트 벡터 머신(SVM, Support Vector Machine)이란 주어진 데이터가 어느 카테고리에 속할지 판단하는 이진 선형 분류 모델입니다. (Reference1) 본 포스트는 Udacity의 SVM 챕터를 정리한 것입니다. 아래 그bkshin.tistory.comhttps://www.hackerearth.com/blog.. 2024. 2. 13.
[Tensorflow] 32. 앙상블(Ensemble) 이번 포스팅에서는 앙상블 모델에 대해서 학습해보겠습니다. 해당 포스팅을 참고해서 학습해볼게요! https://limitsinx.tistory.com/48 [코드로 이해하는 딥러닝 17] - Ensemble with CNN[코드로 이해하는 딥러닝 0] - 글연재에 앞서 https://limitsinx.tistory.com/27 [코드로 이해하는 딥러닝 1] - Tensorflow 시작 https://limitsinx.tistory.com/28 [코드로 이해하는 딥러닝 2] - Tensorflow 변수선언 https://limlimitsinx.tistory.comhttps://ybeaning.tistory.com/17 앙상블(Ensemble) 모형 / Bagging과 boosting데이터 분석에 있어서 모델.. 2024. 2. 11.
[Tensorflow] 31. 임베딩(Embedding) 이번 포스팅은 임베딩(Embedding)에 대해서 학습하겠습니다. 해당 포스팅을 참고하며 진행하겠습니다. https://velog.io/@glad415/%EC%9E%84%EB%B2%A0%EB%94%A9Embedding%EC%9D%B4%EB%9E%80 임베딩(Embedding)이란? 임베딩이란 자연어처리에서 사람이 쓰는 자연어를 기계가 이해할 수 있도록 숫자형태인 vector로 바꾸는 과정 혹은 일련의 전체 과정을 의미합니다.단어나 문장 각각을 벡터로 변환해 벡터 공간( velog.io https://wikidocs.net/33520 09-01 워드 임베딩(Word Embedding) 워드 임베딩(Word Embedding)은 단어를 벡터로 표현하는 방법으로, 단어를 밀집 표현으로 변환합니다. 희소 표현,.. 2024. 2. 4.
[Tensorflow] 30. keras RNN 모델 살펴보기 이번 포스팅에서는 저번 포스팅에서 설명한 RNN 모델을 keras layers 모듈에서는 어떻게 제공하는지 살펴보겠습니다. https://aigaeddo.tistory.com/35 29. RNN(Recurrent neural network) 이번 포스팅에서는 CNN에 이어 RNN(Recurrent neural network)에 대해서 더욱 이해하기 위해서 학습해보겠습니다. 해당 포스팅들을 참고가며 학습해보겠습니다. https://boardmix.com/kr/skills/what-is-time-series-data aigaeddo.tistory.com 1. keras. layers https://keras.io/api/layers/recurrent_layers/ Keras documentation: Rec.. 2024. 2. 3.