전체 글 (33) 썸네일형 리스트형 24.05.30 SLP/ MLP Single-layer Perceptron (SLP) 코딩 실습Importimport numpy as npimport pandas as pdimport seaborn as snsimport matplotlib as mplimport matplotlib.pyplot as pltimport matplotlib_inline.backend_inlineimport sklearnfrom sklearn.model_selection import train_test_splitfrom sklearn.preprocessing import MinMaxScalerfrom sklearn.ensemble import RandomForestClassifierfrom sklearn import metricsfrom sklearn.da.. 24.05.29 Ensemble model/ Neural network Ensemble moel BoostingTree에서 실수한 data로 학습Boosting model의 종류Adaboost: 오분류된 샘플에 더 많은 가중치를 주는 방식Gradient boosting: 각 트리의 실수(failure)를 살펴보고 실수에 대한 새로운 트리를 만드는 방식 (error률이 거의 0)- XGBoost (extreme gradient) : 계산속도가 빠름/ overfitting 방지- lightGBM- Catboost모델이 정답을 가장 잘 찾는 weights를 찾는것 -> 머신/딥러닝의 최대 목표Concepterror값이 0에 가까워질때까지 무한 반복한다XGBoost 사용시 정해줘야하는 facrots objective가 어디에 속하는지 정해주기learning_rate: weights.. 24.05.28 Ensemble model (Bagging/ Random tree) Cross validationstratifiedKFold()Grid Search model parameter: 일반적인 parameter 의미. 모델이 학습하면서 변화하게되는 값. 딥러닝 모델의 경우 가중치가 파라미터하이퍼 parameter: 매개변수. 모델의 학습 전에 설정해 주는 값. 아무런 설정도 하지않으면 기본값(default)로 학습하게 됨Ensemble Learning (앙상블 model) 1. Bagging(Bootstrapp Aggregating)Each member of the ensemble is constructed from a different training datasetEach dataset is generated by sampling from the total N data ex.. 이전 1 ··· 3 4 5 6 7 8 9 ··· 11 다음 목록 더보기