본문 바로가기

분류 전체보기46

Min-Max-Scaler Min-Max-Scaler / 정규화하기1. 데이터프레임 만들기#min-max scalingdf =pd.DataFrame({ 'A' : [10,20,-10,0,25], 'B' : [1,2,3,1,0]})AB01234101202-103012502. min max scaler 로 학습시키기from sklearn.preprocessing import MinMaxScalermms = MinMaxScaler()mms.fit(df)mms.data_max_, mms.data_min_ , mms.data_range_(array([25., 3.]), array([-10., 0.]), array([35., 3.]))3. transform 변환하기df_mms = mms.transform(df)df_mmsarray.. 2025. 1. 13.
Basic of Regression -OLS 실습import pandas as pddata = {'x':[1,2,3,4,5] , 'y':[1,3,4,6,5]}df = pd.DataFrame(data)df데이터프레임을 하나 만들어준다.전통적인 회귀분석모형을 구축하고 평가하기 위해서는 파이썬 라이브러리 statsmodels을 이용할 수 있음OLS 회귀분석 모델import statsmodels.formula.api as smflm_model = smf.ols(formula='y ~x', data=df).fit()statsmodel.formula에 ols라는 모델을 사용해서학습을 시켜준다.lm_model.params사용방법-> statsmodels.formula.api. ols( 공식 , 데이터 ,하위 집합 =None ,drop_cols =N.. 2025. 1. 13.
Logistic Regression Logistic Regression 은 회귀가 아닌 분류모델이다.[출처] https://bluenoa.tistory.com/48간단히 직접 그려서 알아보자!import numpy as npz = np.arange(-10, 10, 0.01)g = 1 / (1+np.exp(-z))import matplotlib.pyplot as pltplt.plot(z, g)plt.grid()plt.show()0,0.5를 딱 지나가는 그래프가 그려진다.시그모이드 함수도 그려보자plt.figure(figsize=(12,8))ax = plt.gca() #설정값 변경 가능ax.plot(z,g)ax.spines['left'].set_position('zero')ax.spines['bottom'].set_position('cente.. 2025. 1. 13.
정밀도와 재현율 정밀도와 재현율 (precision & recall) 의 트레이드오프와인 데이터셋 불러오기import pandas as pdred_url = 'https://raw.githubusercontent.com/PinkWink/ML_tutorial/master/dataset/winequality-red.csv'white_url = 'https://raw.githubusercontent.com/PinkWink/ML_tutorial/master/dataset/winequality-white.csv'red_wine =pd.read_csv(red_url, sep=';')white_wine =pd.read_csv(white_url, sep=';')red_wine['color'] = 1. white_wine['color'.. 2025. 1. 13.
앙상블 기법 머신러닝이던 딥러닝이던, 결국 모델이 달라지는 것은 코드 조금 수정하는 차이기 때문에크게 중요하지 않아진다. 모델을 바꾸는 것보다 중요한 건 데이터를 들여다 보는 일이라고 한다.결국..나는 평생 데이터의 노예가 되어야 할 것 같다..!ㅎ힣테슬라의 수석 엔지니어 중 한 분이 어느 세미나 자리에서 이야기를 하시기도 했고,딥러닝 분야에서 유투브로도 많이 유명하신 앤드류 응 님께서도 이 이야기를 하셨다고 하니정말 불변의 법칙 인 것 같다. 데이터가 가장 중요하도다..룰루그래서 늘 모델보다도 데이터에서 답을 얻으려고 노력해야 한다.Ensemble Learning앙상블 기법 Ensemble Learning 이란 여러 개의 개별 모델을 조합하여 최적의 모델로 일반화하는 방법입니다. weak classifier 들을 .. 2025. 1. 13.
Boosting Algorithm boosting algorithm..!부스팅(Boosting)은 머신러닝에서 사용되는 앙상블 학습 기법 중 하나로, 약한 학습기(weak learner)를 결합하여 강력한 학습기(strong learner)를 만드는 방법입니다. 부스팅 알고리즘은 성능이 상대적으로 낮은 여러 모델을 순차적으로 학습하고, 이전 모델에서 발생한 오류에 가중치를 부여하여 새로운 모델을 향상시킵니다.몇 가지 종류에 대해서 설명해 보겠습니다.1. AdaBoost (Adaptive Boosting):오분류된 데이터에 가중치를 높여 새로운 분류기를 학습하는 방식입니다. 각 분류기는 이전 분류기의 오류를 보완하는 방식으로 학습됩니다.2. Gradient Boosting:잔차(residual)에 대해 새로운 모델을 학습하는 방식입니다. .. 2025. 1. 13.
반응형