| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | |
| 7 | 8 | 9 | 10 | 11 | 12 | 13 |
| 14 | 15 | 16 | 17 | 18 | 19 | 20 |
| 21 | 22 | 23 | 24 | 25 | 26 | 27 |
| 28 | 29 | 30 | 31 |
- 더미변수화
- 코드프레소
- 파이썬
- 평생수강
- 코딩인강추천
- 노션구분선
- 머신러닝최적화
- ai인강
- Codepresso
- notiondivider
- 인터넷강의
- 머신러닝인강
- Python
- 인공지능공부
- vscode설치
- vsdcode
- beauify
- 머신러닝
- OneHotEncoding
- 그리드서치
- statsmodels
- 코드프레소체험단
- 인공지능
- 노션활용법
- 유데미코리아
- 딥러닝강의
- get_dummies
- inlineequation
- windowd
- python설치하기
- Today
- Total
목록Python (39)
나를 찾아가는 길
preds = [1 if x > 0.5 else 0 for x in predicts] # pred_확률 threshold 지정해서 0,1 분류해주기!!
올해 1월부터 코드프레소 체험단에 선정되어 인공지능 트랙 강의를 수강하기 시작했다. 후기 1탄은 아래 참고 ↓↓↓↓ https://ari950505.tistory.com/32 [코드프레소 체험단] AI인공지능 트랙 후기 (1) 올해 1월부터 코드프레소 체험단에 선정되어 인공지능 트랙 강의를 수강하기 시작했다. 한 달동안 강의를 들어본 결과 개인적으로 매우 만족하며 듣고 있다. 현재 Machine Learning 공부를 따로 하고 ari950505.tistory.com 지도 학습 중 중요하다고 생각하는 회귀와 분류분석 강의를 수강했다. 개인적으로 굉장히 도움이 많이 되었다. 통계적인 지식도 많이 다질 수 있었고 덕분에 Confusion matrix TP,FN 등의 정의는 확실하게 알게되었다. 그 전에는 이..
올해 1월부터 코드프레소 체험단에 선정되어 인공지능 트랙 강의를 수강하기 시작했다. 한 달동안 강의를 들어본 결과 개인적으로 매우 만족하며 듣고 있다. 현재 Machine Learning 공부를 따로 하고 있는데 예습 겸 복습으로 듣기 좋고, 강의내용이 심플하고 실습도 해줘서 기초적인 머신러닝 모델 지식을 쉽게 얻을 수 있다. 코딩/인공지능/통계를 처음 접하는 분들에게는 바로 따라가기 좀 어려울 수도 있다는 생각이 들긴 한다. 인공지능 트랙을 듣기 위해 관련 background knowledge를 어느정도 갖추고 있어야 따라가기 쉬울 수 있을 것 같다. 나는 완전 쌩문과 비전공자(신방과)이기 때문에 혼자 통계나 코딩 부분 지식을 보충하면서 열심히 따라가는 중이다. 1. 파이썬으로 시작하는 머신러닝 htt..
np.random.seed() : seed 를 통한 난수 생성 np.random.randint(): 균일 분포의 정수 난수 1개 생성 np.random.rand(): 0부터 1사이의 균일한 확률 분포로 실수 난수 matrix array 생성 np.random.randn() : 기댓값이 0, 표준편차가 1인 가우시안 표준 정규 분포를 따르는 난수 matrix array 생성 normal() np.random.shuffle() : 기존의 데이터 순서 바꾸기 np.random.choice() : 기존의 데이터에서 sampling 표본추출 np.bincount() : 발생하지 않은 사건에 대해서도 카운트 np.random.randint(0,3) # 0-3 사이 난수 1개 np.random.rand(x,y) # ..
import warnings warnings.filterwarnings(action='ignore')
seoul['date']=pd.to_datetime(seoul['날짜'],format='%Y-%m-%d') seoul['year'] = seoul.date.dt.year #연도 seoul['month'] = seoul.date.dt.month #월 seoul['day'] = seoul.date.dt.day #일 seoul['week'] = seoul.date.dt.day_name() # 요일
del data_frame['연봉'] #열삭제 data_frame.drop([24,25],inplace=True) #인덱스로 행삭제 data_frame.drop(columns='성별',axis=1,inplace=True) #컬럼명으로 열 삭제 data_iris.drop(index = outlierss, inplace=True) #인덱스로 행 삭제
3가지 fomatting 방법 정리 : 1. f-string 포매팅: a = 1 b = 2 result = a + b print(f'{a} + {b}의 합은 {result}입니다.') 출력결과 : 1 + 2의 합은 3입니다. 번외: 정렬: str1 = 'left' print(f'|{str1:10}|') # > 오른쪽정렬 중괄호 출력: a = 2 print(f'a is {{a}},{{{a}}}') 2. %포매팅: %s : string %d : 정수 %f : float a = 3 b = 5 str = '연산' add = a+b div = a/b print(' %s을 해보자! 합 : %d, 나눈 값: %.2f'%(str, add, div)) 3. str.format : a = 1 b = 2 result = a..
parameter : 모집단의 특성을 나타내는 모수. ( 파라미터를 매개변수라고 많이 부르는데 모수가 더 정확한 표현이라고 한다.) 평균값, 분산, 중앙값, weight coefficient (가중치), bias(편의) 등등→ 조정 불가 hyper parameter : epoch, learning rate 등 더 좋은 예측 결과를 위해 조정을 할 수 있는 파라미터. → 직접 조정 가능 보통 가중치(기울기) 변화를 주기 위해 하이퍼 파라미터를 조정 → 가중치 변화율 관찰 → 더 좋은 예측 결과 찾아내기의 여정. 학습하는 동안 적용할 규제의 양은 하이퍼파라미터가 결정한다. 하이퍼파라미터는 (모델이 아니라) 학습 알고리즘의 파라미터. 학습 알고리즘으로부터 영향을 받지 않으며, 훈련 전에 미리 지정되고, 훈련하..