아래 내용은 인프런 : 밑바닥부터 시작하는 머신러닝 입문 과정의 최성철 교수님 강의를 수강하고, 나름대로 한번 정리를 하여 더 오래 기억하고자 작성한 사항입니다.일부 추가, 삭제, 수정한 사항들도 있습니다.1. Missing value 란?데이터를 보면 값이 없는 경우가 있다. 이런 경우 missing value 가 있다고 한다.아래 데이터를 보면 index 1, 2 의 데이터가 missing valueIn [53]:import pandas as pd import numpy as np In [54]:# Eaxmple from - https://chrisalbon.com/python/pandas_missing_data.html raw_data = {'first_name': ['Jason', np.nan, ..
아래 내용은 인프런 : 밑바닥부터 시작하는 머신러닝 입문 과정의 최성철 교수님 강의의 feature scaling 부분을 수강하고, 나름대로 한번 정리를 하여 더 오래 기억하고자 작성한 사항입니다.일부 추가, 삭제, 수정한 사항들도 있습니다.¶1. Feature Scaling 이란?raw data 를 전처리하는 과정키와 몸무게를 가지고 100m 달리기에 걸리는 시간을 예측한다고 하면, 키와 몸무게는 unit 이 다르기 때문에, 더 큰 값을 가진 키 값이 결과값에 더 큰 영향을 미칠 수도 있다.이 때문에 raw data 를 전처리하는 과정이 필요하다.방법론적으로 크게 Min-Max Normalization , Standardization (Z-score Normalization) 두가지가 있다.1) Min..
아래 Pandas 관련 내용은 인프런 : 밑바닥부터 시작하는 머신러닝 입문 과정의 최성철 교수님 강의의 pandas 부분을 수강하고, 나름대로 한번 정리를 하여 더 오래 기억하고자 작성한 사항입니다.일부 추가, 삭제, 수정한 사항들도 있습니다.1. GroupbyIn [4]:# data from: import pandas as pd ipl_data = {'Team': ['Riders', 'Riders', 'Devils', 'Devils', 'Kings', 'kings', 'Kings', 'Kings', 'Riders', 'Royals', 'Royals', 'Riders'], 'Rank': [1, 2, 2, 3, 3,4 ,1 ,1,2 , 4,1,2], 'Year': [2014,2015,2014,2015,20..
아래 Pandas 관련 내용은 인프런 : 밑바닥부터 시작하는 머신러닝 입문 과정의 최성철 교수님 강의의 pandas 부분을 수강하고, 나름대로 한번 정리를 하여 더 오래 기억하고자 작성한 사항입니다.일부 추가, 삭제, 수정한 사항들도 있습니다.1. Pandas 는?구조화된 데이터의 처리를 지원하는 Python 라이브러리고성능 Array 계산 라이브러리인 Numpy 와 통합하여, 강력한 "스프레드시트" 처리 기능을 제공Python계의 엑셀!!2. 데이터 로딩In [146]:import pandas as pd In [147]:data_url = 'https://archive.ics.uci.edu/ml/machine-learning-databases/housing/housing.data' #Data URL d..
[덧붙임] 구글링을 하다가 NumPy에 대해 너무 잘 정리를 해놓은 곳이 있어 링크시켜놓는다. 이런 양질의 글 감사합니다 http://taewan.kim/post/numpy_cheat_sheet/ 아래 Numpy 관련 내용은 인프런 : 밑바닥부터 시작하는 머신러닝 입문 과정의 최성철 교수님 강의의 numpy 부분을 수강하며 정리한 내용입니다.일부 추가, 삭제, 수정한 사항들도 있습니다.1. Numpy 는?파이썬의 고성능 과학 계산용 패키지Matrix 와 Vector 같은 Array 연산의 사실상의 표준2. 특징일반 List 에 비해 빠르고, 메모리 효율적반복문 없이 데이터 배열에 대한 처리를 지원3. Creation일반적인 numpy 의 호출 방법, 특별한 이유는 없고 세계적인 약속 같은 것In [534..
1. 머신러닝 종류 Supervised (Y 데이터가 있음) 1) 회귀(Regression) : 연속형 변수, 데이터 (X,Y) -> X 를 기반으로 Y 예측 2) 분류(Classification) : 이산형 변수, 데이터 (X,Y) -> X 를 기반으로 Y 분류 Unsupervised (Y 데이터가 없음) 3) 군집(Clustering) : 데이터 X를 n 개로 나누기 Types of Machine Learning (출처 : https://www.datasciencecentral.com/profiles/blogs/machine-learning-summarized-in-one-picture?utm_content=bufferbd927&utm_medium=social&utm_source=facebook.co..
2_DT_algorithm 2. 의사결정나무(decision Tree) _ 브랜치 나누기 실습¶ 인프런의 밑바닥부터 시작하는 머신러닝 입문 최성철 교수님 강의를 기본으로 작성되었습니다. 일부코드는 수정되었습니다. (1)시작¶ 아래 14개의 데이터를 가지고 computer 구입 여부를 판단할 수 있는 decision Tree 를 만든다. 데이터 속성은 age, income, student, credit_rating 이 있다. Information Gain 값을 계산하여 branch 를 나눈다. 참고 In [159]: pd_data Out[159]: age income student credit_rating class_buys_computer 0 youth high no fair no 1 youth high..
- Total
- Today
- Yesterday
- 위경도변환
- M1M2비율
- 연금등록
- 김성일 작가님
- 블록해쉬구현
- 연금저축
- 마연굴
- pandas apply
- 계정조정계열
- 원계열
- 프로그래스바 표시
- 주소를 위경도 변환
- ChatGPT
- Dash.html
- 리치고
- 내 연금조회
- M1/M2
- 말잔
- 블록해쉬
- 객사오
- Dash 와 html 차이
- 환매시점
- 환율이평선
- dash
- 경제는 어떻게 움직이는가
- 경제주체별 M2
- Forgiving
- 리치고 주식
- 환율데이터
- 통화량 데이타
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |