일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
- 선형회기모델
- 데이터 분석
- sklearn
- 정확도
- 데이터베이스
- 크롤링(crawling)
- MariaDB
- 예측
- Deep Learning
- 알고리즘기초
- 회귀모델
- 데이터 수집
- 데이터 가공
- 훈련
- 해석
- 머신러닝
- tensorflow
- python기초
- 딥러닝
- pandas
- 데이터
- 파이썬
- 시각화
- HeidiSQL
- keras
- 데이터전처리
- SQL예제
- python
- Database
- pythone
- Today
- Total
목록데이터 분석 (8)
코딩헤딩

https://coding-heading.tistory.com/66 [데이터 분석] 교통데이터 수집/가공 * 데이터 출처 - URL : 국가교통 데이터 오픈마켓 1. 데이터 수집 import pandas as pd 파이썬에서 데이터를 다룰 때는 항상 pandas 라이브러리를 정의해 준다. 데이터가 폴더만 80개가 있다. 하지만 폴더 coding-heading.tistory.com ### 시각화 라이브러리 import matplotlib import matplotlib.pyplot as plt import seaborn as sns 저번 글에서 만든 데이터 프레임을 불러오겠다. - 데이터 프레임 변수명 : df_bus_card_tot df_bus_card_tot =pd.read_csv("./01_data/..

1. 데이터베이스 설정 정보 준비 2. DB 접속하기 : 커넥션(connect) 3. 커서 받아오기 : cursor() 4. 구문 작성하기 : sql(조회, 입력, 수정, 삭제) -- xx 5. 구문 실행하기 : execute() -> 결과값은 체크 --세모 6. 조회인 경우 커서에서 데이터 추출하기 -- 세모 -> 한건 : fetchone() -> 여러건 : fetchall() 7. 조회결과 데이터프레임 또는 웹페이지에 출력 -- 세모 -> 데이터프레임 : pd.DataFrame(여러건), pd.DataFrame([한건]) 8. 조회가 아닌경우 : 처리 결과 조건으로 확인하기 if "처리 성공" else "처리 실패" -- 세모 9. DB정보 반환하기 - 반환 순서 : cursor > connect 1..

https://coding-heading.tistory.com/66 [데이터 분석] 교통데이터 수집/가공 * 데이터 출처 - URL : 국가교통 데이터 오픈마켓 1. 데이터 수집 import pandas as pd 파이썬에서 데이터를 다룰 때는 항상 pandas 라이브러리를 정의해 준다. 데이터가 폴더만 80개가 있다. 하지만 폴더 coding-heading.tistory.com 저번 글에서 만든 데이터 프레임을 불러오겠다. - 데이터 프레임 변수명 : df_bus_card_tot df_bus_card_tot =pd.read_csv("./01_data/all/df_bus_card_tot.csv") print("갯수 : ", len(df_bus_card_tot)) df_bus_card_tot.head(1)..

* 데이터 출처 - URL : 국가교통 데이터 오픈마켓 1. 데이터 수집 import pandas as pd 파이썬에서 데이터를 다룰 때는 항상 pandas 라이브러리를 정의해 준다. 데이터가 폴더만 80개가 있다. 하지만 폴더 내부의 파일명은 동일하다. * 여러 개의 파일 데이터를 통합하는 경우에는 한 개 파일을 기준으로 사용할 컬럼을 정의하여 가공 후 반복 처리하면 편하다. * 0번 파일의 csv 데이터 읽어 들이기 # - 데이터프레임 이름 : df_bus_card_org file_path = "./01_data/org/trfcard(0)/trfcard.csv" df_bus_card_org = pd.read_csv(file_path) df_bus_card_org.head(1) * 결측치가 있는지 정보..

* 데이터 조회하기 - 조회 시에는 pymysql라이브러리 사용 * DB 프로그램 순서 1. 데이터베이스 설정 정보 준비 2. DB접속하기 : 커넥션(connect) 3. 커서 받아오기 : currsor() 4. 구문 작성하기 : sql(입력, 조회, 수정, 삭제) 5. 구문 실행하기 : execute() -> 결괏값은 체크 6. 조회인 경우 커서에서 데이터 추출하기 -> 한건 : fetchone() -> 여러건 : fetchall() 7. 조회결과 데이터프레임 또는 웹페이지에 출력 -> 데이터프레임 : pd.DataFrame(여러건), pd.DateFrame([한건]) 8. 조회가 아닌경우 : 처지 결과 조건으로 확인하기 if "처리성공" else "처리실패" 9. DB정보반환하기 -> 반환순서 : c..

- sqlalchemy - 설치 : pip install sqlalchemy - pymysql - 설치 : conda install -c conda-forge pymysql - 설치 : pip install pymysql * 데이터 읽어들이기 import pandas as pd 전 글에서 저장까지 했던 csv 파일을 다시 읽어오겠다. file_path = "./01_data/new_data.csv" df = pd.read_csv(file_path) df 다음의 값들을 데이터베이스에 넣기 위해서는 테이블 설계과정이 필요하다. * 테이블 설계하기 - 테이블 명, 컬럼명, 컬럼타입, NuLL여부에 대한 정의가 필요함 * 산출물 - 테이블정의서 - ERD - 스크립트명세서 * 스크립트 명세서 스크립트 명세서의 ..

- 수집위치 : data.go.kr 공공 데이터 포털에서 공공데이터를 다운로드하여 진행했다. * 데이터 불러오기 import pandas as pd # - 데이터프레임 변수명 : df file_path = "./01_data/한국전력거래소_시간별 전력수요량_20211231.csv" df = pd.read_csv(file_path,encoding="euc-kr") df 1. 파일 경로 및 파일 이름 지정 2. 읽어올 파일의 확장자와 인코딩 형식 지정. * 결측데이터 df.info() 데이터 형식 확인 * 이상치데이터 df.describe() 이 단계에서 논리적으로 데이터에 오류가 있는지 확인해야 한다. 예를 들어 전력사용량의 최솟값인 min에서 마이너스 값이 나올 수 없다. * 컬럼명 추출하기 col_li..