본문 바로가기

코딩코딩/머신러닝, 딥러닝11

[ml-agents] 윈도우에 ml-agents 환경 구축 https://youtu.be/mJh31T3aGkI 1. git으로 ml-agents 저장소 클론하기 저는 사용자 폴더(powershell을 키면 default로 설정되어있는 경로)에 git clone을 했습니다. git clone https://github.com/Unity-Technologies/ml-agents 2. python 환경 구축 아나콘다, 파이썬 뭐든 상관 없습니다. 저는 아나콘다로 ml-agents라는 이름의 파이썬 3.8버전 가상환경을 만들었다. conda create -n ml-agents python=3.8 conda activate ml-agents 3. ml-agents/ml-agents 폴더로 이동 아래 명령어를 치면 됩니다. 2번 치는 거 맞습니다. cd ml-agents .. 2022. 2. 14.
optimizer 비교 Adagrad - lr을 조정하면서 하강 RMSprop - Adagrad는 시간 지날수록 업데이트 자체가 미미해진다. - 과거의 gradient값을 잊고 새로운 gradient값을 크게 반영하여 업데이트 하는 방식 Adam - 진행 방향, lr을 모두 적절하게 유지하면서 학습 [출처: 엘리스 AI 트랙 딥러닝 기초 2] 2021. 10. 28.
[강화학습] MDP를 알 때의 플래닝 모델을 알고 있을 때 == 모든 정보를 알고 있을 때 == MDP를 알고 있을 때 이때 사용하는 방법이 크게 3가지가 있다. 1. Policy evaluation 2. Policy iterative 3. Value iterative 1. Policy evaluation 모든 상태의 값을 임의의 값으로 초기화한다. 하나의 상태에 대해 벨만 기대방정식으로 값을 업데이트 한다. 다른 모든 상태에 대해서도 값을 업데이트한다. 수렴할 때 까지 2,3을 계속 반복한다. 이렇게 하면 임의의 값만 있었는데도 실제 값(reward)이 조금씩 섞여 들어가면서 결과적으로는 우리가 찾으려는 목표에 수렴한다. 정책이 고정된 상황에서의 문제 해결 방법이다. 2. Policy iteration 1은 정책을 평가했다 == 벨만 기대.. 2021. 10. 3.
빅데이터분석기사 실기 준비 - 분류 모델 11개 비교 import pandas as pd import numpy as np import time from sklearn.model_selection import StratifiedKFold as SKF from sklearn.metrics import roc_auc_score,f1_score,precision_score,accuracy_score X_train = pd.read_csv('X_train.csv',encoding='cp949') y_train = pd.read_csv('y_train.csv',encoding='cp949') X_train = X_train.drop('cust_id',1).fillna(0) y_train = y_train['gender'] X_train = pd.concat([X_t.. 2021. 6. 16.