본문 바로가기

전체 글220

optimizer 비교 Adagrad - lr을 조정하면서 하강 RMSprop - Adagrad는 시간 지날수록 업데이트 자체가 미미해진다. - 과거의 gradient값을 잊고 새로운 gradient값을 크게 반영하여 업데이트 하는 방식 Adam - 진행 방향, lr을 모두 적절하게 유지하면서 학습 [출처: 엘리스 AI 트랙 딥러닝 기초 2] 2021. 10. 28.
[엘리스] 데이터 분석 웹 서비스 프로젝트를 하며 느낀 점, 앞으로 공부할 것 안녕하세요, AI트랙 2기의 레이서 블로거로 활동중인 송성곤이라고 합니다. 이번 포스팅에서는 엘리스에서 수행한 두번째 프로젝트의 마지막 주차를 정리하면서 어떤 것들을 느꼈는지, 앞으로 어떤 공부를 해야할지에 대한 것들을 적어보려고 합니다. 3주차에 했던 일들 3주차에 한 일들과 느낀점을 정리해보면 다음과 같았습니다. 1. api 버그 수정 버그의 원인은 정말 다양했습니다. 예외처리를 하지 않아서 더미데이터를 넣어놔서 or 데이터가 없어서 데이터 간의 스케일이 달라서 (왓챠는 5점, 다른 포털사이트는 10점이 만점) 허겁지겁 코드를 짜느라 로직이 이상해져서 api 설계를 할 때 구체적인 고려를 하지 않아서 다른 건 그렇다 쳐도 4번으로 버그가 났을 때는 조금....마음이 그랬습니다. 5번은 api 명세서 .. 2021. 10. 24.
[엘리스] 팀 프로젝트 1~2주차 기록 이번 포스팅은 엘리스 AI 트랙에서의 두번째 프로젝트인, 데이터분석+웹 팀 프로젝트에 관한 내용입니다. 프로젝트 1주차(14주차) 1. 애자일 코칭 및 프로젝트 안내 사실 저희가 처음에 가장 어렵게 생각했던 부분 중 하나는, 애자일 방법론이었습니다. 폭포수(waterfall), 애자일(agile),, 다양한 방법론들이 있는데 제가 짧게 인턴 경험을 했던 곳도 애자일을 사용했고 대부분의 팀이나 스타트업에서 애자일 방법론을 채택하고 있는 것 같습니다. 아마 엘리스 측에서도 프로그램 후에 애자일 문화에 잘 적응할 수 있도록 의도하신 것 같습니다. 애자일 방법론(스크럼 프레임워크) 애자일 방법론에서 가장 중요한 것은 스크럼과 스프린트입니다. 스크럼은 매일 하는 짧은 미팅인데요, 앨리스에서 제공해준 슬라이드의 내.. 2021. 10. 10.
[강화학습] MDP를 알 때의 플래닝 모델을 알고 있을 때 == 모든 정보를 알고 있을 때 == MDP를 알고 있을 때 이때 사용하는 방법이 크게 3가지가 있다. 1. Policy evaluation 2. Policy iterative 3. Value iterative 1. Policy evaluation 모든 상태의 값을 임의의 값으로 초기화한다. 하나의 상태에 대해 벨만 기대방정식으로 값을 업데이트 한다. 다른 모든 상태에 대해서도 값을 업데이트한다. 수렴할 때 까지 2,3을 계속 반복한다. 이렇게 하면 임의의 값만 있었는데도 실제 값(reward)이 조금씩 섞여 들어가면서 결과적으로는 우리가 찾으려는 목표에 수렴한다. 정책이 고정된 상황에서의 문제 해결 방법이다. 2. Policy iteration 1은 정책을 평가했다 == 벨만 기대.. 2021. 10. 3.