Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- Algorithm
- 동기화
- Semaphore
- 쿠버네티스
- 클라우드 네이티브
- cloud native
- cloud native java
- 코틀린
- MSA
- 헬름
- 자바
- decorator 패턴
- Adapter 패턴
- Spring
- Microservice
- nGrinder
- ansible
- ingress
- Kotlin
- 마이크로서비스
- 머신러닝
- 클라우드 네이티브 자바
- spring microservice
- MySQL
- java
- kubernetes
- CRD
- Stress test
- 익명클래스
- devops
Archives
- Today
- Total
목록가중치 (1)
카샤의 만개시기
가중치를 0으로 초기화 하지 않는 이유
가중치를 0으로 초기화하지 않는 이유는 가중치가 0이 아니어야 분류 결과에 영향을 주기 때문입니다. 가중치가 0으로 초기화 되어 있다면 학습률(learning rate: r)은 가중치 벡터의 방향이 아니라 크기에만 영향을 미칩니다. 가중치 w가 업데이트 되는 공식은 다음과 같이 정의할 수 있습니다. $$ \Delta w_i = r(y - y')x $$ 퍼셉트론 학습 규칙에서 초기 가중치를 0으로 놓으면 $$ w_1 = w_0 + \Delta w_1 $$ $$ = w_0 + r(y_1 - y_1')x_1 $$ $$ = w_0 + r(y_1 - \Phi(w_0x_1))x_1 $$ $$ = r(y_1 - \Phi(0))x_1 $$ $$ = r(y_1 - 1)x_1 $$ 위와 같이 정리가 됩니다. 그러면 학습률..
Machine Learning
2020. 1. 18. 18:43