Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
Tags
- pwnable.kr
- logistic regression
- Softmax classification
- Linear_regression
- AI
- Algorithm
- Python
- 인공지능
- programmers
- 기능개발
- 텐서플로
- tensorflow
- leg
Archives
- Today
- Total
목록logistic regression (1)
나혼자 공부장

- Linear regression과는 달리 0~1 내에서 값이 결정될 때 Logistic regression이라 칭한다. - hypothesis의 그래프는 로그함수의 형태를 지니고, sigmoid라 불린다. - Linear 때 처럼 그대로 Gradient descent 알고리즘을 적용하면 예쁜 포물선 형태가 나오지 않고 로그함수 때문에 쭈글쭈글해지기 때문에, 최소값이 다르게 나오므로 적절하지 않다. - 따라서 위 cost 함수와 같이 변형된 식이 요구된다. import tensorflow as tf x_data=[[1,2],[2,3],[3,1],[4,3],[5,3],[6,2]] y_data=[[0],[0],[0],[1],[1],[1]] X=tf.placeholder(tf.float32, shape=[N..
AI
2019. 3. 31. 18:50