| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | ||||
| 4 | 5 | 6 | 7 | 8 | 9 | 10 |
| 11 | 12 | 13 | 14 | 15 | 16 | 17 |
| 18 | 19 | 20 | 21 | 22 | 23 | 24 |
| 25 | 26 | 27 | 28 | 29 | 30 | 31 |
- gas
- Google Spreadsheet
- Excel
- SQL
- Redshift
- Google Excel
- list
- GIT
- c#
- Python
- matplotlib
- google apps script
- Apache
- PySpark
- PostgreSQL
- Java
- string
- django
- Kotlin
- hive
- array
- Tkinter
- Github
- 파이썬
- Presto
- math
- PANDAS
- numpy
- dataframe
- Today
- Total
목록AI (2)
달나라 노트
경사 하강법(Gradient Descent) 얘기를 할 때 Local Minima를 언급했었습니다.(경사 하강법 글 = https://cosmosproject.tistory.com/916) 그래서 Local Minima가 딥러닝에 저해되는 요소라고 언급하였는데 그러면 현실적으로 Local Minima라는 문제가 있음에도 현재 전세계적으로 딥러닝이 잘 되고 있는 이유와, 왜 그런지를 알아봅시다. 주제를 정의하면 다음과 같을 겁니다."왜 Local Minima 문제에도 불구하고 딥러닝은 잘 작동할까? Local Minima 문제를 어떻게 해결하는 것일까?" (복잡한 수식이나 개념은 최대한 다루지 않고, 매우 간단하게 느낌만 알아갈 정도의 내용이라는 것을 미리 알립니다.) 1. 현실적으로 다뤄지는 딥러닝..
1. 경사 하강법(Gradient Descent)이란?경사 하강법(Gradient Descent)은 말 그대로 점잔적으로 하강하여 함수의 최소값을 찾는 방법입니다. 여기서 얘기할 경사 하강법은 딥러닝에서 자주 나오는 얘기이기에 모델의 학습 차원에서 경사 하강법을 다시 좀 더 자세하게 정의해보겠습니다. 함수의 계수(w, b 등)를 조금씩 조절하여 모델의 손실 함수(Cost Function, 모델의 에러율이라고 생각하시면 됩니다.)의 값이 최소가 되는 계수를 찾는 방법입니다.우리가 딥러닝을 하는 것은 결국 y = wx + b같은 식에서 가지고 있는 데이터를 높은 정확도로 설명할 수 있는 w, b값을 찾아내는 것이죠.만약 우리가 최적의 w, b를 찾아낸다면, 이 함수식의 정확도는 매우 높아질 것입니다. 즉, ..