암흑기가 찾아온 딥러닝에는 다시 획기적인 사건이 찾아온다.
1. 뉴럴 네트워크에 많은 층을 잘 학습하려면, 초기의 w 값을 랜덤으로 주는 것보다는 잘 주면 학습이 아주 잘된다.
(초기에 설정해주는 w 값이 중요하다는 말이다.)
2. 깊게된 신경망은 복잡한 문제를 해결 가능하다.
3. 이제 뉴럴 네트워크라 하지 않고 딥러닝이라 이름을 바꾸겠다.(이 당시 뉴럴 네트워크라는 이름으로 논문을 내면 바로 reject을 당했다고 한다.ㅋㅋ)
이런걸 말로만하면 사람들은 안믿어주겠지만 여러 대회에서 성능을 입증했다고 한다.(imagenet과 같은 대회 역시 해외든 우리나라든 결과를 중요시 하는 거 같다.)
참고로 예전이지만 사람과 대결에서 그 사람을 딥러닝이 처음 이겼던 때가 2015년이란다. 그 사람은 일반적인 사람도 아닌 스탠포드 대학생이라고 한다.
이렇게 딥러닝은 발전하게 되고 다양한 방식으로 사용이 되고 있다.
문장번역 그림번역, 알파고 등등~~
이러한 발전에 힌튼 교수님은 예전에는 왜 잘 안됐는지 몇 가지를 발견했다.(이 발견은 지금에 비하면 몇년 전의 내용이다.)
여기까지는 간단한 내용의 딥러닝이었으며 이제 다음 시간에 더욱 자세히 알아보자
반응형
'AI > 머신러닝(딥러닝) 정리' 카테고리의 다른 글
9-2. Backpropagation (0) | 2022.05.04 |
---|---|
9-1. Neural Nets(NN) for XOR (0) | 2022.05.04 |
8-1. Deep Neural Nets (0) | 2022.05.04 |
7-2. Learning and test data sets (0) | 2022.05.03 |
7-1. Learning rate, data preprocessing, overfitting (0) | 2022.05.03 |