목록인공지능 (34)
우당탕탕 개발일지

💡 혼공학습단 13기 활동 회고6주차까지 모두 완료했다! 초반에는 내용이 쉬워서 2주차에 4주차 내용 선행학습하고 그랬는데, 뒤로 갈수록 내용이 복잡해졌다.. 그래서 6주차에는 6주차 내용(7장) 공부를 했는데 하필 이 주에 많은 이벤트들이 있어서 공부할 시간을 내기 어려웠다. 그래도 이번 주차만 하면 완료다!라는 생각으로 늦게 자더라도 공부를 끝마쳤다.💡 적극적인 소통예전에도 혼공학습단에 참여했었는데, 이번에는 패들랫이라는 플랫폼을 이용해서 그런지 소통이 더 적극적이었던 것 같다.나도 다른 분의 댓글에 의견을 남겨보았다. 서로의 의견을 자유롭게 공유하는 게시판이 있어서 너무 좋았다!나도 항상 궁금했던 예쁜 블로그 썸네일 만드는 방법썸네일 메이커 사이트가 있는 걸 처음 알았다. 바로 북마크바에 저장해..
[혼공머신] 7-3. 신경망 모델 훈련
[혼공머신] 7-2. 심층 신경망

💡 서론딥러닝의 핵심 알고리즘인 인공 신경망을 배우는 챕터였다. 특히 대표적인 라이브러리인 텐서플로와 케라스에 대해 익힐 수 있는 시간이었다.💡 인공 신경망인공 신경망은 입력충, 출력층, 은닉층으로 구분되어 있었다. 텐서플로와 케라스 - 이 두 가지의 딥러닝 라이브러리를 이용해서 인공 신경망을 구현할 수 있다.import tensorflow as tffrom tensorflow import keras이렇게 케라스와 텐서플로 라이브러리를 불러올 수 있다. 💡 인공 신경망으로 모델 만들기인공 신경망에서는 교차 검증을 잘 사용하지 않기 때문에 검증 세트를 미리 덜어내는 게 중요하다.그리고 케라스의 Dense 클래스를 사용해 밀집층을 만들 수 있다.매개변수를 통해 뉴런의 개수, 뉴런의 출력에 적용할 함수,..

💡 서론지금까지 6장에서 사용한 데이터는 100*100개의 픽셀로 이루어진 이미지 데이터, 즉 10000개의 특성을 가진 데이터였다. 만개는 너무 많기 때문에, 이 중에서 각 이미지를 가장 잘 나타내는 일부 특성을 선택해서 데이터 크기도 줄이고 성능도 향상시키고자 한다. 💡 차원 축소(Dimensionality Reduction)위에서 언급한 방법이 바로 차원 축소(Dimensionality Reduction)이다. 머신러닝에서는 차원 = 특성이라고 봐도 된다.특성의 개수를 줄여서, 즉 차원 축소를 통해 데이터의 크기를 줄이고 모델의 성능도 향상시킨다. 💡 주성분 분석(Principal Component Analysis) 그러면 어떤 특성을 선택하면 좋을까? 물론 데이터를 가장 잘 나타내는 특성을 ..

💡 서론이전에 k-fold classification이 나왔던 것처럼 이번에는 k-means clustering이다. k개의 그룹으로 만들고, 평균값을 이용해서 클러스터링을 진행한다. 💡 K-Means 클래스sklearn.cluster 모듈 아래에 있는 KMeans 클래스로, k-mean clustering에 필요한 다양한 메서드와 매개변수, 그리고 결과를 나타내는 속성들이 있다.이것들을 이용해서 k-means clustering을 진행하게 된다. 💡 K-Means 클래스k-means clustering 알고리즘이 과정을 계속 반복하는 비교적 단순한 알고리즘이다. 이 알고리즘을 구현하는 클래스가 KMeans 클래스!이렇게 fit 메서드를 이용해서 k-평균 알고리즘으로 클러스터링을 진행하고, 속성들을..