목록인공지능 (51)
내가 하고싶은 건 다 하는 공간

들어가기에 앞서..지난주에 1주차를 마쳤는데 제 글이 혼공학습단 홈페이지 최상단에서 떠나질 않아요..혼공족장님께서 극찬을 해주셨어요. 덕분에 부담 백배라서 2주차도 어김없이 하러 왔습니다. 활성화 함수 Activation Function활성화 함수를 통해 뉴런의 출력 값을 변형시켜 모델에 비선형성을 추가하게 됩니다. 예를 들어 초기 모델이 y = ax였다면 아무리 이 함수를 중첩해서 사용해도 y = 특정 값 * x의 형태에서 벗어날 수가 없어요. 활성화 함수를 추가해서 모델의 복잡성을 증가시키는 역할을 합니다.유명한 활성화 함수로는 ReLU, Sigmoid, Softmax, Tanh -- 총 4가지가 있습니다. 이 책에서는 시그모이드 함수, 소프트맥스, 로지스틱 함수만 언급하고 있으니 이 세 가지만 살펴..

풀링층과 밀집층 혼자 만들면서 공부하는 딥러닝 1-2 합성곱 신경망(CNN) 모델 이해하기인공 신경망 ANN Artificial Neural Network입력층, 은닉층, 출력층을 거쳐 데이터를 처리합니다. 합성곱 신경망보다 간단한 분류 작업 및 예측에 활용됩니다.사람의 신경망 구조를 본따서 만든 기계학kmina02.tistory.com풀링층과 밀집층에 대한 개념 설명은 이전 글에 적어두었습니다. 이번 글에서는 케라스에서 어떤 클래스를 이용해서 풀링층과 밀집층을 구현하는지에 대해 정리하겠습니다. 합성곱층 Conv2D 혼자 만들면서 공부하는 딥러닝 1-2 합성곱 신경망(CNN) 모델 이해하기: 합성곱층 Conv2D패딩 Padding합성곱 연산을 통해 얻어진 결과에서 가장자리에 빈 공간을 추가합니다. 패딩을..

패딩 Padding합성곱 연산을 통해 얻어진 결과에서 가장자리에 빈 공간을 추가합니다. 패딩을 이용하면 이미지 가장자리 부분의 픽셀이 충분히 처리될 수 있습니다.패딩을 하지 않았다면 빨간색으로 표시된 1이 한 번만 연산될텐데, 패딩을 통해 4번 연산됩니다. 즉, 연산이 더 많이 일어나지만 가장자리 정보를 보존할 수 있습니다. 또한 출력 크기가 일정하게 유지된다는 특징이 있습니다. 위 사진에서는 입력과 출력 데이터가 모두 4*4의 크기로 동일합니다.패딩을 하면 세임 패딩 Same Padding, 패딩을 안 하면 밸리드 패딩 Valid Padding이라고 합니다. 패딩을 하면 입력과 출력의 크기가 같으므로(same) 세임 패딩이다~ 이렇게 이해했습니다. 스트라이드 Strides합성곱 연산을 수행할 때 몇 칸..

최초의 CNN 모델: LeNetLeNet의 구조를 직접 그려보았는데 틀린 부분이 있을 수도 있어요.. 직접 수기로 그려보니까 풀링, 패딩 등의 개념이 더 확실히 이해되고 좋네요:) 인공 신경망 ANN Artificial Neural Network입력층, 은닉층, 출력층을 거쳐 데이터를 처리합니다. 합성곱 신경망보다 간단한 분류 작업 및 예측에 활용됩니다.사람의 신경망 구조를 본따서 만든 기계학습 알고리즘으로, 신호나 값을 받고(Input) 그 수치가 임계값을 넘어서면 특정 결과를 내뱉습니다(Output).단점으로는 1) 학습시간이 오래 걸린다. 2) 과적합 Overfitting이 발생한다 3) 최적 파라미터 찾기가 어렵다 - 3가지가 있습니다. 합성곱 신경망 CNN Convolutional Neural ..

이전에 혼자 공부하는 머신러닝+딥러닝 공부하고 이번 여름에는혼자 만들면서 공부하는 딥러닝 공부해보려고 혼공학습단 신청했습니다! 코랩 실습이제는 코랩에서도 바로 구글 Gemini를 쓸 수 있네요! 신기하다. 최근 생성형 AI에게 잘 질문하는 방법을 공부하고 있는데 공부 열심히 해서 많은 도움을 받아봐야겠습니다.구글 코랩에 텐서플로/케라스가 이미 설치되어 있어서 저는 버전만 간단히 확인해봤어요. 텐서플로우 Tensorflow 케라스 Keras딥러닝 라이브러리는 그래픽 처리장치 GPU를 이용해서 인공 신경망을 훈련합니다. GPU는 벡터, 행렬 연산하기에 좋아서 인공 신경망 훈련에 쓰인다고 하네요.현재 널리 사용되는 딥러닝 프레임워크로는 파이토치 Pytorch와 텐서플로 Tensorflow가 있습니다.텐서플로 ..

💡 혼공학습단 13기 활동 회고6주차까지 모두 완료했다! 초반에는 내용이 쉬워서 2주차에 4주차 내용 선행학습하고 그랬는데, 뒤로 갈수록 내용이 복잡해졌다.. 그래서 6주차에는 6주차 내용(7장) 공부를 했는데 하필 이 주에 많은 이벤트들이 있어서 공부할 시간을 내기 어려웠다. 그래도 이번 주차만 하면 완료다!라는 생각으로 늦게 자더라도 공부를 끝마쳤다.💡 적극적인 소통예전에도 혼공학습단에 참여했었는데, 이번에는 패들랫이라는 플랫폼을 이용해서 그런지 소통이 더 적극적이었던 것 같다.나도 다른 분의 댓글에 의견을 남겨보았다. 서로의 의견을 자유롭게 공유하는 게시판이 있어서 너무 좋았다!나도 항상 궁금했던 예쁜 블로그 썸네일 만드는 방법썸네일 메이커 사이트가 있는 걸 처음 알았다. 바로 북마크바에 저장해..