본문 바로가기

AI/딥러닝10

06. 비선형 활성화 함수 1. 비선형 활성화 함수(Activation Functions)* 신경망의 성능을 향상시키기 위해 사용 * 선형 함수는 입력값과 가중치를 곱한 결과를 그대로 출력하기 때문에 신경망에서 여러 개의 선형 활성화 함수를 사용한다면 최종 출력값은 입력값과 가중치의 선형 조합으로 표현되므로 이는 입력 데이터의 비선형 관계를 표현할 수 없음 * 신경망이 입력 데이터의 비선형 관계를 잘 학습할 수 있도록 하기 위해서 비선형 활성화 함수를 사용 import               import numpy as np        import matplotlib.pyplot as plt   1. 시그모이드(Sigmoid )Sigmoid 함수는 주어진 입력에 대해 출력을 0과 1 사이의 값으로 변환하는 비선형 활성화 함  .. 2024. 6. 20.
05. 딥러닝 1. 뉴런(neuron)  1. 생물학적 뉴런* 인간의 뇌는 수십억 개의 뉴런을 가지고 있음* 뉴런은 화학적, 전기적 신호를 처리하고 전달하는 연결된 뇌신경 세포2. 인공 뉴런(Perceptron)* 1943년에 워렌 맥컬록, 월터 피츠 단순화된 뇌세포 개념을 발표 * 신경 세포를 이진 출력을 가진 단순한 논리 게이트라고 설명 * 생물학적 뉴런의 모델에 기초한 수학적 기능으로, 각 뉴런이 입력을 받아 개별적으로 가중치를 곱하여 나온 합계를 비선형 함수를 전달하여 출력을 생성 2. 퍼셉트론(Perceptron)* 인공 신경망의 가장 기본적인 형태로 1957년에 처음 소개됨 * 입력과 출력을 가진 단일 뉴런 모델을 기반 * 초기에 기계 학습 알고리즘 중 하나로 이진 분류 문제를 해결하기 위해 설계 impor.. 2024. 6. 20.
04. 데이터로더(Data Loader) 1. 데이터로더(Data Loader)데이터양이 많을 때 배치 단위로 학습하는 방법을 제공   데이터로더(DataLoader)의 역할배치 처리: 데이터를 지정된 배치 크기로 나누어 모델에 입력으로 제공합니다.셔플(shuffle): 데이터를 섞어서 모델이 데이터의 순서에 의존하지 않도록 합니다. 특히 훈련 데이터에서 사용됩니다.병렬 처리: num_workers 매개변수를 설정하여 데이터를 병렬로 로드하여 속도를 높일 수 있습니다. import               import torch        import torch.nn as nn        import torch.optim as optim        import torchvision.transforms as tranforms        i.. 2024. 6. 20.
03. 논리회귀 (단항, 다중) | 시그모이드(sigmoid) 함수 1. 단항 논리 회귀* 분류를 할 때 사용하며 선형 회귀 공식으로부터 나왔기 때문에 논리 회귀라는 이름이 붙여짐* Sigmoid 함수(Logistic 함수)를 사용하여 정확도를 높임 Sigmoid 함수예측값을 0에서 1사이 값이 되도록 만듬 0에서 1사이의 연속된 값을 출력으로 하기 때문에 보통 0.5(임계값)를 기준으로 구분   import               import torch        import torch.nn as nn        import torch.optim as optim        import matplotlib.pyplot as plt  시드값 고정             torch.manual_seed(2024)    PyTorch 텐서를 사용하여 훈련 데이터를 정의하.. 2024. 6. 19.
LIST