Kong Eunho

신경망

2025년 11월 25일 12시
카테고리 - LECTURE, 인공지능개론


인공지능개론(정명희) 13주차 강의내용

1. 신경망의 개요와 역사

(1) 근대 신경망 연구의 시작

(2) Rosenblatt의 perceptron

(3) 신경망의 암흑기

(4) 신경망의 재부흥

2. 뇌의 동작원리

실제의 신경망

실제 뉴런의 구조

생물학적 신경망

뉴런의 동작

인공신경망

구분 기존의 컴퓨터 인공신경망
처리소자의 개수 108개의 트랜지스터 1010개의 뉴런
처리소자의 속도 1012Hz 102Hz
학습기능 없음 있음
계산 스타일 중앙 집중식, 순차적인 처리 분산 병렬 처리


3. 초기의 신경망

(1) 맥컬럭-피츠 뉴런과 헵의 학습 규칙

(2) 로젠블럿의 단층 퍼셉트론

[마크Ⅰ퍼셉트론]

(3) 단층 퍼셉트론의 구조 : 뉴런의 입출력 구조와 비선형 함수

신경망에서 사용되는 대표적인 비선형 활성 함수

(4) 퍼셉트론의 학습 과정
연결 강도를 조정하며 학습
[1] 연결강도들과 임계값을 초기화
[2] 새로운 입력과 기대되는 출력을 제시
[3] 실제 출력값을 계산
[4] 연결강도를 재조정
[5] 더 이상 조정이 없을 때까지 [2] 단계로 가서 반복 수행


(5) 선형 분리 가능(Linear separability)

XOR 함수와 선형 분리 불가능

단층 퍼셉트론의 한계점

4. 다층 퍼셉트론

(1) 새로운 신경망 시대의 도래

PDP(병렬분산처리 (Parallel Distributed Processing)) 그룹의 활약

(2) 다층 퍼셉트론의 구조와 학습 알고리즘

다층 신경망 구조

다층신경망의 학습

역전파 알고리즘


가중치 업데이트 요약

신경망 구축 절차

1단계 : 데이터 수집
    이미지, 텍스트, 표 데이터 등
2단계 : 전처리
    정규화, 원-핫 인코딩, 데이터 분리(train/valid/test)
3단계 : 모델 설계
    층 수, 뉴런 수, 활성화 함수 설정
4단계 : 학습
    순전파 + 역전파 반복
5단계 : 검증
    보지 않은 데이터에서 성능 측정
6단계 : 배포
    새로운 데이터 입력 → 예측

XOR 함수를 구현할 수 있는 신경망

Scikit-learn vs TensorFlow


다층 퍼셉트론 모델의 기타 응용
분야 예시
컴퓨터 비전 이미지 분류, 객체 검출
자연어 처리 ChatGPT, 번역, 감정 분석
음성 음성 인식
헬스케어 영상 진단
비즈니스 추천 시스템, 사기 탐지
시계열 분석 주가 예측, 센서 분석
자주 발생하는 문제와 해결책
문제 해결 방법
과적합(overfitting) 정규화, dropout, 데이터 증가
기울기 소실 ReLU 사용, Batch Normalization
학습 속도 느림 GPU 사용, mini-batch, Adam
성능 저하 아키텍처 변경, 학습률 튜닝


5. 텐서플로우

◀ 이전 글 LECTURE, 객체지향프로그래밍II
C++ 입출력 시스템
2025-11-20
목록으로 다음 글 ▶ LECTURE, 객체지향프로그래밍II
C++ 파일 입출력
2025-11-27