공학/인공지능 12

Review of Artificial Intelligence 01

Process of the start and advancement of Neural Network1. 1943 / 맥컬럭-피츠 모델( 신경망을 논리회로 모델링 )  - 각 노드 뉴런을 나타냄, 신호 전달 시 0,1로 전달하여 논리 회로로 설명2. 1949 / 도날드 헵이 뉴런 간 신경 강도 강화 규칙 제시  - 이후, 노드 간 연결 강도 모델링에 영향3. 1957 / 로젠블럿의 단층 퍼셉트론( 마크1 퍼셉트론 )  - 다수의 아날로그 신호 연결망으로 일부 문자를 구별하고 인식4. 1969 / '퍼셉트론즈' 저서에서 한계 제시  - 인공지능의 아버지라고 불리는 MIT 민즈키 교수의 저서  - XOR과 같은 비선형 분리 불가 한계 제시5. 1984 / 다층 퍼셉트론, 역전파 알고리즘에 의해 재부흥  - 1~..

공학/인공지능 2024.12.17

Generative Adversarial Network , GAN

Genarative Adversarial Network:structure which two neural networks learn by competing each other Two components of the GAN  - Generator : Role which generates new data , 무작위 노이즈를 입력받아 실제 데이터와 유사한 데이터를 만듦  - Discriminator : The role that segments real data from data made by the generator and judges whether the data created by the generator is real or fake. 1. Overview of Generative Adverserial Ne..

공학/인공지능 2024.12.04

Recurrent Neural Network, RNN with LSTM, GRU

1. 순환 신경망( Recurrent Neural Network, RNN )  1. 기존 대부분의 신경망 : 매 순간 단일 데이터의 인식, 분석이 가능  2. 순환 신경망 : k번째 들어온 데이터를 Xk라고 하고 , 그에 따른 은닉층 계산 결과를 hk, k번째 결과 Yk를 생성할 때, h1:k-1을 활용  3. 시간에 따른 데이터 사이의 패턴 인식 가능  4. 음악, 작사 작곡, 언어번역, 주가 예측 등에 활용 가능  5. 역전파에 의해 영향 받는 뉴런이 많아지므로, 학습이 불안정하거나 느림  6. 긴 기간의 데이터는 분석 성능 낮음 = 과거 정보 잊어버림 2. 장단기 메모리( Long Short-Term Memory, LSTM )  1. 장기 기억이 어려운 RNN의 단점 보완을 위한 기법  2. 장기기..

공학/인공지능 2024.11.28

Convolution Neural Network, CNN

1. Overview of the types of deep learningModels, types of learning algorithmsMajor research areaConvolutional Neural Networkvideo perception, computer visionRecurrent Neural Networkvoice perception, weather/stock price predictionRestricted Boltzmann Machineclassification, 회귀 분석Deep Belief Networkwriting, voice perceptionGenerative Adevrsarial Network (생산적 적대 신경망 )음성, 영상 복원, 생성, 변조 2. Meaning of ..

공학/인공지능 2024.11.27