Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
31 |
Tags
- 클래스
- 파이썬
- AIFFEL
- 딕셔너리
- NLP
- TensorFlow
- 데이터사이언티스트
- 데이터사이언스 스쿨
- 기사
- 추천시스템
- Set
- 자연어처리
- 데이터분석
- numpy
- 제어문
- 사이킷런
- 재귀함수
- 스크랩
- 코딩도장
- 속성
- Python
- AI
- 파이썬코딩도장
- 함수
- 아이펠
- 딥러닝
- 후기
- 머신러닝
- 제로베이스 데이터사이언스
- 카카오
Archives
- Today
- Total
목록BERT (1)
뮤트 개발일지

인간보다 퀴즈를 잘 푸는 인공지능 BERT 모델 Transformer Encoder 구조만을 활용한다. Layer는 12개 이상으로 늘리고, 파라미터 크기가 크긴 하지만 트랜스포머 모델과 기본적인 구조는 동일하다. BERT 모델은 Decoder가 없는 대신, 출력 모델이 Mask LM, NSP라는 2가지 모델을 해결하도록 되어 있다. Mask LM 입력데이터가 '나는 먹었다' 일 때, BERT 모델이 가 '밥'임을 맞출 수 있도록 하는 언어모델이다. Next Sentence Prediction 입력데이터가 '나는 밥을 먹었다. 그래서 지금 배가 부르다.'가 주어졌을 때 을 경계로 좌우 두 문장이 순서대로 이어지는 문장이 맞는지 맞추는 문제이다. BERT 모델은 이 두 문장을 입력으로 받았을 때 첫 번째 ..
AIFFEL
2022. 2. 18. 12:43