GPT-3란 무엇입니까?
최고관리자
0
781
2019.09.26 21:33
GPT-3 또는 3세대 Generative Pre-trained Transformer 는 모든 유형의 텍스트를 생성하기 위해 인터넷 데이터를 사용하여 훈련된 신경망 기계 학습 모델입니다. OpenAI에 의해 개발되었으며 대량의 관련성 있고 정교한 기계 생성 텍스트를 생성하기 위해 소량의 입력 텍스트가 필요합니다.
GPT-3의 딥러닝 신경망은 1,750억 개가 넘는 기계 학습 매개변수를 가진 모델입니다. GPT-3 이전의 가장 큰 훈련된 언어 모델은 100억 개의 매개변수가 있는 Microsoft의 튜링 자연어 생성(NLG) 모델이었습니다. 2021년 초 현재 GPT-3는 지금까지 생산된 신경망 중 가장 큰 규모입니다. 결과적으로 GPT-3는 인간이 작성한 것처럼 보일 만큼 충분히 설득력 있는 텍스트를 생성하는 데 있어 이전의 어떤 모델보다 우수합니다.