GPT_3(Generative Pre-trained Transformer)
cloudhwang
Basic
0
2293
2020.02.23 21:17
GPT_3(Generative Pre-trained Transformer)은
딥러닝을 이용해 인간다운 텍스트를 만들어내는 자기회귀 언어 모델.
OpenAI사가 만든 GPT-n 시리즈의3세대 언어 예측 모델
GPT_3의 전체버전은 1,750억개의매개변수를 가지고 있어, 2020년 5월 도입된 이전버전GPT-2보다 2배 이상 큼
2020년 7월 베타 테스트중에 있었고, 2022년 12월 3.5 베타가 출시되어 세계적으로 큰 반향.
사전 훈련된 언어의 자연어 처리(NLP) 시스템의 일환
GPT_3 출시 전 가장 큰 언어 모델은 2020년 2월에 선보인 마이크로소프트의 튜링 NLG로 GPT_3 보다 용량이 10배적음.