GPT_3(Generative Pre-trained Transformer)

GPT_3(Generative Pre-trained Transformer)

cloudhwang 0 2293

GPT_3(Generative Pre-trained Transformer)은

딥러닝을 이용해 인간다운 텍스트를 만들어내는 자기회귀 언어 모델. 

 

OpenAI사가 만든 GPT-n 시리즈의3세대 언어 예측 모델

GPT_3의 전체버전은 1,750억개의매개변수를 가지고 있어, 2020년 5월 도입된 이전버전GPT-2보다 2배 이상 큼

2020년 7월 베타 테스트중에 있었고, 2022년 12월 3.5 베타가 출시되어 세계적으로 큰 반향. 

 

사전 훈련된 언어의 자연어 처리(NLP) 시스템의 일환

GPT_3 출시 전 가장 큰 언어 모델은 2020년 2월에 선보인 마이크로소프트의 튜링 NLG로 GPT_3 보다 용량이 10배적음. 

0 Comments
제목