gpt-oss 모델 설명 및 특징
gpt-oss는 2025년 8월 5일 OpenAI가 발표한 새로운 최신 언어 모델입니다.
https://github.com/openai/gpt-oss
GitHub - openai/gpt-oss: gpt-oss-120b and gpt-oss-20b are two open-weight language models by OpenAI
gpt-oss-120b and gpt-oss-20b are two open-weight language models by OpenAI - openai/gpt-oss
github.com
OpenAI가 2019년 GPT-2 이후 약 6년 만에 이런 형태의 오픈웨이트(가중치 공개) 모델을 다시 내놓았습니다. 가장 큰 특징이라면 Mixture-of-Experts(MoE, 전문가 혼합) 아키텍처를 사용한다는 점으로, 전체 모델 파라미터는 크지만 실제 추론 시에는 일부 전문가만 활성화해 효율적인 연산과 추론을 가능하게 합니다.
또한, gpt-oss 모델들은 Apache 2.0 라이선스로 공개되어 누구나 자유롭게 수정하고 상업적으로 활용할 수 있으며, 최대 128,000 토큰까지 처리 가능한 긴 컨텍스트 창을 지원해 복잡한 대화나 문서 작업에 적합합니다.

수학 분야(AIME)에서는 o4-mini와 사실상 동급 성능을 보여주며, 실사용 체감에는 전혀 손색이 없는 성능을 보여주고 있습니다.
로컬 AI로 활용할 수 있는 모델 중에선 최고 성능의 수치를 보여줍니다.
20b 모델과 120b 모델의 차이
모델 이름에서 b는 billion(10억)으로 모델이 가진 파라미터(가중치)의 수를 십억 단위로 나타낸 것입니다. 당연히 파라미터 개수가 더 많을수록 모델이 더 복잡하고 정교하며, 일반적으로 성능이 좋다고 평가받습니다.
gpt-oss-20b (소형 모델)
- 소비자용 16GB GPU 환경(예: 일반 개인 PC, 엣지 디바이스)에서 로컬 실행 가능
- OpenAI의 o3-mini 모델과 유사한 성능 제공
- 메모리 요구량이 비교적 낮아 로컬 환경에서 실용적
gpt-oss-120b (대형 모델)
- 고성능 서버급 GPU (예: 단일 NVIDIA H100 80GB) 필요
- OpenAI o4-mini와 비슷하거나 일부 벤치마크에서 더 우수한 성능을 보임
- 주로 프로덕션 환경이나 고성능 AI 작업에 적합
gpt-oss 모델 사용해보기
누구나 쉽게 ollama 라는 앱을 이용하여 이 모델을 개인의 PC에 설치해서 사용할 수 있습니다. wsl(linux)환경과 Windows환경에서의 설치 과정과 실행을 보여드리겠습니다.
WSL(Ubuntn 22.04 버전) ollama 설치 방법
curl -fsSL https://ollama.com/install.sh | sh
Windows11 설치 방법
ollama 공식 홈페이지(https://ollama.com/download/windows)에서 설치하면 됩니다. (매우 간단)
Download Ollama on Windows
Download Ollama for Windows
ollama.com
ollama를 설치했으면 터미널에서 아래 명령어로 모델을 다운로드 받고 구동시킬 수 있습니다.
ollama run gpt-oss:20b
wsl 환경에서 진행했는데, 가용 메모리가 부족해서인지 굉장히 느렸습니다.
- 제 컴퓨터의 PC는 16GB이고, 기본 8GB인 wsl의 최대 메모리를 12GB로 늘려서 진행해봤는데도 부족한 듯 합니다.
20b 모델을 사용하려면 가용 메모리가 넉넉해야 부담없이 사용할 수 있을 것 같습니다.

가장 큰 장점은 역시 외부 API 서비스에 의존하지 않고 무료로 직접 서버에 다운로드 받아서 API로 활용할 수 있다는 것입니다.