MetaStone AI의 XBai o4는 2025년 8월 1일에 출시되었으며, 복잡한 추론 작업에서 OpenAI-o3-mini를 능가하는 4세대 오픈소스 언어 모델입니다. 중국에서 개발된 이 모델은 고급 훈련 기술과 최적화된 추론을 도입하여 AI 개발의 판도를 바꿀 것입니다. GitHub와 Hugging Face에서 사용할 수 있는 XBai o4는 투명성과 협업을 촉진합니다.
XBai o4의 부상: 기술 개요
MetaStone AI가 개발한 XBai o4는 오픈소스 AI 기술의 도약을 의미합니다. 독점 모델과 달리, XBai o4의 코드베이스와 가중치는 GitHub 및 Hugging Face에서 공개적으로 사용할 수 있어 투명성과 협업을 촉진합니다. 특히 이 모델은 Long-CoT 강화 학습과 프로세스 보상 학습을 통합하는 "반사적 생성 형태"라는 새로운 훈련 접근 방식을 활용합니다. 결과적으로 이 통합 프레임워크는 XBai o4가 심층 추론 및 고품질 추론 궤적 선택에서 탁월한 성능을 발휘하도록 하여, 이전 모델 및 OpenAI-o3-mini와 같은 경쟁 모델과 차별화됩니다.

또한 XBai o4는 정책 보상 모델(PRM)과 정책 모델 간에 백본 네트워크를 공유하여 추론 효율성을 최적화합니다. 이러한 아키텍처 선택은 PRM의 추론 비용을 99%나 크게 절감하여 더 빠른 응답 시간과 더 높은 품질의 출력을 제공합니다. 예를 들어, 모델의 매개변수는 정책 모델 체크포인트용 model.safetensors
와 SPRM 헤드용 별도 파일의 두 가지 고유한 파일에 저장되며, 이는 Hugging Face 저장소에 자세히 설명되어 있습니다.
반사적 생성 형태 이해하기
XBai o4 성공의 초석은 반사적 생성 형태에 있습니다. 이 훈련 패러다임은 두 가지 고급 기술을 결합합니다:
- Long-CoT 강화 학습: 이 방법은 강화 학습을 통합하여 확장된 맥락에서 모델의 추론 과정을 정교화함으로써 CoT(Chain-of-Thought) 프롬프팅을 확장합니다. 그 결과, XBai o4는 복잡한 다단계 문제를 더 높은 정확도로 처리할 수 있습니다.
- 프로세스 보상 학습: 이 접근 방식은 훈련 중에 고품질 추론 궤적을 선택하는 모델에 보상을 제공합니다. 결과적으로 XBai o4는 최적의 추론 경로를 우선시하는 방법을 학습하여 미묘한 의사 결정이 필요한 작업에서 성능을 향상시킵니다.
이러한 방법들을 통합함으로써 XBai o4는 심층 추론과 계산 효율성 사이의 균형을 이룹니다. 또한, 공유 백본 네트워크는 중복성을 최소화하여 모델이 품질 저하 없이 입력을 더 빠르게 처리할 수 있도록 합니다. 이러한 혁신은 효율적이지만 동일한 수준의 오픈소스 접근성과 최적화된 추론 기능을 갖추지 못한 OpenAI-o3-mini와 비교할 때 특히 중요합니다.
XBai o4와 OpenAI-o3-mini 비교
OpenAI의 광범위한 o3 시리즈의 소형 버전인 OpenAI-o3-mini는 중간 복잡도 작업에서 효율성을 위해 설계되었습니다. 그러나 MetaStone AI의 GitHub 발표에 따르면 XBai o4는 중간 모드에서 OpenAI-o3-mini를 "완전히 능가"한다고 주장합니다.

이 주장을 이해하기 위해 주요 성능 지표를 살펴보겠습니다:
- 복잡한 추론: XBai o4의 반사적 생성 형태는 수학적 벤치마크(예: AIME24)와 같은 복잡한 추론 작업을 우수한 정확도로 처리할 수 있게 합니다. 이와 대조적으로, OpenAI-o3-mini는 유능하지만 확장된 추론 체인이 필요한 작업에서는 어려움을 겪습니다.
- 추론 속도: PRM 추론 비용을 99% 절감함으로써 XBai o4는 더 빠른 응답을 제공하여 실시간 애플리케이션에 이상적입니다. OpenAI-o3-mini는 속도에 최적화되어 있지만, 오픈소스 환경에서는 이 정도의 효율성에 미치지 못합니다.
- 오픈소스 접근성: GitHub 및 Hugging Face와 같은 플랫폼에서 XBai o4를 사용할 수 있으므로 개발자는 모델을 자유롭게 사용자 정의하고 배포할 수 있습니다. 반대로 OpenAI-o3-mini는 독점 모델로 남아 있어 연구 및 개발에 대한 적응성이 제한됩니다.
예를 들어, MetaStone AI의 GitHub 저장소에 설명된 수학적 벤치마크 테스트 파이프라인은 XBai o4가 AIME24와 같은 작업을 높은 정밀도로 처리하는 능력을 보여줍니다. 이 파이프라인은 score_model_queue.py
및 policy_model_queue.py
와 같은 스크립트를 사용하여 성능을 평가하며, 최적화된 어텐션 메커니즘을 위해 XFORMERS와 같은 도구를 활용합니다.
XBai o4의 기술적 구현
XBai o4를 배포하려면 GitHub 저장소에 설명된 대로 견고한 설정이 필요합니다. 다음은 제공된 지침을 기반으로 한 간소화된 설정 가이드입니다:
환경 설정:
- Python 3.10으로 Conda 환경 생성:
conda create -n xbai_o4 python==3.10
. - 환경 활성화:
conda activate xbai_o4
. - 종속성 설치:
pip install -e verl
,pip install -r requirements.txt
, 및pip install flash_attn==2.7.4.post1
.
훈련 및 평가:
- 분산 컴퓨팅을 위한 Ray 시작:
bash ./verl/examples/ray/run_worker_n.sh
. - 다중 노드 훈련 시작:
bash ./scripts/run_multi_node.sh
. - 수학적 벤치마크를 위한 테스트 파이프라인 실행:
python test/inference.py --task 'aime24' --input_file data/aime24.jsonl --output_file path/to/result
.
API 통합:
- 빠른 평가를 위한 정책 모델 API 실행:
CUDA_VISIBLE_DEVICES=0 python test/policy_model_queue.py --model_path path/to/huggingface/model --ip '0.0.0.0' --port '8000'
. - Apidog와 같은 도구를 사용하여 이러한 API를 테스트하고 관리하여 더 큰 시스템에 원활하게 통합되도록 합니다.
이 설정은 연구 및 프로덕션 환경 모두에서 XBai o4의 유연성을 강조합니다. 또한, Apidog와 같은 도구와의 모델 호환성은 API 테스트를 간소화하여 개발자가 엔드포인트를 효율적으로 검증할 수 있도록 합니다.
벤치마크 성능 및 평가
MetaStone AI의 릴리스 노트는 AIME24와 같은 수학적 벤치마크에서 XBai o4의 우수한 성능을 강조합니다. GitHub 저장소에 자세히 설명된 테스트 파이프라인은 정책 및 점수 모델 API 조합을 사용하여 모델의 추론 능력을 평가합니다. 예를 들어, inference.py
스크립트는 aime24.jsonl
과 같은 입력 파일을 처리하고 16개의 샘플로 결과를 생성하며, 속도를 위해 여러 API 엔드포인트를 활용합니다.

또한, 모델의 성능은 메모리 사용량과 계산 속도를 최적화하는 XFORMERS 어텐션 백엔드에 의해 향상됩니다. 이는 GPU 지원 시스템에서 효율적인 처리를 보장하는 VLLM_ATTENTION_BACKEND=XFORMERS
구성에서 특히 분명합니다.
이와 대조적으로, OpenAI-o3-mini는 일반적인 작업에 효과적이지만, 평가 과정에서 동일한 수준의 투명성을 제공하지 않습니다. XBai o4의 오픈소스 특성은 연구자들이 벤치마크를 면밀히 조사하고 복제할 수 있도록 하여 성능 주장에 대한 신뢰를 높입니다.
커뮤니티 반응 및 회의론
AI 커뮤니티는 XBai o4의 출시에 대해 기대와 회의가 뒤섞인 반응을 보였습니다. 예를 들어, r/accelerate의 Reddit 게시물은 모델의 잠재력을 강조하면서도 Llama-4와 같은 모델의 과거 문제를 언급하며 벤치마크 과적합에 대한 우려를 제기합니다. 일부 사용자는 Qwen과 같은 기존 조직에 비해 비교적 새로운 플레이어인 MetaStone AI의 신뢰성에 의문을 제기합니다. 그럼에도 불구하고, XBai o4의 가중치와 코드의 오픈소스 가용성은 독립적인 검증을 장려하며, 이는 시간이 지남에 따라 의심을 해소할 수 있습니다.
예를 들어, Threads의 한 사용자는 mlx-lm
백엔드를 사용하여 M4 Max에서 XBai o4를 테스트했으며, 추론 작업에서 "1+1 바이브 테스트"를 통과했다고 언급했습니다. 그러나 복잡한 시각화(예: 역운동학) 렌더링과 같은 과제는 개선이 필요한 영역을 시사합니다.
API 테스트를 위한 Apidog 통합
XBai o4를 워크플로에 통합하려는 개발자에게는 Apidog와 같은 도구가 매우 유용합니다. Apidog는 XBai o4의 평가 파이프라인에서 사용되는 API와 같은 API를 테스트하고 관리하는 프로세스를 간소화합니다. http://ip:port/score
와 같은 엔드포인트로 요청을 보내는 사용자 친화적인 인터페이스를 제공함으로써 Apidog는 개발자가 복잡한 수동 구성 없이 모델 성능을 검증할 수 있도록 보장합니다. 또한, 무료 다운로드가 가능하여 연구원과 취미 개발자 모두에게 접근성이 좋으며, XBai o4의 오픈소스 정신과 일치합니다.

예를 들어, 개발자가 Apidog를 사용하여 XBai o4의 정책 모델 API를 테스트하는 시나리오를 고려해 보세요. 엔드포인트 URL과 매개변수(예: --model_path
및 --port
)를 구성함으로써 Apidog는 테스트 요청을 보내고 응답을 분석하여 디버깅 프로세스를 간소화할 수 있습니다. 이 통합은 GitHub 설정 지침에서 권장하는 바와 같이 여러 노드에 걸쳐 평가를 확장하는 데 특히 유용합니다.
오픈소스 AI의 미래적 함의
XBai o4의 출시는 고급 기술에 대한 접근을 민주화하는 데 있어 오픈소스 AI의 중요성이 커지고 있음을 강조합니다. OpenAI-o3-mini와 같은 독점 모델과 달리, XBai o4는 개발자가 특정 사용 사례에 맞게 모델을 사용자 정의하고 확장할 수 있도록 합니다. 예를 들어, 그 반사적 생성 형태는 과학 연구, 금융 모델링 또는 자동 코드 생성과 같은 분야에 적용될 수 있습니다.
또한, 모델의 효율성 향상은 자원 제약이 있는 환경에 대규모 언어 모델을 배포할 수 있는 길을 열어줍니다. 추론 비용을 절감함으로써 XBai o4는 소비자용 하드웨어에서 정교한 AI를 실행하는 것을 가능하게 하여 잠재적 응용 분야를 넓힙니다.
그러나 여전히 과제는 남아 있습니다. AI 커뮤니티의 회의론은 성능 주장을 검증하기 위한 엄격하고 투명한 벤치마킹의 필요성을 강조합니다. 또한, XBai o4가 추론에서 탁월하지만, 커뮤니티 피드백에서 언급된 바와 같이 시각화 기능(예: 역운동학)은 추가적인 개선이 필요합니다.
결론: AI 생태계에서 XBai o4의 위치
요약하자면, XBai o4는 오픈소스 AI 분야에서 상당한 진전을 나타내며, OpenAI-o3-mini에 비해 우수한 추론 능력과 효율성을 제공합니다. Long-CoT 강화 학습과 프로세스 보상 학습을 결합한 그 반사적 생성 형태는 복잡한 문제 해결을 위한 새로운 기준을 제시합니다. 또한, GitHub 및 Hugging Face에서의 오픈소스 가용성은 협업과 혁신을 촉진하여 개발자와 연구자에게 귀중한 자원이 됩니다.
XBai o4의 기능을 탐색하려는 사람들을 위해 Apidog와 같은 도구는 API를 효율적으로 테스트하고 통합하는 방법을 제공하여 실제 애플리케이션에 원활하게 배포할 수 있도록 합니다. AI 환경이 계속 발전함에 따라 XBai o4는 오픈소스 혁신의 힘을 증명하며, 독점 모델에 도전하고 AI가 달성할 수 있는 것의 한계를 뛰어넘고 있습니다.
