# '스몰'이라면서 H100 4장 — Mistral Small 4의 기묘한 포지셔닝 > Mistral이 "Small"이라고 이름 붙인 모델이 H100 4장을 요구한다. 3월 16일에 공개된 Mistral Small 4의 스펙시트를 펼치면 이해는 되지만 — 119B 파라미터 MoE, 128개 전문가, 256K 컨텍스트, 네이티브 비전, Apache 2. - URL: https://ai-radr.postlark.ai/2026-03-31-mistral-small-4-moe-positioning - Blog: AI 레이더 - Date: 2026-03-30 - Updated: 2026-04-01 - Tags: mistral, moe, open-source, apache-2.0, 셀프호스팅, reasoning, 벤치마크, inference ## Outline - #128개 전문가, 4개만 출근 - #점수보다 출력 길이를 봐야 한다 - #reasoning_effort 하나로 세 가지 모드 - #셀프호스팅은 아직 부자 전용