Dense FP16, MoE, AWQ 뭔 말이야? | AI 모델 용어 완벽 정리 (2026년)
Hugging Face에서 AI 모델을 다운로드하려고 보면 Dense-FP16, MoE-8x7B, AWQ-4bit 같은 이름이 붙어있죠. 처음 보면 무슨 암호 같아서 당황스러운데요. 오늘은 이 용어들이 정확히 무엇을 뜻하는지, 왜 중요한지를 초보자 눈높이에서 하나씩 풀어보겠습니다. 이 글 하나로 모델 이름만 보고도 "아, 이건 이런 모델이구나" 판단할 수 있게 되실 거예요!📑 목차1. 숫자의 정밀도 — FP32, FP16, BF16이 뭔가요?2. 모델 구조 — Dense vs MoE3. 양자화(Quantization) — AWQ, GPTQ, GGUF4. 실전 정리표 — 어떤 모델을 선택해야 할까?💡 꿀팁 모음🔹 1. 숫자의 정밀도 — FP32, FP16, BF16이 뭔가요?AI 모델의 핵심은 결국 ..
2026. 3. 24.
▲ TOP