link 세부 정보
정보 바로가기 : 中 AI 스타트업 미니맥스 "딥시크보다 싸게 LLM 만들었다"
中 AI 스타트업 미니맥스 "딥시크보다 싸게 LLM 만들었다"[카테고리 설정이 아직되어 있지 않습니다.]
미니맥스가 공개한 자료에 따르면 M1은 전문가 혼합(Mixture of Experts, MoE) 아키텍처를 기반으로 개발됐다. MoE는 AI모델이 가지고 있는 매개 변수 중 필요한 부분만 활성화해 연산 성능을 높일 수 있는 아키텍처다....