수집 정보 요약
수집 사이트 수 : 2 수집된 정보 : 1121773총 태그 수 : 13172 매칭된 태그 수 : 16588788
최근 업데이트 된 사이트 수 : 0 최근 한주 정보 : 0
세부 정보 보기
세부 정보 닫기
Midwest Cities Bake as Heat Wave Blankets the Central U.S.
news-openapi.naver.com |
Moe Nuhman, a 39-year-old jewelry trader, who was out walking three miles from his Rogers Par... |
화웨이 "자체 칩으로 엔비디아 칩 효율 능가"…새로운 데이터센터 아키...
news-openapi.naver.com |
이런 아키텍처는 특히 대규모 전문가 혼합(MoE) 모델의 병렬 처리나 분산 키-값(KV) 캐시 접근과 같은... 같은 MoE 모델을 위한 차세대 AI 서비... |
中 AI 스타트업 미니맥스 "딥시크보다 싸게 LLM 만들었다"
news-openapi.naver.com |
미니맥스가 공개한 자료에 따르면 M1은 전문가 혼합(Mixture of Experts, MoE) 아키텍처를 기반으로 개발됐다. MoE는 AI모델이 가지고 ... |
미니맥스, 에이전트·동영상 모델 잇달아 공개..."연내 상장 타깃"
news-openapi.naver.com |
이는 전문가 혼합(MoE) 아키텍처와 라이트닝 어텐션 메커니즘을 결합한 추론 특화 대형언어모델(LLM)로, 오픈 소스 최대인 100만 토큰에 달하는 컨텍스트 창과 '딥... |
칼럼 | 오픈AI의 ‘o3’ 가격 인하, ‘바이브 코더’의 판을 뒤흔들다
news-openapi.naver.com |
큐원(Qwen)3-235B-A22B (알리바바): 클로드급 추론력을 가진 아파치 2.0 기반 전문가 혼합(MoE) 모델이며, 토큰당 활성화되는 파라미터는 220억 개에... |
"4개월 만에 결과"···알리바바 AI로 中 '애플 인텔리전스' 先 탑재 임...
news-openapi.naver.com |
'덴스(Dense)' 구조는 모든 매개변수를 항상 활성화해 예측 가능한 성능과 저지연 처리를 제공하며 '전문가 혼합(MoE)' 구조는 입력에 따라 일부 전문가만 활성화... |
구글, 기업 타깃 '제미나이 2.5' 모델군 강화..."라인업 늘리고 가격 인...
news-openapi.naver.com |
또 '전문가혼합(MoE)' 구조를 채택, 다수의 매개변수 중 일부만 활성화함으로써 하드웨어 자원을 효율적으로 활용한다. 제미나이 2.5 프로는 최대 100만 토큰의 입... |
미니맥스, 100만 토큰까지 추론 가능한 '미니맥스-M1' 오픈 소스 공개
news-openapi.naver.com |
미니맥스는 16일(현지시간) 전문가 혼합(MoE) 아키텍처와 라이트닝 어텐션(Lightning Attention) 메커니즘을 결합한 추론 특화 대형언어모델(LLM) '... |
알리바바, 아이폰용 '큐원3' 출시..중국 아이폰에 AI 탑재 예고
news-openapi.naver.com |
반면, 전문가 혼합(MoE) 모델은 입력에 따라 일부 전문가만 활성화하는 구조로, 토큰당 5~10%의 매개변수만을... MoE 구조는 동일한 규모의 덴스 ... |
中 미니맥스, GPT-4o 넘는 100만 토큰 LLM 공개… 학습비용은 7억 원대
news-openapi.naver.com |
모델은 효율성을 극대화한 RL 알고리즘 ‘CISPO’로 학습됐고, *MoE(혼합 전문가)* 아키텍처와 고속 추론을 위한 ‘라이트닝 어텐션’ 메커니즘을 도입해 연산 비용... |
딥시크, 80억 원으로 오픈AI에 맞선다… AI 패권 전쟁 뒤흔든 '중국발 혁...
news-openapi.naver.com |
이러한 전략이 가능했던 배경에는 딥시크의 모델 아키텍처, 특히 트랜스포머 기반 ‘전문가 혼합(MoE)’ 구조가 존재한다. 해당 구조는 합성 데이터를 적절히 소화하면서도... |
AMD “10대 AI 기업 중 7곳이 우리 가속기 선택”
news-openapi.naver.com |
여기에는 젠 6 아키텍처 기반 ‘베니스’ 에픽 CPU와 펜산도 불카노 NIC를 탑재했으며, 이전 세대 대비 MoE 모델 추론 성능이 최대 10배 높다고 회사는 소개했다... |
[신간산책] '딥시크 AI 전쟁(DeepSeek AI WAR)'
news-openapi.naver.com |
딥시크는 '전문가 혼합(MoE)' 구조를 통해 연산량과 메모리 사용을 획기적으로 줄였고, 이는 중국의 자원 현실에 맞춘 전략이기도 했다. 마치 인텔의 전력 중심 시대에... |
AMD, 어드밴딩서 개방형 AI 생태계 비전 제시
news-openapi.naver.com |
AMD는 이전 세대 대비 MoE(Mixture of Experts) 모델 추론에서 최대 10배 더 높은 성능을 제공하는 MI400 시리즈 GPU를 기반으로 한 차세대 ... |
AMD, 'Advancing AI 2025'서 개방형 AI 생태계 비전 제시..."새로운 실리콘...
news-openapi.naver.com |
차세대 AMD Instinct MI400 시리즈 GPU를 기반으로 구축될 차세대 AI 랙 시스템의 코드네임 Helios는 이전 세대 대비 MoE(Mixture of E... |
Kulture Issue_Traveling through the history of Jeju Island with "Jeju Dar...
news-openapi.naver.com |
We now connect to Phyu Sin Moe Htet, who's in the middle of this tour, as part of Jeju Free I... |
유 지운 송 메타 부사장 “AI 인프라 속도 빠르다… 내년 MI400 준비” [A...
news-openapi.naver.com |
하지만 작년 말부터는 테스트타임 추론, 강화학습(RL), Mixture of Experts(MoE) 모델 등이 실서비스에 적용되며 새로운 컴퓨팅 수요가 폭발하고 있다&... |
이지에이아이, 싱가포르 '아시아테크' 참가…산업안전 AI기술 선봬
news-openapi.naver.com |
항만청(MPA) 공공주택공사(HDB), 교육부(MoE) 등 약 80여 명의 정부기관 관계자들을 대상으로 국내 산업안전 AI보급 및 확산 성과를 소개했다. 이지에이아이 ... |
애플, 파운데이션 모델 벤치마크 공개..."경쟁사 추격 어려움 드러내"
news-openapi.naver.com |
여기에는 ▲30억개의 매개변수를 갖는 온디바이스 AI용 모델과 ▲프라이빗 클라우드 컴퓨팅에 최적화된 새로운 아키텍처를 갖춘 전문가 혼합(MoE) 클라우드 모델 등 2종... |
'틱톡 대안' 샤오홍슈도 오픈 소스 LLM 경쟁 합류
news-openapi.naver.com |
닷츠llm1은 1420억개의 매개변수 중 140억개만 선택적으로 활성화하는 '전문가 혼합(MoE)' 구조를 채택했다. 이는 연산 효율성을 높이면서도 경쟁 모델과 유사한... |
중국 AI 기술 점입가경…화웨이, 깜짝 놀랄 소식 발표했다
news-openapi.naver.com |
화웨이의 대형언어모델(LLM) 개발팀인 판구(Pangu)팀은 지난달 28일 논문저장 사이트 ‘arXiv’에 공개한 ‘판구 프로 MoE’란 논문에서 딥시크가 ‘저비용 고... |
NIPA, '한국-싱가포르 AI 혁신 기술 교류전' 개최
news-openapi.naver.com |
홈팀과학기술청(HTX), 정보통신기술청(IMDA) 뿐만 아니라 싱가포르 경찰청(SPF), 소방청(SCDF), 교도국(SPS), 항만청(MPA), 공공주택공사(HDB), 교육부( |
화웨이, AI 훈련기술 개발…"딥시크보다 효율적"
news-openapi.naver.com |
SCMP에 따르면 화웨이의 대형언어모델(LLM) 개발팀인 판구(Pangu)팀은 지난달 28일 논문저장 사이트 'arXiv'에 공개한 '판구 프로 MoE'란 논문에서 딥... |
화웨이, 자사 칩 활용한 AI 훈련기술 개발…"딥시크보다 효율적"
news-openapi.naver.com |
화웨이의 대형언어모델(LLM) 개발팀인 판구(Pangu)팀은 지난달 28일 논문저장 사이트 'arXiv'에 공개한 '판구 프로 MoE'란 논문에서 딥시크가 '저비용 고... |
화웨이, '전문가 그룹화' AI 학습기술 개발…"딥시크보다 낫다"
news-openapi.naver.com |
프로 MoE’라는 논문을 공개하고 ‘그룹화 전문가 혼합(MoGE)’ 모델을 소개했다. 이는 딥시크가 활용한 ‘전문가 혼합(MoE)’ 모델을 한 단계 더 개... |
한국 AI 기업 10곳, 싱가포르 정부기관에 기술 소개
news-openapi.naver.com |
행사에는 HTX·IMDA 뿐만 아니라 싱가포르 경찰청(SPF), 소방청(SCDF), 교도국(SPS), 항만청(MPA), 공공주택공사(HDB), 교육부(MoE) 등 현지... |
한국 AI 기술, 싱가포르 공공기관 문 두드리다…NIPA 주관 교류회 성료
news-openapi.naver.com |
이번 행사에는 싱가포르 경찰청(SPF)·소방청(SCDF)·교도국(SPS)·항만청(MPA)·공공주택공사(HDB)·교육부(MoE) 등 다수의 정부 기관에서도 80여 명의 ... |
미얀마 대지진 참사 현장, 사가잉을 가다
news-openapi.naver.com |
▲ 사가잉 지진 피해 현황 브리핑 현지인 모과과씨가 사가잉 지진 피해 현황을 설명합니다 ⓒ 강태우 만달레이 지역 유지로 자원봉사를 이어가고 있는 모 과과(Moe Kya... |
Canada Carney Premiers
news-openapi.naver.com |
Canada Carney Premiers Premier of Saskatchewan Scott Moe, from left, Prime Minister Mark Carn... |
Low Turnout in Mexico’s Far-Reaching Judicial Election Fuels Legitimacy...
news-openapi.naver.com |
“So I just picked eeny, meeny, miny, moe to see how it turns out.” Viri Ríos, a political ana... |