딥시크 엔비디아 칩
2025. 1. 30. — 딥시크가 엔비디아의 저사양 AI 가속기(AI 학습·추론에 특화한 반도체 패키지) 'H800'을 써서 반도체 관련 투자 비용을 미국 AI 기업 대비 10분의 1 수준 ...
딥시크 모델 훈련에는 엔비디아의 H800 칩이 사용됐지만, 이는 미 정부의 수출 규제를 피하기 위한 중국 수출용으로, 성능을 낮춘 것입니다. 엔비디아의
대신 이들은 엔비디아에 고사양 칩에 속하는 H100의 성능을 대폭 낮춘 H800을 공급 받고 있다. H800은 H100보다 데이터 전송속도가 55%나 낮은 초당 400GB
딥시크는 엔비디아의 이전 세대 A100 GPU 1만 개를 보유하고 있다고 밝혔다. 이 칩들은 미국이 중국 기업들이 이러한 최첨단 칩을 구매하는 것을 제한하기
딥시크 'R1'은 엔비디아 저사양칩 'H800' 2000개만 사용, 개발비는 챗GPT의 10% 미만인데 일부 성능은 더 뛰어나… "R1 오픈소스 공개, AI 주도권
딥시크가 개발 경과를 설명한 기술보고서에 따르면 챗GPT와 비슷한 성능의 '딥시크' 개발에 투입된 비용은 557만6000달러(약 78억8000만원)에 그친다.
딥시크 모델 훈련에는 엔비디아의 H800 칩이 사용됐지만, 이는 미 정부의 수출 규제를 피하기 위한 중국 수출용으로, 성능을 낮춘 것이다.