标签:deepseek

腾讯云 SA9 CPU 服务器硬刚 deepseek-r1-671b 满血版

腾讯云 SA9 CPU 服务器硬刚 deepseek-r1-671b 满血版

背景 不久前腾讯玄武实验室分享了一篇名为 DeepSeek-671B纯CPU部署经验分享 文章,再次引爆了大家用CPU跑大模型的热情。正好博主观察到腾讯云也发布了新一代的SA9服务器,忽然想到一个主意:试试用 DeepSeek-R1-Q8_0 虐一下 SA9 ? 相关产品 惯例,先介绍下今天的

穿过生命散发芬芳 穿过生命散发芬芳 2025-09-16
0 0 0
DeepSeek-V2 登上全球开源大模型榜首

DeepSeek-V2 登上全球开源大模型榜首

美国时间 2024年7月16日,LMSYS 组织的大模型竞技场(Chatbot Arena)更新结果发布,DeepSeek-V2-0628 超越 Llama3-70B、Qwen2-72B、Nemotron-4-340B、Gemma2-27B 等开源模型,登上全球开源模型榜首。 Chatbot

共饮一杯 共饮一杯 2024-07-20
0 0 0
开源日报 | 开源模型击败GPT-4 Turbo;Python考虑更改版本编号;开源大模型食用指南;你喜欢计算机/编程吗?

开源日报 | 开源模型击败GPT-4 Turbo;Python考虑更改版本编号;开源大模型食用指南;你喜欢计算机/编程吗?

欢迎阅读 OSCHINA 编辑部出品的开源日报,每天更新一期。 # 2024.6.19 今日要闻 彭博社:华为与腾讯接近达成协议,不向微信“抽成” 彭博社今日报道称:华为与腾讯即将达成协议,将免除微信的收入分成 (Revenue Sharing)。 via https://ww

宇宙之一粟 宇宙之一粟 2024-06-19
0 0 0
DeepSeek Coder V2 发布,首个击败 GPT-4 Turbo 的开源模型

DeepSeek Coder V2 发布,首个击败 GPT-4 Turbo 的开源模型

DeepSeek-Coder-V2 已正式上线和开源,沿用 DeepSeek-V2 的模型结构,总参数 236B,激活 21B,在代码、数学的多个榜单上位居全球第二,介于最强闭源模型 GPT-4o 和 GPT-4-Turbo 之间。 开源模型包含236B和16B两种参数规模: DeepS

捡田螺的小男孩 捡田螺的小男孩 2024-06-19
0 0 0
DeepSeek 发布全球最强开源 MoE 模型

DeepSeek 发布全球最强开源 MoE 模型

幻方量化旗下组织深度求索发布了第二代开源 MoE 模型:DeepSeek-V2。 据介绍,在目前大模型主流榜单中,DeepSeek-V2均表现出色: 中文综合能力(AlignBench)开源模型中最强,与GPT-4-Turbo,文心4.0等闭源模型在评测中处于同一梯队 英文综

捡田螺的小男孩 捡田螺的小男孩 2024-05-08
0 0 0
幻方发布全球最强MOE大模型! DeepSeekV2

幻方发布全球最强MOE大模型! DeepSeekV2

1. 介绍今天,我们介绍了DeepSeek-V2,这是一个强大的专家混合(MoE)语言模型,其特点是训练经济且推理高效。它总共包含236B个参数,每个token激活21B个。与DeepSeek 67B相比,DeepSeek-V2实现了更强的性能,同时节省了42.5%的训练成本,减少了93.3%的KV

法医 法医 2024-05-07
0 0 0