谁能想到DeepSeek为了搞大模型自己弄了套文件系统?股票正规炒股配资
2月28日,DeepSeek开源周的最后一天,DeepSeek直接公开了V3和R1训练推理过程中用到的Fire-Flyer文件系统(简称3FS,第三个F代表File)和基于3FS和DuckDB构建的轻量级数据处理框架Smallpond。

图片来源:X
3FS是一个真正意义上面向现代SSD(固态硬盘)和RDMA(远程直接访问)网络的文件系统,它可以把固态硬盘的带宽性能利用到极致,并表现出了惊人的速度:180节点集群中的聚合读取吞吐量为6.6TiB/s;25节点集群中GraySort基准测试的吞吐量为3.66TiB/分钟;每个客户端节点的KVCache查找峰值吞吐量超过40GiB/s。
KCORES联合创始人karminski-牙医评价道:“DeepSeek颠覆了存储架构。”

图片来源:X
根据DeepSeek团队介绍,3FS就是为了AI训练和推理工作负载的挑战所开发的。它利用现代SSD和RDMA网络来提供共享存储层,从而简化分布式应用程序的开发。
它可以在没有双方操作系统介入的情况下,将数据直接从一台计算机的内存传输到另一台计算机,也不需要中央处理器、CPU缓存或上下文交换参与。特点就是高通量、低延迟,尤其适合在大规模并行计算机集群中使用。
那这样方便的系统,有什么作用呢?每经小编请DeepSeek大模型用白话来解答这一问题。

而在DeepSeek开源3FS文件系统前几个小时,OpenAI推出了期待已久的GPT-4.5,之前这个模型的代号为“Orion”。OpenAI声称这是其迄今最大、知识最丰富的模型,现已向每月订阅费用达200美元的ChatGPT Pro用户开放。
OpenAI首席执行官阿尔特曼表示,新模型的运行成本太高了,下周OpenAI将增加数万块GPU,提供算力支撑。
在马斯克旗下xAI的Grok 3发布时,大家都兴奋地表示,Scaling Law(规模法则)还没有撞墙。但GPT-4.5一出,外界发现,OpenAI“撞墙”了。
GPT-4.5的预训练计算量是GPT-4的10倍,但是基准测试只比4o好5%。在AIME和GPQA等困难的学术基准测试中,GPT-4.5的表现也达不到o3-mini、DeepSeek-R1和Claude 3.7 Sonnet等领先AI推理模型的水平。

图片来源:X
阿尔特曼都只能解释道,虽然它又贵,又慢,又不够好。但是它有人情味儿。
有博主测评后表示,GPT-4.5这情商高得直接把智商干没了。

图片来源:数字生命卡兹克
而GPT-4.5的价格也是高到离谱,每百万Tokens输出价格150美元(约合人民币1093.5元),是其他模型的10~100倍,更别说和DeepSeek比了。
2月26日,DeepSeek宣布了错峰价格制度,DeepSeek-R1在高峰期每百万Tokens输出价格为2.19美元(约合人民币15.9元),低谷期的价格仅为0.55美元 (约合人民币4元)。以低谷期的价格计算,GPT-4.5的价格是DeepSeek-R1的近270倍。

图片来源:X
DeepSeek为何能做出成本高效的AI模型呢?从这周开源的五大项目就能看出来,DeepSeek主打的就是“榨干”硬件性能。
第一天:FlashMLA架构,直接“爆改”英伟达GPU,突破H800计算上限;
第二天:DeepEP,第一个用于MoE(混合专家)模型训练和推理的开源EP(专家并行)通信库,提供高吞吐量和低延迟的all-to-all GPU内核;
第三天:DeepGEMM,仅300行代码的通用矩阵乘法库;
第四天:连开三源,创新的双向流水线并行算法DualPipe、用于MoE的负载均衡算法EPLB,以及训练和推理框架的性能分析数据;
第五天:3FS和Smallpond,高效的分布式文件系统和以之为基础的数据处理框架压榨固态硬盘性能。
在DeepSeek的数弹连发后,有网友称,DeepSeek成领头羊了。

图片来源:X
那让我们来看看,DeepSeek是怎么评价GPT-4.5这一模型的吧。

所以说,与其用OpenAI的天价模型股票正规炒股配资,真不如使用DeepSeek更高效的R1模型。