DeepSeek把成本打下来了,反而需要更多的GPU?
原创 叶知秋 | 2025-03-07 21:50
【数据猿导读】 还记得小学课本上的“两小儿辩日”的场景么?在AI领域,DeepSeek的横空出世,也衍生出了一个关于“算力需求到底是变少了还是变多了”的辩题。

还记得小学课本上的“两小儿辩日”的场景么?在AI领域,DeepSeek的横空出世,也衍生出了一个关于“算力需求到底是变少了还是变多了”的辩题。
也许,你在一些AI行业峰会上,甚至身边朋友那,可能会遇到下面这样的辩论:
A:“DeepSeek的问世,简直是AI领域的一次革命!它通过极大降低大模型训练和推理的成本,原本难以企及的计算任务,如今都变得轻而易举。这直接导致了英伟达股价的暴跌,大家都在讨论,算力的瓶颈将不再存在,GPU市场可能迎来一场萎缩。”
B:“你错得离谱!DeepSeek的确让训练成本降低了,但这背后隐藏的,是算力需求的爆发。它不仅没有减少对GPU的需求,反而加速了对算力的渴求!因为模型的能力一旦提升,用户的需求就不再是‘偶尔’使用,而是‘深度’依赖,甚至是‘日常’需求。你怎么能认为需求会停滞?”
A:“你看看,英伟达的股价已经暴跌了,而且,微软在算力投资上似乎也开始变得谨慎了。模型需要的算力越来越少,那算力就会变得低廉甚至过剩,那我们还屯那么多GPU干什么,当饭吃么?”
B:“你错了!当算力消耗变得低廉,更多的复杂任务将不再被视为负担,反而会成为标准操作。你想想,DeepSeek让模型能够处理更复杂的事务,意味着接下来我们要处理的数据量、任务的复杂度,都会成倍增长。这种增长不可能局限于短期,它将在未来呈现指数级扩张。而这会导致我们对算力和GPU的需求,呈现出爆发式的增长。”
那么,到底是谁对谁错呢?是不是像“中医还是西医好”这个话题一样,成为一个永远的悬案呢?其实不是,我们觉得答案很明显——算力需求没有因为DeepSeek的出现变少,而是变得更多了。至于理由,接下来,我们一条一条的分析。
DeepSeek是降低了算力成本,但也释放了需求
诚然,DeepSeek在成本下降方面带来的冲击波,的确很大。通过创新的训练策略显著降低了AI模型的训练和推理成本,其V3模型仅用约2000张H800 GPU训练,总成本不超过600万美元。此外,DeepSeek在推理成本上也极具优势,每百万Token输入成本仅为1元。这种低成本模式使得AI开发门槛大幅降低,推动了AI技术的普及和商业化进程。
而且,DeepSeek的低成本策略对英伟达股价的确带来了立竿见影的冲击。2025年1月27日,DeepSeek开源模型推出后,英伟达股价暴跌17%,市值蒸发近6000亿美元。
但是,英伟达最近发布了年报,从年报数据来看,业绩非常好,似乎并没有受多大影响。
更重要的是,美国那边似乎并没有放慢大规模投资算力的步伐。例如:Meta计划打造史上最大的AI数据中心,预计投资超过2000亿美元;OpenAI、软银和甲骨文将共同投资5000亿美元用于“星际之门”项目;微软计划在2025财年投资800亿美元用于AI智算中心建设。
当我们把视线放在国内,如果算力需求真的下降了,甚至出现算力过过剩了,那DeepSeek官网总是“服务器繁忙”又怎么解释?
更多的用户,意味着更大的算力消耗
2024年,虽然国内发布了很多大模型产品,甚至出现了“百模大战”的盛况。但说实话,很多大模型产品的能力着实不敢恭维。由于能力的限制,尽管投入了大量的资源和市场推广,始终未能触及用户需求的深层次。结果是,用户的数量和活跃度一直处于一个相对瓶颈的状态,日活跃用户突破千万级别就已经是很难了。
然而,DeepSeek的能力获得突破。人们突然发现,大模型居然可以这么强,真的能解决不少问题了,而不是一个可有可无的“玩具”。
这一点,正是它迅速突破用户量瓶颈的核心原因。从早期的数百万用户,DeepSeek在短时间内便突破了千万、亿级用户的限制,并且这只是开始。未来,随着DeepSeek及其后续技术的不断迭代,我们可以预计到,用户接入量将继续以指数级的速度增长,从单纯的千万级别,到数亿、甚至十亿级的用户接入,这一切都在眼前。
DeepSeek的强大能力不仅仅改变了AI的应用方式,它还推动了用户群体的“破圈”效应。从以往只能在科技行业、数据科学家或企业高管中应用的局限,DeepSeek的突破让它真正实现了对多元化用户群体的全面覆盖。
从学生、家庭主妇、退休人员,到职场新人、创业者、创意工作者,DeepSeek的能力逐步突破了传统的专业壁垒,将AI真正带入了每个人的日常生活。比如,学生利用DeepSeek进行个性化学习辅导,家庭主妇用它规划智能家居并处理日常任务,创意工作者借助AI进行内容创作,甚至是老人也能通过DeepSeek与智能助手进行日常交流,获取健康建议和生活指南。
可以说,DeepSeek让大模型实现了“破圈”,从一个小众的前沿科技产品,在短短一两个时间就变成全名普及的产品。这海啸般的新用户,也意味着海啸般的算力需求。而一旦接不住,那“服务器繁忙”就成了一种必然。
不仅用的人多了,还用得更频繁了
随着模型能力的增强,不仅用户数量会指数级增长,单个用户的使用频率也会显著增加。
随着模型越来越精准、越来越全面,迅速从偶尔使用的“工具”,变成了每个用户的日常依赖。这种依赖并非是偶尔的需求,而是通过日常化、频繁化的任务处理,深入到每个用户的生活和工作当中。
比如,在办公场景中,DeepSeek的强大能力使得它成为了员工日常工作中不可或缺的一部分。原本员工或许只是偶尔用它查查资料,询问下某些问题,但是随着模型越来越智能,它不仅能快速给出准确的回答,还能结合上下文给出建议和分析,帮助员工提升效率。
假设一个产品经理每天都会问DeepSeek关于市场动态、竞品分析以及文案优化的建议,最开始或许他是每周才用几次,但随着DeepSeek能力的增强,经理逐渐发现,几乎每天都能从DeepSeek那里获取到更高效、更精准的工作辅助,从而逐步提升使用频率。一个简单的问答需求,逐步发展成了日常工作的常规支持,甚至是在不同环节中反复调用AI助手。
在教育领域,尤其是针对学生的个性化学习应用,DeepSeek同样显示出强大的潜力。也许,学生不仅依赖它来解答数学问题,还是日常学习的一部分。比如,学生每天早上可能会用DeepSeek帮助自己理解一个新概念,或者检查一下作业的答案;课间时,可能会再次询问DeepSeek某个历史事件的细节,甚至在晚上自习时,向DeepSeek请教一些难懂的课本内容。这种从偶尔一问到天天依赖的转变,让DeepSeek成为了学生每天复习和学习的伴侣。
同样,在创意行业,DeepSeek的能力提升也能让设计师、作家等职业的用户,频繁地进行交互。对于设计师来说,DeepSeek不仅仅是“设计建议”的来源,它能帮忙生成创意草图,提供色彩搭配建议,甚至给出符合市场趋势的设计灵感。最初,设计师或许只是偶尔使用它来获得灵感,但随着模型越来越强大,设计师发现,很多小的修改都能通过DeepSeek轻松完成,从而每天、甚至一整天都在和它进行互动。
在个人健康管理领域,DeepSeek的作用也正在逐步加深。越来越多的人开始依赖AI模型来进行个性化的健康建议、疾病预防、营养规划等。比如,用户可以通过DeepSeek记录每日的饮食和运动情况,并询问它关于健康饮食、运动方案的建议。现在,很多人感觉身体不适,第一反应可能不是找医生,而是找DeepSeek问一问,先分析一下自己的健康状况。
对于普通消费者,DeepSeek的应用场景同样广泛。很多人可能最初只是偶尔用它来查天气、询问食谱,但随着它不断优化和升级,用户的需求也会不断增长。比如,家里的家务管理、孩子的作业辅导,甚至日常购物和旅游规划,都可能成为用户每天询问DeepSeek的内容。想象一下,一位家长每天都向DeepSeek询问孩子的学习情况,或者请它为家庭成员定制健康食谱,每次与DeepSeek的互动,都是一次计算任务的启动。这些看似简单的日常需求,累积起来,同样会对算力产生持续的消耗。
从一个偶尔查询的工具,DeepSeek逐渐转变为一个全天候、无时不在的智能助手。这种变化虽然表面上看起来只是用户行为的转变,但它背后所带来的算力消耗,却是巨大的。每一次用户的提问、每一次模型的响应,都是算力消耗的累积,而这也意味着,随着使用频率的提升,对算力的需求只会越来越大。
能力越强,就会让他做越难的事情
随着大模型能力的不断增强,用户对它的依赖不仅停留在日常的简单查询或生成任务上,而是逐步深入到复杂的决策支持和多步骤的任务执行中。这种转变标志着人类与AI交互的深度提升,不再是“简单问答”那么单一,而是走向了更加复杂、跨领域的深度协作。
举个例子,在软件开发领域,程序员最初使用大模型可能仅仅是为了快速获取某个技术问题的答案或代码段。然而,随着模型能力的提升,程序员将开始依赖它来解决更为复杂的开发问题。例如,在开发一款大型应用时,开发团队可能需要模型帮助他们设计架构、选择技术栈、进行系统优化,甚至在开发过程中通过模型进行动态的性能调优和bug修复。
这个过程不仅涉及大量的推理和决策,还需要模型与开发人员之间进行持续的互动与反馈,每一步的优化和调整都可能是实时的,反映着一个不断变化的系统。这不仅仅是生成几行代码,而是从需求分析到架构设计,再到开发过程中的实时调优和错误修复,每一环都需要模型进行高频次的计算和推理。
另一例子是股票投资领域,对于投资者来说,最初他们可能只希望模型能简单回答某只股票的基本信息或趋势预测。然而,随着模型的能力提升,投资者开始要求它提供更复杂的决策支持,如多种投资策略的评估、实时数据分析、风险预测和资产配置建议。这时,模型不仅需要整合宏观经济数据、行业动态和公司财报,还要根据不同的市场环境实时调整预测,甚至在投资组合发生变化时,立即提供调整建议。
这一过程不是单纯的数值计算,而是一个多变量、多层次的推理过程,模型需要通过不断的反馈和优化来支持投资决策。每一次市场波动,模型都需要重新分析,调整投资策略,实时提供决策建议。
这些任务的复杂性,决定了算力需求的急剧增加。这种需求并非线性增长,而是随着任务复杂性的提升,呈现出指数级的加速增长。算力的需求将不仅仅是简单的叠加,而是一个不可忽视的“爆发式增长”。而这种增长,是任何技术成本的下降所无法完全抵消的。
我们马上就将见证“模态灾难”
目前,大部分主流的大模型应用依赖的是单一模态:文本生成、图像生成。比如,DeepSeek的强大文本生成功能,已经能够在各类对话式应用中,帮助用户高效获取信息,生成各类创意内容。而在视觉领域,类似MidJourney、DALL·E等图像生成模型已经能够让用户快速创作出令人惊叹的图像。然而,这些应用的算力需求相对有限,主要集中在对已有数据的生成和处理上,尽管它们已经足够强大,但它们的算力消耗还是在某个范围内可控。
然而,随着大模型能力的提升,下一步的发展将是多模态的融合——尤其是图像生成向视频生成、3D建模以及虚拟环境创造的扩展。这一转变,将让算力需求的增长呈现几何级数的爆发,并使现有的计算资源面临前所未有的压力。
当前,图像生成任务已经在一定程度上推动了GPU算力的增长,但这一阶段的算力需求仍属于可控范围。视频生成任务,尤其是需要高质量和高分辨率的生成,将是算力需求急剧增长的一个节点。例如,要生成一段3D虚拟环境中的视频,模型不仅需要处理丰富的视觉细节,还需要实时生成场景的动态变化、光影效果以及物体间的交互。而这些操作,要求模型不仅具备强大的图形处理能力,还要具备超高的计算速度和精度——每一秒钟的画面,都需要通过复杂的计算来保证流畅、自然的呈现。
更进一步,3D虚拟空间建模和虚拟现实,甚至全息影像的生成,将彻底改变我们对计算资源的认知。3D建模与虚拟现实的结合,不仅仅是生成一个静态场景,更是需要模拟一个充满动态交互的虚拟世界。
比如,在虚拟现实中,用户不仅能看到自己身处的虚拟环境,还可以与环境中的对象进行互动,甚至参与到实时变化的虚拟情境中。这一切,都需要极其强大的算力来支撑——不仅仅是渲染图像那么简单,还需要实时的物理引擎、行为建模、智能交互等多层次的计算。
这些任务的难度和算力需求远远超过现阶段的图像和视频生成,因为它们不仅涉及到静态内容的创作,还要考虑到动态、交互性和实时反馈,每个环节都需要处理海量的数据、极为复杂的推理和计算。
随着多模态技术的爆发,算力需求将进入一个全新的维度。从单一模态的图像生成到视频、虚拟空间、全息影像的生成,大模型将需要在多个领域同时进行复杂计算。这一转变意味着,不仅现有算力资源难以支撑未来的需求,甚至我们所知的计算架构也将面临前所未有的挑战。多模态的爆发,将推动算力需求进入一个全新的“超算时代”,并让每一项创新都需要更强大的硬件和计算支持来支撑其飞速发展。
我们来算一笔总账
随着大模型技术的不断进步,算力需求正在变得越来越复杂,尤其是当我们考虑到不同技术进步、用户需求增长以及新应用场景的引入时。为了更准确地预测未来五年内的算力需求变化,我们尝试来构建一个分析模型,将一些增大或者减小算力需求的因素都考虑进去,来计算一下几年之后到底是需要多少算力。
需要指出的是,这只是一个粗浅的模型,做了一些限定和假设,可能存在不够合理,或者参数设定不够准确的问题,敬请指正。
接下来,我们来考虑几个因素:
1. 大模型技术进步带来的算力需求下降
大模型技术进步带来的算力需求下降并不是线性递减的,而是随着技术不断成熟,每年下降的幅度会逐渐减小。在第一年,随着技术的突破,算力需求大幅下降,但随着技术逐步饱和,后续每年下降的幅度将逐年收窄。
- 2025年:假设大模型技术进步将使得推理和训练所需算力大幅下降,估计下降 10倍。
- 2026年:随着技术逐步深化和市场反馈,下降幅度减小,预计下降 5倍。
- 2027年:技术进一步成熟,但下降幅度逐渐减小,预计每年算力需求将下降 2倍。
因此,五年后的算力需求将降至原来的 2% 左右。
2. GPU和AI芯片技术进步带来的算力提升与成本下降
随着GPU和AI芯片技术的进步,算力将成倍提升,而成本将大幅降低。假设每年GPU和AI芯片的算力提升为 100%,而每年单位算力的成本将下降 50%。
五年后,单个芯片(比如GPU)的算力将是初始的 32倍,而单位算力的成本将降至初始的3%。
3. 用户量增长带来的算力需求增长
随着大模型应用的普及,用户量将呈现爆发性增长,尤其是在技术成熟后,用户对AI技术的依赖将大幅增加。我们假设未来五年内的用户量增长如下:
- 2025年:假设现有用户量为 1亿。
- 2026年:由于技术突破和应用普及,用户量将增长至 10亿,增长 10倍。
- 2027年:用户量将进一步增长至 30亿,增长 3倍。
- 第三年后:增长逐渐放缓,但依然维持较高增长率,第五年预计用户量将接近 50亿,之后保持基本稳定。
因此,用户量将是当前的 50倍,并且随着用户基数增大,算力需求也将同步增长。
4. 用户使用频率提升带来的算力需求增长
随着大模型技术的提升,用户将会更频繁的使用DeepSeek这类大模型产品。
- 2025年:假设每位用户平均每天使用大模型 2次。
- 2026年:随着大模型能力增强和应用普及,用户每天使用的频率将增加到 10次。
- 2027年:由于任务复杂性提升和更多场景的应用,预计用户每天使用次数将增加至 12次。
- 后续几年:用户使用深度继续提升,每位用户每天的使用次数平均将达到 20次。
这种频繁的使用将大大提升对算力的需求,预计算力需求将增长 10倍。
5、任务复杂度的提升所带来的算力需求增长
从单纯的文本问答,到处理高频、深度的任务(如应用开发、股票投资、复杂方案设计与执行等),计算资源需求将大幅提升。任务复杂性提升带来的算力需求增长这个指标,可以设定今年是1倍,明年是10倍,后年是100倍,然后基本稳定。因为对人类而言,任务的复杂度是有一个天花板的,不存在无限复杂的任务。
6. 多模态技术带来的算力需求增长
目前,大模型主要聚焦于文本和图像生成应用,未来随着多模态技术的发展,视频生成、3D建模、虚拟环境构建等需求将激增,带来算力需求的急剧上升。
- 2025年:多模态技术还处于初步阶段,因此目前算力需求的增加主要来源于图像生成应用,假设算力需求为 1倍。
- 2026年:随着视频生成技术的发展,算力需求将增加至 10倍,视频内容生成的需求将远超当前图像生成。
- 2027年:随着3D建模、虚拟现实等技术的发展,算力需求将增加至 100倍,并且应用场景从娱乐扩展到设计、医疗等领域。
- 2028年:到了未来第四年,随着全息影像和虚拟环境生成技术的广泛应用,算力需求将达到 1000倍。
因此,5年后,预计多模态技术的普及将推动算力需求增长1000倍。
接下来,我们做个简单计算,5年后,总的算力需求增长情况:2%(模型进步带来的算力需求下降)X50倍(用户规模增长)X10倍(单个用户使用频率)X100倍(任务复杂度提升)X1000倍(多模态)=100万倍。
需要说明的是,上面的计算可能不准确,但大致的方向是确定的,那就是将来的算力需求将呈现出指数级增长。
站在AI发展史的新节点上,我们不仅看到了算力的需求爆发,也应该意识到,在未来,算力将不再仅仅是技术发展的“瓶颈”,它将成为推动创新的核心动力。这意味着,在未来的技术竞赛中,谁能更好地解决算力供给问题,谁就能在这个全新的智能时代脱颖而出。
然而,真正的挑战并不在于单次计算的成本下降,而是在于如何在需求急剧激增的时代,设计出更加高效的计算架构和硬件系统。随着技术的快速发展,现有的计算架构和硬件系统将面临前所未有的压力,简单地提升算力可能已无法满足日益增长的需求。如何在保证算力提升的同时,保持系统的可持续性、成本效益和灵活性,将成为业界亟需解决的关键问题。
换句话说,未来的竞争不再仅仅是单纯的算力对决,而是基于智能计算架构、能效优化、资源调度、以及硬件创新等多个维度的综合较量。只有那些能够在这场变革中找到最优解的公司,才能真正掌握未来的技术制高点,迎接算力需求爆发的时代。
在这个过程中,DeepSeek和其他大模型的出现,正是触发这场变革的起点。随着技术的进一步发展,我们将见证一个以“需求爆发”为核心的新计算时代的到来。
来源:数智猿
刷新相关文章
我要评论
不容错过的资讯
大家都在搜
