Gate 广场「创作者认证激励计划」开启:入驻广场,瓜分每月 $10,000 创作奖励!
无论你是广场内容达人,还是来自其他平台的优质创作者,只要积极创作,就有机会赢取豪华代币奖池、Gate 精美周边、流量曝光等超 $10,000+ 丰厚奖励!
参与资格:
满足以下任一条件即可报名👇
1️⃣ 其他平台已认证创作者
2️⃣ 单一平台粉丝 ≥ 1000(不可多平台叠加)
3️⃣ Gate 广场内符合粉丝与互动条件的认证创作者
立即填写表单报名 👉 https://www.gate.com/questionnaire/7159
✍️ 丰厚创作奖励等你拿:
🎁 奖励一:新入驻创作者专属 $5,000 奖池
成功入驻即可获认证徽章。
首月发首帖(≥ 50 字或图文帖)即可得 $50 仓位体验券(限前100名)。
🎁 奖励二:专属创作者月度奖池 $1,500 USDT
每月发 ≥ 30 篇原创优质内容,根据发帖量、活跃天数、互动量、内容质量综合评分瓜分奖励。
🎁 奖励三:连续活跃创作福利
连续 3 个月活跃(每月 ≥ 30 篇内容)可获 Gate 精美周边礼包!
🎁 奖励四:专属推广名额
认证创作者每月可优先获得 1 次官方项目合作推广机会。
🎁 奖励五:Gate 广场四千万级流量曝光
【推荐关注】资源位、“优质认证创作者榜”展示、每周精选内容推荐及额外精选帖激励,多重曝光助你轻
AI迅速推高数据中心价格:硅谷空置率接近历史低点,云计算成本也飞涨
伴随年初微软支持的ChatGPT大火,以及谷歌、Meta等一众竞争对手快速推出大语言模型(LLM)和生成式人工智能竞品,AI俨然正在快速推进至人类生活的更多方面,相关需求也水涨船高。
鲜为人知的是,AI大火还带动了数据中心成本飙升,最新报道便点明:“与运行人工智能数字运算相关的能源使用,正迅速成为数据中心费用上涨的关键驱动因素。”
对人工智能的需求飙升,令一些数据中心的运营商们趁机提高商业租赁价格,以应对为运行日益能源密集型工作负载的计算机服务器组群(stack)供电和散热而产生的额外成本。
据全球最大商业房地产服务公司之一的世邦魏理仕(CBRE Group)统计,数据中心客户囊括了小型企业到大型云服务供应商,目前消耗电力的速度快于数据中心运营商扩展容量的速度。由于人工智能用例的增加,供应限制日益严重,这为数据中心收取的价格带来了上行压力。
例如,在拥有超过275个设施的全球最大数据中心市场——美国北弗吉尼亚州,今年可供租赁的电量从一年前的46.6兆瓦减少至38.4兆瓦,降幅高达17.6%,而总体电量库存实际同比增长了19.5%至2132兆瓦,主要由于用于训练生成式AI模型的GPU功耗很大且在快速增加。
此外,与AI需求相关的额外功率还需要辅以更先进的硬件冷却系统,这些制冷系统不仅能耗很高,往往比传统的空气冷却器更昂贵且占地面积更大,均属于人工智能推高数据中心价格的动因之一。
同时,在AI需求旺盛的当下,数据中心客户支付的电费也更为高昂。市场研究公司Synergy Research Group的首席分析师John Dinsdale坦言,数据中心运营商正将运行AI应用程序产生的额外成本直接转嫁到客户身上。
据世邦魏理仕统计,今年前三个月,美国北弗吉尼亚州的数据中心客户每月每千瓦电力支付的费用高达140美元,比一年前的130美元增长了7.7%。在硅谷,数据中心的空置率目前处于接近历史低点的2.9%,客户每千瓦每月最高电价攀升至250美元,较去年的175美元猛增了43%。
据介绍,人工智能应用程序比传统软件消耗更多的能量,因为它们旨在读取更大量的数据。几天之内,单个人工智能模型可能会消耗数万千瓦时的电力,而生成式AI模型可比标准AI工具再大100倍。市场研究公司Enterprise Technology Research今年对约500名企业IT决策者进行了调查,其中有一半以上都表示,计划评估、部署或投入更多资源用于类似ChatGPT的生成式AI技术。
还有分析指出,由于许多云供应商也租赁数据中心的空间,随着越来越多的公司采用生成式人工智能,不断上涨的数据中心成本可能会导致更高的云计算费用。鉴于生成式AI工作负载需要更多的计算,势必更广泛地影响数据中心的能源效率和冷却系统,即影响会遍及行业的方方面面。
据兰洋科技的科普文章,业内普遍认为,数据中心能耗高、能耗增长快,占我国能源消费比重逐年提高。数据中心的能耗消费特点是较为集中,除IT设备外,制冷系统等辅助设施能耗比例高:
而能耗也直接与运营成本相关。据咨询机构Tirias Research建模预测,到2028年数据中心功耗将接近4250兆瓦,比2023年增加212倍,数据中心基础设施加上运营成本总额或超760亿美元。
该机构称,生成式AI带来的种种创新功能,都是以处理性能和功耗方面的高昂成本为代价。因此,虽然人工智能的潜力可能是无限的,但物理和成本最终可能是界限。
为了降低成本,该机构建议,可使用高度优化、甚至是更简单、更专业的小型神经网络模型来降低数据中心成本,方法是减少云端的模型规模,将海量参数网络用于快速训练较小的模型,并将工作负载完全移出云端,从而将生成式AI应用程序更加经济高效地分发给智能手机、PC、车辆和移动XR产品等分布式平台上运行: