bitpie| Intel 研究人员提出新 AI 方法,更高效地在 CPU 上部署 LLM -
bitpie/2023-11-12/ 分类:资讯/阅读:
据站长之家报道,大型语言模型(LLM)因在文本生成、语言理解和文本摘要等任务中的卓越表现而备受欢迎,但其庞大的模型参数却需要大量内存和专用硬件。为了降低推断所需的计算 ...
据站长之家报道,大型语言模型(LLM)因在文本生成、语言理解和文本摘要等任务中的卓越表现而备受欢迎,但其庞大的模型参数却需要大量内存和专用硬件。为了降低推断所需的计算功率,Intel 的研究人员提出了一种有效的方法,支持自动的 INT-4 权重量化流程,可以在 CPU 上高效部署 LLM。此外,他们设计了一个特定的 LLM 运行时,具有高度优化的内核,可以加速 CPU 上的推断过程。
原文链接
版权声明 本文仅代表作者观点,不代表本站立场。
本文系作者授权本站发表,未经许可,不得转载。
本文系作者授权本站发表,未经许可,不得转载。
TAG:AIGC
阅读: 扩展阅读:
推荐文章
Recommend article-
比特派钱包安卓下载|调查发现:美国 13% 的青少年使用 ChatGPT 做作业 - AI新智界
资讯/阅读:203 -
比特派bitpie官网下载|OpenAI 再次大范围宕机,CEO 称新服务受欢迎程度超预期 -
资讯/阅读:202 -
比特派冷钱包|午间要闻一览 - AI新智界
资讯/阅读:200 -
比特派冷钱包|vivo:X100 系列率先搭载蓝心大模型,是行业首批百亿大模型在终端调通的手机 - AI新智界
资讯/阅读:200 -
比特派官网最新APP|OpenAI 近 500 名员工签署联名信要求董事会下台并恢复 Altman 等人职位,Sutskever 为签署者之一 - AI新智界
资讯/阅读:200 -
bitpie|ChatGPT 宕机了?OpenAI 揭露黑暗真相 -
资讯/阅读:200
热门文章
HOT NEWS