资讯

Groq 对131,000-token 上下文窗口的支持解决了 AI 应用中一个核心瓶颈。 一般推理服务商在处理较大上下文窗口时面临速度和成本的挑战,而 Groq 则通过独特的语言处理单元(LPU)架构,专门为 AI 推理设计,显著提高了处理效率。
Groq的主要产品不是芯片,而是AI推理云服务和AI计算中心 Groq的LPU显然是它在技术上的核心竞争力,但它没有直接卖芯片或是卖计算主机,而是做了 ...
人工智能半导体初创公司Groq周一宣布,它已在欧洲建立了首个数据中心,正在加快国际扩张步伐。Groq由三星和思科的投资部门支持表示,该数据中心将位于芬兰赫尔辛基,并与Equinix合作。继其他美国公司加大对欧洲的投资之后,Groq也希望利用欧洲对人工智能服务日益增长的需求。北欧地区尤其受到数据设施的青睐,因为该地区拥有便捷的可再生能源和更凉爽的气候。上个月,英伟达首席执行官黄仁勋在欧洲签署了包括数 ...
而Groq凭借其专为AI推理设计的语言处理单元(LPU)架构,显著提升了处理效率。 据独立评测机构Artificial Analysis的数据,Groq在部署Qwen332B时,每秒能处理高达535个token,轻松应对实时文档处理和复杂推理任务。 与Hugging Face的合作,为Groq带来了前所未有的开发者资源。
造AI芯片,卖AI推理数据中心和云服务 前文提到基于TPU芯片训练的Gemini 2.5 Pro成为了SOTA模型,Groq的创始人兼CEO Jonathan Ross就参与了TPU的发明 ,公司的 ...
Groq与Hugging Face的合作标志着高性能AI推理变得更加易获取和高效。 通过三行代码,开发者可以轻松调用Groq的高性能推理服务,显著提升了开发效率。 然而,Groq面临的基础设施和成本问题也不容忽视。 随着AI应用的不断普及,高性能推理服务的需求将持续增长。
智东西6月17日消息,美国AI芯片创企Groq昨天宣布,其已正式成为Hugging Face Hub支持的推理服务提供商,推理服务已无缝集成至Hugging Face的JS和Python客户 ...