共计 1598 个字符,预计需要花费 4 分钟才能阅读完成。
文章目录[隐藏]
SambaNova Systems和 Gradio 宣布了一项新的集成,使开发者能够通过几行代码访问最快速的 AI 推断平台之一。这次合作旨在使高性能 AI 模型更加易于获取,并加快开发者和企业对 AI 的采用。
Gradio ML 增长主管 Ahsen Khaliq 的评价
Gradio 的 ML 增长主管 Ahsen Khaliq 在接受 VentureBeat 采访时表示:“这次集成使开发者能够轻松地从 SambaNova 游乐场复制代码,并使用几行代码在几分钟内运行一个 Gradio 网络应用程序。”“借助 SambaNova Cloud 的超级快速推断,这意味着无论是开发者还是最终用户都能获得极佳的用户体验。”
SambaNova-Gradio 集成的特点
SambaNova-Gradio 集成允许用户使用 Gradio 的 gr.load()
函数创建由 SambaNova 的高速 AI 模型提供支持的 Web 应用程序。开发者现在可以快速生成一个与 SambaNova 模型相连的聊天界面,使高级 AI 系统的工作变得更加容易。

超越 GPU:数据流架构在 AI 处理中的崛起
由软银和黑岩支持的硅谷初创公司 SambaNova 在 AI 硬件领域以其数据流架构芯片引起了轰动。这些芯片旨在超越传统的 GPU,用于 AI 工作负载,该公司声称提供“世界上最快的 AI 推断服务”。
SambaNova 的平台可以以全精度运行 Meta 的 Llama 3.1 405B 模型,每秒 132 个令牌,这个速度对于希望大规模部署 AI 的企业来说尤为重要。
随着 AI 基础设施市场的升温,SambaNova、Groq 和 Cerebras 等初创公司正在挑战英伟达在 AI 芯片领域的霸主地位。这些新进入者专注于推断——AI 的生产阶段,模型基于其训练生成输出——预计这个市场将比模型训练更大。
从代码到云:AI 应用程序开发的简化
对于开发者来说,SambaNova-Gradio 集成提供了一个无缝的切入点,可以尝试高性能 AI。用户可以访问 SambaNova 的免费层,将任何支持的模式包装成一个 Web 应用程序,并在几分钟内自行托管。这种易用性反映了最近旨在简化 AI 应用程序开发的行业趋势。
该集成目前支持 Meta 的 Llama 3.1 系列模型,包括庞大的 405B 参数版本。SambaNova 声称是唯一一个以全 16 位精度高速运行这个模型的提供商,这种精确度对于需要高准确性的应用来说尤其有吸引力,例如在医疗保健或金融服务中。
AI 的隐藏成本:速度、规模和可持续性的权衡
尽管集成使高性能 AI 更易于获取,但对于 AI 芯片竞争的长期影响仍有疑问。随着公司竞相提供更快的处理速度,对能源使用、可扩展性和环境影响的担忧也在增加。
虽然关注每秒令牌数等原始性能指标很重要,但可能会掩盖 AI 部署中的其他关键因素。随着企业将 AI 整合到其运营中,他们需要在速度与可持续性之间取得平衡,考虑总拥有成本,包括能源消耗和冷却要求。
此外,支持这些新 AI 芯片的软件生态系统将显著影响它们的采用。尽管 SambaNova 和其他公司提供强大的硬件,但英伟达的 CUDA 生态系统凭借其广泛的最优化库和工具保持了优势,许多 AI 开发者已经非常熟悉这些工具。

市场前景与挑战
随着 AI 基础设施市场的不断发展,像 SambaNova-Gradio 这样的集成可能会变得越来越普遍。这些合作伙伴关系有可能在一场承诺改变各行各业的技术领域中促进创新和竞争。然而,真正的考验将在于这些技术如何转化为现实世界的应用,以及它们是否能够实现为所有人提供更易于获取、更高效、更强大的 AI 的承诺。(来源)
相关文章
相关文章
