- 概述
- AI 产品
生成式 AI
从实时自然语言处理,到个人助理和 AI 艺术创作,借助美光的专用内存和存储解决方案,每个人都能在终端设备上运行生成式 AI 应用。了解美光如何提供在终端设备上运行生成式 AI 应用所需的速度和容量。
智能制造
美光利用 AI 提升质量。在我们的智能工厂中,团队成员携手 AI,利用数据改善运营,在业界前沿内存和存储解决方案的制造中实现了创纪录的产量、良率和质量。了解美光的解决方案如何支持 AI 驱动的工业 4.0 设备。
企业业务中的 AI
美光的高性能内存和存储解决方案助力实现可落地的商业智能。了解我们针对机器学习和深度学习的前沿高性能解决方案,以及美光面向未来投资的专注于创新的 AI 公司。
常见问答
运行 AI 工作负载时,内存对于系统整体性能而言至关重要。适合 AI 工作负载的内存主要有两种:一种是高带宽内存 (HBM);另一种是双倍数据率 (DDR) 内存,特别是新推出的 DDR5。AI 工作负载选择哪种内存取决于很多因素,如 AI 算法的具体要求、数据处理规模和系统总体配置等。HBM3E 和 DDR5 均具有显著优势,在选择时应考虑具体使用情况、预算及当前的硬件。美光提供了新一代 HBM3E 和 DDR5。
HBM3E 具有先进的架构和高带宽容量,无论从带宽、速度还是能耗1方面,都属于目前的高端内存解决方案。相比 HBM 解决方案,DDR5 内存模块是当前更为主流的高速内存解决方案,在大规模部署时更具成本效益。
就 AI 工作负载而言,理想的存储解决方案取决于多种因素。重点考虑因素包括速度、性能、容量、可靠性、耐用性和可扩展性等。AI 工作负载的理想存储解决方案取决于具体应用的特定需求、预算及系统总体配置。美光可为特定应用需求提供前沿 NVMe SSD。 美光 9400 NVMe SSD 为 PCIe® 4.0 存储树立了新的性能标杆。这款 SSD 的容量高达 30TB,专为 AI 训练、高频交易和数据库加速等关键工作负载设计。 美光 6500 ION NVMe SSD 是适用于网络数据湖的理想大容量解决方案。
混合 AI(有时被称为分布式 AI)是基于云计算和基于边缘的 AI 系统的混合。
目前,大多数 AI 系统都基于数据中心,可以通过云服务访问,为生成式 AI 等应用提供更强大的性能。
另一方面, 基于边缘的 AI(也称为端侧 AI)是指数据处理直接发生在设备(如智能手机、汽车、个人电脑和物联网设备)上的 AI 系统。其无需与云进行持续的数据通信,因而可以改善隐私、带宽和延迟限制,还可以在没有连接的情况下工作。
混合方法在云和边缘设备之间分配和协调 AI 工作负载。平衡基于云的 AI 模型和直接在设备上运行的模型,并辅以云中的长期分析和改进,可以在边缘实现实时、自主决策。
从本质上讲,混合 AI 旨在利用基于云和基于边缘的 AI 各自的优势,来提供理想的用户体验。
1美光 HBM3E 提供超过 1.2TB/s 的更高内存带宽,在相同的堆栈高度下容量提高超过 50%。数据速率测试估计值基于在制造测试环境中执行的 shmoo 图引脚速度。
1美光 HBM3E 提供超过 1.2TB/s 的更高内存带宽,在相同的堆栈高度下容量提高超过 50%。数据速率测试估计值基于在制造测试环境中执行的 shmoo 图引脚速度。