50微秒存储访问延迟与1200万IOPS让X-IO公司的Axellio服务器成为边缘高性能方案中的佼佼者。
时至今日,服务器创新工作已经开始在除商用CPU及内存之外的各个层面作出探索,这也使得非服务器供应商有机会对主流厂商发起冲击--而X-IO作为一家存储企业也就此推出了自己的Axellio产品。
其采用直接访问NVMe存储技术,旨在对服务器产品发起一轮彻底变革,从而确保其能够以微秒级延迟访问数TB级别闪存数据,同时以实时方式并行提取并处理大量数据。
X-IO公司此前可谓麻烦缠身,但其如今已经重新回归并完成债务清算与业务重组,EBITDA(即未计利息、税项、折旧及摊销前的利润)亦再度恢复健康。其ISE产品线的销售与收入支持并推动了Axellio的开发,而如今这款产品终于做好与广大用户见面的准备。
Axellio设备原型设计
这是一台融合型服务器与存储系统,能够向外扩展至多套大规模集群当中。根据X-IO公司的测试,其可线性扩展至256节点,而节点容纳上限甚至将超过1000个。
X-IO公司希望能够将此类服务器用于物联网边缘计算,即接收由大量传感器通过网络链接所生成的大量导出数据,并以实时方式对其进行同步提取与分析处理。如此一来,客户将不再需要把数据迁移至其它服务器系统即可完成处理分析。而为了实现这种现场处理效果,此类服务器必须具备强大的CPU资源与快速访问存储机制。
大家可以将Axellio视为一台不存在高成本检查机制与对接外部块存储阵列专有网络的DSSD。
因此,在硬件方面,我们可以看到一台2U机架式机柜中包含:
• 2 x 2块至强服务器主板
• 4插槽至强E5-26xx v3与v4 CPU
• 16到88个计算核心(当前水平)
• 24到176个线程(当前水平)
• 可升级至新型英特尔CPU
• 32 DIMM, 16 GB到2 TB
• 可选2 x NVDIMM以作为存储缓存
• 在12 x 6驱动器FlashPacks中容纳12到72 x 2.5英寸双端口NVMe SSD(当前为8 TB)
• 今年晚些时候将推出高达1 PB NVMe访问闪存存储容量配合16 TB NVMe SSD
• 4K数据块条件下提供1200万IOPS
• 数据采集速度大于200 Gbps(即大于30 GBps)
• 延迟低至35微秒,持续传输速率达60 GBps
Axellio机箱后视图
X-IO公司宣称,其可在低于50微秒的平均访问延迟条件下实现480 Gbps(即60 GBps)的存储数据采集与随机访问速率。一台机架内可容纳20台此类系统,从而构建起一整套高密度计算与存储环境。
该公司同时指出,这套运行有Linux的系统可接入Optane存储器,同时可使用分流处理模块:
• 2 x英特尔Phi以实现并行计算
• 2 x英伟达K2 GOU以进行视频处理
• 2 x英伟达K80 Tesla以处理科学计算及机器学习负载
• Solarflare Precision Timing Protocol(即Solarflare精确定时协议,简称PTP)数据包捕捉(简称PCAP)分流
当然还远不止如此。这台双插槽服务器主板与NVMe SSD组通过一套专利FabricXpess内部通信系统实现对接。这一非透明桥接机制得以为其ODM硬件提供更为出色的边缘存储访问速度。
FabricXpress原理示意图
X-IO公司希望通过合作伙伴将该产品引入市场,并将Axellio应用于国防与情报、高复杂度数据分析、金融市场数据分析、网络安全以及通用型物联网等需要使用边缘处理设备的领域。
目前X-IO方面已经公布了Ascolta作为其合作伙伴,这家公司专门为国防及情报市场提供数据包捕捉、数据融合与分析服务。另一家合作伙伴则为ISSAC,主要负责提供端到端自动化分析能力。另外,X-IO亦与其它多家来自时间序列数据库以及网络环境监管与安全分析相关之厂商建立起合作关系。预计未来还将有更多合作协议陆续公布。
这套Axellio系统以服务器加存储引擎组件的形式向解决方案经销商合作伙伴出售。尽管如此,但在我们看来其在本质上仍然属于一台服务器,而且在销售方式上不会与思科、戴尔、HPE以及联想等竞争对手发生直接冲突。
根据我们掌握的情况,X-IO的ISE软件也将在未来被移植至Axellio系统当中。
围绕至强加DRAM这一核心进行的服务器创新活动正在快速升温,似乎每家服务器厂商都跃跃欲试。毫无疑问,X-IO也正是其中之一--Aparna Systems则是另外一家。相信未来,我们还将迎来更多新型解决方案。
好文章,需要你的鼓励
AWS在纽约峰会上发布Amazon Bedrock AgentCore,这是一个企业级AI代理构建、部署和运营平台。该平台支持开源框架如CrewAI、LangChain等,提供运行时、内存、身份管理、可观测性等核心服务。Box、巴西伊塔乌银行等企业已开始使用该平台构建生产级应用。平台采用按需付费模式,目前在部分AWS区域提供预览版,2025年9月16日前免费试用。
MBZUAI研究团队发布了史上最大的开源数学训练数据集MegaMath,包含3716亿个Token,是现有开源数学数据集的数十倍。该数据集通过创新的数据处理技术,从网页、代码库和AI合成等多个来源收集高质量数学内容。实验显示,使用MegaMath训练的AI模型在数学推理任务上性能显著提升,为AI数学能力发展提供了强大支撑。
网约车巨头Uber宣布与中国科技公司百度达成多年战略合作,计划在美国和中国以外地区推出数千辆自动驾驶出租车。服务将从今年晚些时候开始,首先在亚洲和中东的未指定国家推出。百度的Apollo自动驾驶汽车已在中国11个城市运营,成本仅为3.7万美元,远低于行业平均的20万美元。用户可选择乘坐自动驾驶车辆或人工驾驶车辆。
这项由多个知名机构联合开展的研究揭示了AI系统的"隐形思维"——潜在推理。不同于传统的链式思维推理,潜在推理在AI内部连续空间中进行,不受语言表达限制,信息处理能力提升约2700倍。研究将其分为垂直递归和水平递归两类,前者通过重复处理增加思考深度,后者通过状态演化扩展记忆容量。