虚拟化、云计算、大数据和移动互联在中国市场的不断普及,刺激着中国用户对OLTP、OLAP、IOPS、低延迟的需求不断提高。传统磁盘技术相对于CPU的性能跌幅,以及受限于控制器架构和磁盘寻道,无法满足中国用户持续提升的需求,刺激着闪存在中国市场的增长。
据中桥在2013年12月针对闪存市场趋势的调研,目前来看,闪存在中国市场有较大的市场教育空间,44.3%的中小企业和42.5%的企业级尚未决定是否采用全闪存技术。而且,中桥对最终用户的深访也显示,中国很多最终用户目前对闪存技术还缺乏了解,是导致其尚未决定是否采用全闪存技术的直接因素。
新型IT对利用闪存提高整体业务水平的接受能力较强。新浪微信、阿里支付宝、京东商城、百度是中国首批大量采用闪存技术实现业务突破创新的使用者。但相对而言,部分企业仍然对闪存技术还有所顾忌,17.3%的中小企业和14.4%的企业级表示不会采用全闪存技术,而且目前已采用全闪存技术的中国市场占比也比较低。但是,在未来12个月,1/4左右的中国用户将考虑采用全闪存技术,其中企业级26.3%,中小企业23.5%。闪存技术使用经验和成功案例,将推动全闪存技术在中国市场的进一步发展。
Fusion-io于2014年7月11日针对中国市场正式推广其最新的闪存平台原子(Atomic)系列,在容量、性能、可靠性方面具备业界领先水平,并具有竞争力的每GB和每IOPS价格,可以经济地满足用户对OLTP、OLAP、IOPS、低延迟的需求。Fusion-io原子系列的闪存感知加速功能,以应用为核心实现应用加速,满足各种规模企业大数据分析和超大工作负载不断提升的需求。基于Fusion-io最新的第三代基于内存的构架,不仅比一般固态硬盘具有更优的性能,而且比目前设备和服务器环境中占地面积最小的NAND存储能力还要翻倍,充分实现了云计算、大数据和移动互联时代闪存价值最大化。
Fusion-io原子系列分为ioMemory PX600和ioMemory SX300这两个子系列,为用户在数据库、云应用、大数据分析和超大规模工作负载等不同方面的需求提供了多种灵活选择。两个子系列均采用8个PCI Express 2.0接口。其中,PX600针对混合工作负载进行优化,虽然最大容量略小(5.2TB),但性能和耐久性(PBW)更好,写入带宽和读写IOPS指标更出色;SX300系列面向所有横向扩展架构和超大规模环境,针对读取密集型工作负载进行优化,最大容量达6.4TB。
ioMemory PX600
ioMemory SX300
中桥分析师认为,在中国市场IT演进过程中,Fusion-io原子系列的闪存感知NVM压缩接口与非易失性内存系统(NVMFS)结合,不仅可将数据库的ioMemory服务器闪存可用容量翻倍,满足用户对高IOPS和低延迟的需求,而且不会对数据性能产生影响,最大限度地保证了商业智能和大数据分析对OLTP和OLAP的性能需求。Fusion ioMemory平台结合SQL Server 2014内存驻留OLTP配置,可使处理性能提升四倍,助力用户更快地通过大数据创造更多业务价值,实现业务转型。
除此以外,Fusion-io不仅致力于将闪存作为内存整合到服务器端(如2012年推出的ioN一体机方案),并于2013年推出可在存储端整合的ioN Control。即使未来闪存取代高性能磁盘作为主存储的核心技术,Fusion-io基于自身的多种技术组合,市场份额也不会因此而产生较大影响。与此同时,Fusion-io凭借跨零售、金融、制造等多行业的深厚垂直产品供应,以及与SAP、Oracle、微软、联想、惠普、戴尔、IBM强大的全球技术合作伙伴关系,日前更推出更大容量、更高性能和可靠性以及更高效的原子系列,这一重大产品战略势必将进一步加速Fusion-io在全球闪存市场的激烈竞争中获取更多市场份额。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。