北京,2017年9月21日,慧荣科技公司(Silicon Motion Technology Corporation,纳斯达克交易代码:SIMO)在金隅喜来登酒店发布全新固态硬盘控制器解决方案。包括适用于客户端和企业级的超高速SM2262,适用于主流应用的SM2263,以及支持BGA封装的SM2263XT无DRAM控制器。基于全新主控,金泰克、七彩虹、台电和铭瑄也在发布会现场推出全新NVMe M.2固态硬盘新品,一同推动固态硬盘行业的发展。
基于AHCI协议的SATA接口固态硬盘性能已经无法满足当前用户需求,为此慧荣科技看到未来是PCIe NVMe固态硬盘的市场,对超高性能和可靠性的需求越来越高,进而推出PCIe G3×4通路NVMe 1.3控制器,支持主要闪存制造商的最新3D NAND。慧荣科技总经理Wallace表示:“SMI在推动下一代控制器解决方案开发方面一直处于领先地位,不仅满足了目前的需求,而且还将满足世界领先技术制造商的未来需求”。
慧荣科技产品经理Peter称:“最新SSD控制器解决方案满足了各种市场需求,从高端企业级SSD到嵌入在便携式设备,都可以胜任。其中SM2262作为超高性能SSD控制器解决方案,其峰值连续读写速度分别高达3,200 MB/s和1,700 MB/s,随机读写IOPS高达370,000和300,000。SM2263主要面向主流客户端应用,连续读写速度分别达到2,400 MB/s和1,700 MB/s。SM2263XT是无DRAM控制器解决方案,支持11.5mmx13mm BGA SSD,不但降低了BOM成本,减小了外形封装,而且保持了性能不变。”
超高速的解决方案:SM2262
SM2262系列满足了苛刻的企业和客户对性能的极致要求。SM2262控制器提供一套完整的控制器固件,很容易集成到SSD产品设计中。采用目前最先进的低功耗设计,SM2262不论是在低功耗还是在工作状态下,功耗都非常低。
SM2262均支持4通路8Gb/s PCIe数据流和8个NAND通道。SM2262器件最大连续读速度3.2GB/s,连续写速度1.7GB/s。
主流高性能的解决方案:SM2263和SM2263XT
SM2263和SM2263XT支持4路8Gb/s PCIe数据流,以及4个NAND通道,并提供一套完整的固件,满足主流和特需型客户对SSD的需求。
SM2263XT支持无DRAM设计以及主机内存缓冲区(HMB)架构,使SSD制造商能够以较低的BOM成本生产紧凑型11.5mm x 13mm BGA SSD。无DRAM SM2263XT最大连续读速度2.4GB/s,最大连续写速度1.7GB/s。
四通路品牌齐发力 助力SMI新主控
金泰克、七彩虹、台电和铭瑄在发布会现场同期发布了最新PCIe NVMe SSD 系列产品,分别是七彩虹CN600 DRAMless / CN600 DRAM / CP600 iGame、台电SD240GBNP800-2280、铭瑄MS240GBNM8-2280、金泰克P700 / P600 / G5等。
最后,慧荣科技总经理Wallace、慧荣科技高级资深副总裁段喜亭,七彩虹副总经理曹剑、铭瑄总经理熊晖、台电副总经理宁俊武、金泰克董事长李创锋、SK Hynix 销售总监郭永春、Western Digital资深业务经理江懿峰、Micron 资深工程经理萧舜晏一同启动了新品发布仪式,标志着固态硬盘市场即将踏入全新的时代。
好文章,需要你的鼓励
新加坡人工智能机构与阿里云发布全新大语言模型Qwen-Sea-Lion-v4,专门针对东南亚语言和文化特色进行优化。该模型结合阿里云Qwen3-32B基础模型和大量东南亚地区数据集,在东南亚语言模型评估榜单中位居开源模型首位。模型支持119种语言,能在32GB内存的消费级笔记本上运行,采用字节对编码技术更好处理非拉丁文字,并具备3.2万词元上下文长度,可执行文档级推理和摘要任务。
中科大联合快手等机构推出VR-Thinker技术,首次实现AI视频评判员的"边看边想"能力。该系统通过主动选择关键画面、智能记忆管理和三阶段训练,在视频质量评估准确率上达到75%-82%,特别擅长处理长视频场景,为AI视频生成的质量控制提供了突破性解决方案。
AI智能体是下一代业务自动化工具,不仅能对话交流,还能执行复杂任务。与ChatGPT聊天机器人不同,它们可在最少人工干预下规划并完成工作。文章介绍了五个高影响力应用:自动化客户服务解决方案、销售CRM管理、合规自动化、招聘筛选与排程、市场情报报告。这些应用都具有重复性工作流程、依赖结构化数据、遵循可预测规则等特点,能够释放员工宝贵时间用于更有价值的工作。
微软研究院发布BitDistill技术,通过三阶段优化将大型语言模型压缩至1.58位精度,在保持性能的同时实现10倍内存节省和2.65倍速度提升。该技术包括模型结构稳定化、持续预训练适应和知识蒸馏传承三个关键步骤,解决了模型量化中的性能衰减和规模化问题,为AI模型在资源受限设备上的高效部署提供了新方案。