北京,2017年9月21日,慧荣科技公司(Silicon Motion Technology Corporation,纳斯达克交易代码:SIMO)在金隅喜来登酒店发布全新固态硬盘控制器解决方案。包括适用于客户端和企业级的超高速SM2262,适用于主流应用的SM2263,以及支持BGA封装的SM2263XT无DRAM控制器。基于全新主控,金泰克、七彩虹、台电和铭瑄也在发布会现场推出全新NVMe M.2固态硬盘新品,一同推动固态硬盘行业的发展。
基于AHCI协议的SATA接口固态硬盘性能已经无法满足当前用户需求,为此慧荣科技看到未来是PCIe NVMe固态硬盘的市场,对超高性能和可靠性的需求越来越高,进而推出PCIe G3×4通路NVMe 1.3控制器,支持主要闪存制造商的最新3D NAND。慧荣科技总经理Wallace表示:“SMI在推动下一代控制器解决方案开发方面一直处于领先地位,不仅满足了目前的需求,而且还将满足世界领先技术制造商的未来需求”。
慧荣科技产品经理Peter称:“最新SSD控制器解决方案满足了各种市场需求,从高端企业级SSD到嵌入在便携式设备,都可以胜任。其中SM2262作为超高性能SSD控制器解决方案,其峰值连续读写速度分别高达3,200 MB/s和1,700 MB/s,随机读写IOPS高达370,000和300,000。SM2263主要面向主流客户端应用,连续读写速度分别达到2,400 MB/s和1,700 MB/s。SM2263XT是无DRAM控制器解决方案,支持11.5mmx13mm BGA SSD,不但降低了BOM成本,减小了外形封装,而且保持了性能不变。”
超高速的解决方案:SM2262
SM2262系列满足了苛刻的企业和客户对性能的极致要求。SM2262控制器提供一套完整的控制器固件,很容易集成到SSD产品设计中。采用目前最先进的低功耗设计,SM2262不论是在低功耗还是在工作状态下,功耗都非常低。
SM2262均支持4通路8Gb/s PCIe数据流和8个NAND通道。SM2262器件最大连续读速度3.2GB/s,连续写速度1.7GB/s。
主流高性能的解决方案:SM2263和SM2263XT
SM2263和SM2263XT支持4路8Gb/s PCIe数据流,以及4个NAND通道,并提供一套完整的固件,满足主流和特需型客户对SSD的需求。
SM2263XT支持无DRAM设计以及主机内存缓冲区(HMB)架构,使SSD制造商能够以较低的BOM成本生产紧凑型11.5mm x 13mm BGA SSD。无DRAM SM2263XT最大连续读速度2.4GB/s,最大连续写速度1.7GB/s。
四通路品牌齐发力 助力SMI新主控
金泰克、七彩虹、台电和铭瑄在发布会现场同期发布了最新PCIe NVMe SSD 系列产品,分别是七彩虹CN600 DRAMless / CN600 DRAM / CP600 iGame、台电SD240GBNP800-2280、铭瑄MS240GBNM8-2280、金泰克P700 / P600 / G5等。
最后,慧荣科技总经理Wallace、慧荣科技高级资深副总裁段喜亭,七彩虹副总经理曹剑、铭瑄总经理熊晖、台电副总经理宁俊武、金泰克董事长李创锋、SK Hynix 销售总监郭永春、Western Digital资深业务经理江懿峰、Micron 资深工程经理萧舜晏一同启动了新品发布仪式,标志着固态硬盘市场即将踏入全新的时代。
好文章,需要你的鼓励
亚马逊在CES期间宣布推出Alexa.com网站,用户可像使用其他AI聊天机器人一样与Alexa交互。经过数月早期体验,Alexa+已获得数千万用户。新网站支持语音和文本交互,需登录使用以确保跨设备功能连续性。76%的Alexa+交互为独特任务,包括智能家居控制和第三方集成。Alexa+兼容七年来的设备,正式版将收费每月20美元或包含在Prime会员中。
SimWorld是由UCSD等多所顶尖院校联合开发的革命性AI仿真平台,基于虚幻引擎5构建了具备真实物理规律的虚拟城市环境。该平台支持无限扩展的程序化世界生成和自然语言交互,让AI智能体能够在复杂环境中学会生存、合作和竞争,为通用人工智能的发展提供了前所未有的训练平台。
AI笔记公司Plaud在CES 2026推出新款可穿戴设备NotePin S,可夹在衣领、戴在手腕或挂在脖子上记录对话。该设备通过蓝牙连接手机,配备双麦克风,录制范围约3米,支持一键高亮标记重要时刻。同时发布的还有Plaud Desktop桌面AI记录工具,可原生捕获线上会议内容,无需机器人加入通话。两款产品将所有笔记、会议和对话整合到统一平台管理。
浙江大学联合华为提出C2DLM,这是一种因果概念引导的扩散语言模型,通过自动提取因果关系并融入注意力机制来增强AI推理能力。相比传统方法,C2DLM在推理任务上平均提升1.31%-12%,训练效率提高3.2倍,为解决语言模型推理能力不足开辟了新路径。