今天,长江存储举办了线上发布会,推出针对终端消费者不断增长的需求而倾力打造的新款消费级固态硬盘产品——致态TiPlus7100。该产品采用基于晶栈® Xtacking® 3.0架构的长江存储新一代TLC闪存颗粒,支持PCIe Gen4x4接口,无缓存设计方案,拥有2400MT/s的单颗芯片接口速度,与上一代相比提高50%,使四通道方案可实现高达7000 MB/s的顺序读取速度。
致态TiPlus7100
致态TiPlus7100的诞生源自致态品牌对个人电脑用户需求的深刻理解,无论在速度、容量、还是可靠性及兼容性上均有上乘表现且兼顾经济效益,是一款能够满足用户在电竞、设计和视频制作等多元化、高性能应用场景下实际需求的“全能型”固态硬盘产品。
线上发布会采用科技宇宙元素,以一场创新的探寻“致”旅,邀请广大用户和媒体随“致态号探索战舰”共赴宇宙深处,寻找 “六大存储原石”,见证全能固态硬盘战士致态TiPlus7100的诞生!发布会上,致态官方战略合作伙伴、英雄联盟明星战队JDG祝贺致态TiPlus7100的上市并对新产品将为广大电竞玩家带来的更好体验充满期待。
致态官方战略合作伙伴JDG祝贺致态TiPlus7100上市
长江存储致态品牌负责人刘舒雯表示:“致态品牌持续关注市场动向和年轻消费群体的需求变化,我们注意到,在个人电脑用户中涌现出越来越多的视频内容创作者、游戏玩家、DIY玩家,他们既对设备的性能有较高要求看重创新技术带来的出色体验,也倡导理性消费兼顾经济效益。基于这些深刻洞察,致态TiPlus7100应运而生。它采用基于晶栈® Xtacking® 3.0架构的长江存储新一代TLC闪存颗粒,充分发挥高性能、原厂高品质产品的特性,以高速、高效、经济、足容、耐久、兼容六大出色表现满足不同用户在多元化应用场景下的需求,全面提升使用体验,为用户提供更丰富的选择。”
致态TiPlus7100
晶栈® Xtacking® 3.0架构,I/O速度跃升50%:采用长江存储晶栈®Xtacking® 3.0架构,拥有高达2400MT/s 的单颗芯片接口速度,与上一代相比速度提高50%,可轻松实现大型游戏场景切换和画面加载的流畅度,网络游戏多人同步在线对于硬盘I/O能力的高要求,以更高传输速度、更高存储密度满足游戏发烧友和电竞玩家的需求。
疾速纵享PCIe4.0,四通道方案读速高达7000MB/s:以无缓设计方案,实现高达7000MB/s的顺序读取速度,可高效完成游戏加载、素材导入、视频剪辑、渲染等制作过程,令用户疾速纵享PCIe Gen4.0×4通道饱和性能体验。
HMB及SLC Cache技术,进阶超值之选:采用HMB机制,即使无缓存设计也能带来高效运转,使固态硬盘兼具性价比优势。此外,配置SLC Cache智能缓存,让电脑开机、应用程序与游戏加载、文件保存与传输等高速运行告别卡顿,是Gen4的新锐之选。
长江存储新一代TLC闪存颗粒,高品质足容设计:用长江存储新一代TLC闪存颗粒,原厂颗粒、高品质足容设计,提供512GB、1TB、2TB多种版本,为用户带来多种选择和更高的数据存储价值。
写入持久,可靠耐用:写入寿命持久,2TB版本最高可达1200 TBW(总体写入量)以及150万小时MTBF(平均无故障时间) ,且提供5年质保,为用户提供可靠耐用的性能保障。
单面PCB,广泛兼容:采用M.2 2280单面PCB设计,其灵活的兼容性可全方位支持Gen4及大部分Gen3系统,并满足PS5、笔记本、台式机等设备的升级扩容需求。
致态TiPlus7100固态硬盘已于今日在京东正式开启预售,关注致态的朋友们可在京东、微信、微博等平台搜索 “致态”了解更多相关信息。(致态TiPlus7100 1TB版本京东购买页面,请访问:
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。