相信最近一个消息进入人们视线,据BusinessKorea报道称,三星电子今年将凭借15%的市场份额、656亿美元的营收(去年是443亿美元),超越Intel(预计全年营收达620亿美元)成为世界第一大半导体厂商。
三星和英特尔增长都很快,英特尔 (Intel)2017第三季营收达161.5亿美元,年增34%,也超过市场预期。双方的数据增长显示,一方面来自移动芯片业务的需求增长,一方面自存储业务的增长。由于智能手机内存和企业级服务器存储等需求增加,DRAM内存和NAND闪存市场销售额相对于去年都有很大的增长。
增长的背后是一个什么意义?至顶头条结合最近发布的其他一些消息,一个是GPU在深度学习、高性能计算领域的崛起。一个是闪存芯片的变革。英特尔在2015年基于英特尔和美光联合研发的全新的Optane系列存储级内存(SCM)。简单说其愿景是提供内存一样的低延时,同时能够提供持久性存储的新的存储介质。三星也对标Optane存储,推出Z-SSD。
这些事件结合在一起,让我们看到一场巨大的变革到来。包括智能设备、手机PC服务器存储等等所有需要三大件(计算、存储、网络)机器,走到了一个巨变阶段。未来所有的手机终端、智能终端、PC以及企业级服务器、物联网连接等等,都会发生巨变。因为所有与人相关的智能设备,再怎么演变,其不可缺少三大件永远是计算、存储和网络。而计算、存储网络的巨变必将带来整个产业层、应用层的变化。
在计算领域,我们需要创新,虽然未来相当长一段时间内,通用 CPU +GPU的的模式是主流,但是谁敢保证随着人工智能、深度学习的几何式增长,当基于深度学习的人工智能应用大量出现,量变引起质变的时候,计算领域的领导者会发生一个什么样的变化呢?就像可以看到的GPU应用越来越多,越来越多的GPU 结合的超级计算机的架构更适应深度学习应用优化。
TPU(Tensor Processing Units)
更可怕的是跨界的打击,大家都盯着目前的芯片巨头的时候,谷歌的自研芯片应该也很快面世,其中谷歌推出的TPU 已经在谷歌数据中心内部使用了两年,据谷歌工程师介绍,TPU是一款为机器学习而定制的芯片,经过了专门深度机器学习方面的训练,它有更高效能(每瓦计算能力),根据谷歌的资料TPU 在推理方面的性能要远超过 GPU,虽然在能耗上还有很大差距,但是这不妨碍人类对于新技术的追求。
在存储方面,创新更是迫切。存储设备一直有个瓶颈就是访问速度,从磁带到磁盘到闪存,其访问速度跟CPU比相差十万八千里,跟内存的访问速度也是相差太远。
有国外媒体做了对比,如果把CPU的一级缓存的访问时长规定为1秒,磁带访问的相对时长将达到6年4个月19小时33分又20秒。传统的最快的 SSD的相对时长为2天18小时40分钟。DRAM访问速度是6分钟40秒。
这么看来SSD作为未来的核心存储,相对于内存的速度还是远远不如。是不是可以在这个中间在创造一个新的持久性存储介质?
英特尔就看到了这点,英特尔与美光联手打造的傲腾存储,这是一种新的非易失性固态存储成为易失性内存与持久性存储之间的新事物。三星存储也推出了经由NAND LLC(每单元1 bit)调整而来Z-SSD。按照三星的设计标准,Z-SSD的读取速度将是标准SSD的7倍。从技术研发来看,包括英特尔三星都看到了闪存和内存之间超大延时的一个空白。都希望推出能够持久保存数据、但是更接近内存读取速度的新的存储介质。
英特尔傲腾技术能够提供了10倍的NAND闪存性能,和1000倍的耐久性,是NAND闪存的千分之一的延迟,是DRAM延迟的十倍,。耐久性实现将超过一百万次的擦写周期,低延迟大大提高了IO操作(如事务数据所需的)的能力,满足未来对于高并发、海量计算的需求。
同时除了已经可见的存储技术,未来目前众多芯片厂商在研究 “磁随机存取存储器”(MRAM),有望替代目前的存储方案——DRAM(动态随机存储)。与DRAM存储技术相比,MRAM耗电量仅为DRAM三分之一,但读写速度却达到前者十倍。理论上来讲,MRAM存储技术优势更适合于应用到物联网终端和AI领域。
当然我们看到了目前刚推出的产品还没有达到理想的状态,但是其趋势、其新的技术未来可能在AI领域有新的价值,包括在无人汽车、自动驾驶、人工智能等领域有新的实践。因为这是对计算、存储和网络一种新的重塑,也更贴近用户对于未来技术的理解。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。