美光在7月份宣布裁减美国科罗拉多厂的70名员工,预计将裁减2400名员工,占其员工总数的7.5%,其今年上半年亏损3200万美元,去年同期则为盈利,业界相当担忧它的发展前景。

美光处境不妙
目前全球DRAM市场主要由三星、SK海力士和美光所垄断,三家企业占有超过九成的市场份额,不过份额正在往三星和SK海力士两家韩国企业集中,而美光的市场份额出现下降势头。
据IHS的数据指,自2014年第三季度起,韩国的两个DRAM企业三星和SK海力士合计占有的市场份额呈现上升势头,至去年四季度连续六个季度上升,合计市场份额达到历史的高点74.5%。
据TrendForce旗下存储事业处DRAMeXchange的报告,今年一季度三星稳坐DRAM份额第一的位置,份额高达46.4%,与去年四季度一样;SK海力士的市场份额为27.1%,相比去年四季度下滑了0.8个百分点,两家韩国企业的市场份额合计占73.5%。美光的市场份额为18.5%,相比去年四季度的18.9%下滑0.4个百分点。
在DRAM制造工艺方面,三星最领先,已开始量产18nm的DRAM芯片;SK海力士和美光在去年下半年引入20nm工艺,预计SK海力士在今年下半年引入18nm工艺,美光则宣布投资超过8亿美元开发16nm工艺但业界对此持怀疑态度。工艺越先进,元件就愈精密,产量也能提高,因此可以有效降低生产成本、提高获利能力。
由于三星和SK海力士的市场份额远超美光,拥有规模优势的它们盈利能力自然较好,在今年以来DRAM产品价格下降20%的情况下,前两者依然保持了盈利,而美光则出现了亏损并被迫裁员应对,而由于工艺技术的落后恐怕短时间内看不到好转的希望,而且中国大陆正在投巨资进入DRAM市场导致这一市场竞争会更激烈。
Intel正在进军存储市场
Intel早年是存储市场的巨头,后来与日本存储企业竞争失败而转型为处理器企业,进而垄断了X86处理器市场,但是在半导体市场它正遭遇三星的竞争。据IC insights的数据2015年三星在半导体市场的营收获得了10%的增长,而Intel则因为PC市场的衰退导致营收出现罕见的下滑2%,双方的营收差距进一步缩窄,只相差17.3%,业界已在谈论三星何时会在半导体市场超越Intel。
三星已经招揽了AMD前任首席内核架构师Jim Keller,他曾在AMD、苹果收购的P.A.semi公司服务过,负责开发AMD极为重要的Zen架构,同时他也参与了AMD的ARM服务器芯片的开发。在ARM阵营积极进军利润丰厚的服务器芯片市场的情况下,业界认为三星招揽Jim Keller可能就是在为开发ARM架构服务器芯片,这对Intel造成了威胁。
面对这样的局面Intel在去年宣布进军存储市场,并且早在2012年存储巨头尔必达倒闭的时候就开始大量招聘它的技术工程师,可见为此已做好了充分的准备。随着大数据和云计算的兴起,内存与CPU整合将是趋势,这样可以大幅度提高整体的性能,加上Intel目前在制造工艺方面正被三星和台积电快速拉近导致其优势被削弱,面对ARM阵营的竞争压力不断增加,这些因素的综合影响也要求Intel进入存储市场。
Intel已与美光合资研发新世代存储芯片技术“3D Xpoint”,它们双方的宣传指存储容量比DRAM高十倍、读写速度和寿命更是NAND的1000倍以上,这将有利于它们共同挑战韩国存储巨头。
Intel并购美光对双方都有好处
Intel去年宣布投资55亿美元扩建的大连工厂于上月投产,生产非易失性存储存储产品,但是美光的存储芯片技术依然有它的优势,并购美光将可以帮助Intel立即获得存储芯片技术,同时这又可以避免其他机构并购美光后为它制造一个竞争对手,防止被视为希望的3D Xpoint技术外流。
由于PC市场陷入衰退,Intel的半导体工厂目前存在产能过剩,导致它希望为其他芯片企业代工充分利用其产能,而并购美光后将可以有效利用其现有产能。
台积电和三星都宣布它们的10nm工艺即将在年底量产,但是高通、联发科等用户却指出它们的10nm工艺能效其实只是与Intel的14nm工艺相当,这即是说Intel在半导体制造工艺方面依然处于全球领先地位,可以帮助美光扭转其当下制造工艺落后于三星的劣势,赢得反超的机会。
其实并购美光还有一个好处是用DRAM芯片来锤炼Intel的先进工艺,为将先进工艺引入处理器制造所用的逻辑制程工艺做准备,三星和台积电都是这样做的。
据最新的消息指Intel似乎有意放弃PC芯片业务将重心放到服务器芯片上来可见它对服务器芯片业务的重视,去年已花167亿美元巨资并购了Altera,因此并购美光利用后者存储芯片的优势提供整体解决方案以增强它在服务器芯片市场的竞争优势并非完全无可能。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。