如果分析人士们对于由法院方面向Netlist公司颁发的这份禁令理解无误,那么SanDisk公司很可能需要停止向联想、华为以及Supermicro服务器设备提供其FlashDIMM技术方案。
SanDisk所收购的SMART业务部门倾力打造出ULLtraDIMM,这款接入DIMM插槽的闪存原片(即flashDIMM)以来自加拿大厂商Diablo Technologies的MCS(即内存通道存储)产品为基础。在这面技术的早期开发阶段,Diablo公司曾经与总部位于加利福尼亚州的Netlist公司开展过合作。
NetList方面也拥有自己基于HyperCloud的NVault非易失性DIMM(简称NVDIMM)技术,并以定制化方式供Nimble Storage公司加以使用。Diablo目前正面临Netlist公司的指控,据称前者的MCS以违法方式使用了Netlist的NVDIMM专利技术*。
Diablo公司对这一指控表示否认,并已经提出了反诉。与此同时,Diablo还向美国专利与商标局(简称USPTO)提出申请,要求对Netlist的技术专利进行审查并予以否决。
目前Netlist与Diablo两位当事方已经就MCS技术展开了两项技术专利审查(分别为7881150 B2与8081536 B1)。
今年一月六号,加利福尼亚州北部地方法院对Netlist的请求予以“部分”支持,即禁止SanDisk继续发售ULLtraDIMM技术产品。其中的“部分”是指这一禁令还没有以公开方式由院方加以宣扬。
不过在诉讼过程中,另一份提交文件(260号文件,提交于2015年1月7日)提到了“Rush and Bolt芯片”。一位法庭陪审员就这份文件的内容指出:“院方要求我对Diablo公司从2015年1月13日到2015年3月20日(即‘禁令期’)的Rush and Bolt芯片预期销售额作出估算。”
根据260号文件相关规定的要求,“根据Diablo方面提供的数据,Netlist公司对Diablo在禁令期间Rush and Bolt芯片的大致销售量(节录)作出推断。(以及)……Diablo公司在禁令期间通过销售Rush and Bolt芯片所获得的净值或者运营利润。”
金融研究企业Needham公司就此发布了一份研究报告,指出根据其对法庭文件的调查,SanDisk很可能将被迫中止继续销售ULLtraDIMM产品。
根据该公司的说法:“在我们看来,这可能会迫使SanDisk在谈判桌上与对方进行协调……”
机构研究企业Craig-Hallum公司也对上述观点表示赞同,并在一份报告中表示:“尽管目前最终判决仍未正式公布,但我们认为Netlist公司作出的禁止Diablo Technologies(以及SanDisk)继续销售其与SanDisk ULLtraDIMM产品相关芯片的主张应该会得到支持。”
Craig-Hallum公司同时宣称,这可能会迫使SanDisk与Netlist通过谈判找到解决办法:“如果这条禁令……在短期之内即付诸实施,我们亦不会对此感到意外,因为ULLtraDIMM产品在SanDisk公司2015年及之后的发展战略部署当中扮演着核心角色。”
Needham同时补充称:“在我们看来,要证明专利权无效实在非常困难,从这个角度拿下诉讼的可能性非常之低。……我们认为目前进行的专利审核不会影响到这份与合同纠纷及商业机密相关且已经开始生效的初步禁令。”
如果SanDisk与Netlist双方能够就许可协议进行谈判,那么Diablo也很可能会效仿这种两害相权取其轻的处理方式。
法院方面将这一商业机密案件的审判日期定在2015年3月9日。
* 案件编号:13-cv-05962-YGR,美国加利福尼亚州加利福尼亚北部奥克兰地方法院,Yvonne Gonzalez Rogers法官。
好文章,需要你的鼓励
三星与AI搜索引擎Perplexity合作,将其应用引入智能电视。2025年三星电视用户可立即使用,2024和2023年款设备将通过系统更新获得支持。用户可通过打字或语音提问,Perplexity还为用户提供12个月免费Pro订阅。尽管面临版权争议,这一合作仍引发关注。
浙江大学团队提出动态专家搜索方法,让AI能根据不同问题灵活调整内部专家配置。该方法在数学、编程等任务上显著提升推理准确率,且不增加计算成本。研究发现不同类型问题偏爱不同专家配置,为AI推理优化开辟新路径。
苹果M5 MacBook Pro评测显示这是一次相对较小的升级。最大变化是M5芯片,CPU性能比M4提升约9%,多核性能比M4 MacBook Air快19%,GPU性能提升37%。功耗可能有所增加但电池续航保持24小时。评测者认为该产品不适合M4用户升级,但对使用older型号用户仍是强有力选择。
清华大学研究团队提出SIRI方法,通过"压缩-扩张"交替训练策略,成功解决了大型推理模型"话多且准确率低"的问题。实验显示,该方法在数学竞赛题上将模型准确率提升43.2%的同时,输出长度减少46.9%,真正实现了效率与性能的双重优化,为AI模型训练提供了新思路。