红色巨人高度重视这座SAN塔式设备,并希望其同样赢得客户关注。
甲骨文公司正在对其FS1存储阵列重构并引入自家公有云当中,且不再将其作为内部基础设施设备进行销售。
FS1-2产品最初作为Pillar Axiom的重新设计方案于2014年9月发布,这是一台立足机架内的混合型闪存/磁盘阵列,具备双主动/主动控制器、风扇、电源以及非易失性镜像缓存。其闪存容量可扩展至912 TB,闪存与磁盘的混合存储容量则最高可达2.9 PB。
一年之后推出的全闪存FS1则提供2 TB到912 TB存储容量。这可以被视为一台被移除了磁盘驱动器机柜的FS1-2,只保留了一台30 x 2U驱动器机柜作为向上扩展机制。
在此之后,甲骨文公司采取一系列举措以敦促其内部解决方案客户迁移至甲骨文云当中。其中的部分原因在于客户开始越来越多地选择商用化产品——包括来自竞争对手的x86服务器/存储套件,另一部分原因则在于AWS与Azure在企业数据库领域的信誉不断提升,而甲骨文硬件的销售额则因此不断下滑。
在被问及FS1阵列时,一位甲骨文公司发言人告诉我们,“公司内部目前正专注于将该产品引入甲骨文云。”
如果甲骨文客户决意迁移至公有云领域,那么甲骨文公司当然希望保证其选择自家公有云产品。以下2017年3月图表显示出甲骨文公司在过去几年季度当中硬件与云业务的变化趋势。
我们曾在之前的文章中指出,“FS1闪存SAN阵列将面对采用NVMe驱动器并配合高速服务器互连架构(例如NVMe over Fabrics)的其它竞争性产品。另外,亦将有越来越多的服务器SAN搭载有3D XPoint存储级内存或者类似的技术方案。”
但就目前的情况看,甲骨文公司已经决定对FS1进行定位调整以摆脱来自其它内部全闪存阵列竞争对手的冲击。该产品仍然被列入甲骨文公司的工程技术硬件产品网页当中,但在其“了解更多”链接结果中,可以看到“我们找不到您需要的页面”信息。
其它各主流存储硬件供应商则迎来了内部全闪存阵列销售额的持续增长:戴尔-EMC、HPE、IBM、NetApp以及Pure等厂商正是最好的实例。甲骨文公司显然对于未来有着不同的看法,并再次决定逆势而动。
好文章,需要你的鼓励
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。
这项研究由中国科学技术大学的研究团队提出了Pro3D-Editor,一种新型3D编辑框架,通过"渐进式视角"范式解决了现有3D编辑方法中的视角不一致问题。传统方法要么随机选择视角迭代编辑,要么同时编辑多个固定视角,都忽视了不同编辑任务对应不同的"编辑显著性视角"。Pro3D-Editor包含三个核心模块:主视角采样器自动选择最适合编辑的视角,关键视角渲染器通过创新的MoVE-LoRA技术将编辑信息传递到其他视角,全视角精修器修复并优化最终3D模型。实验证明该方法在编辑质量和准确性方面显著优于现有技术。
这项研究提出了ComposeAnything,一个无需重新训练的框架,可显著提升AI图像生成模型处理复杂空间关系的能力。该技术由INRIA、巴黎高师和CNRS的研究团队开发,通过三个创新步骤工作:首先利用大型语言模型创建包含深度信息的2.5D语义布局,然后生成粗略的场景合成图作为先验指导,最后通过物体先验强化和空间控制去噪引导扩散过程。在T2I-CompBench和NSR-1K基准测试中,该方法远超现有技术,特别是在处理复杂空间关系和多物体场景时表现卓越,为AI辅助创意设计开辟新可能。