为了再度发挥自身的固有优势,NetApp公司已经推出一款补充性连接器产品,旨在帮助其Data ONTAP客户在无需将数据由WAFL复制到HDFS中的前提下对自有NFS数据进行Hadoop分析。
这套NFS Connector for Hadoop能够处理来自各类数据源的大数据输入内容,而后将结果与结构化数据分析相结合。从根本层面来看,这相当于将两类数据汇总成统一化视角、从而更为透彻地掌握企业或者公共事业组织的当前运作状况。
这样的方案避免了将大规模数据由FAS阵列迁移至HDFS(即Hadoop文件系统)集群所带来的麻烦与不便。
这套Hadoop集群能够以HDFS为主要运行平台,并将ONTAP作为辅助性文件系统。除此之外,该集群还能够在无需造成独立HDFS孤岛的前提下单纯运作在FAS阵列之上。
这很可能成为ONTAP用户试水Hadoop项目并体验其实际效果的绝佳途径。
这套连接器采取开源机制,并由GitHub负责托管:
• 专门针对MapReduce协作需要,从而配合Apache Hadoop框架当中的计算部分。
• 能够支持Apache HBase(属于列式数据库)。
• 能够支持Apache Spark(与Hadoop相兼容的处理引擎)。
• 能够与Tachyon内存内文件系统相协作,后者能够与Apache Hadoop与Spark并行协作。
在一篇博文当中,NetApp公司CTO办公室的Val Bercovici表示:“NetApp计划将相关代码贡献给Hadoop项目主体。”
NetApp公司还针对Cloudera制定出自己的NOSH(即面向Hadoop的NetApp开放解决方案)计划。
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。