Emulex日前宣布将为全新的Fujitsu PRIMERGY RX、TX、BX和CX机架式、塔式、刀片和扩展(scale-out)服务器提供以太网和光纤通道(FC)连接解决方案。全新PRIMERGY服务器基于最新发布的英特尔至强处理器E5-2600/1600 v3产品家族,设计用于支持虚拟桌面基础架构(VDI)和大数据分析等下一代工作负载和网络功能虚拟化(NFV)等新兴计算架构。Emulex OneConnect万兆以太网(10GbE)和LightPulse第五代(16Gb)FC技术是全新Fujitsu PRIMERGY I/O连接解决方案系列的基础,其中包括一块DynamicLoM(LAN on Motherboard)——这是一种独特、模块化、可扩展而且可现场更换的LOM架构。
Emulex市场营销高级副总裁Shaun Walsh表示:“Emulex与Fujitsu携手开发模块化DynamicLoM架构,可通过支持RDMA over Converged Ethernet(RoCE)实现数据加速,通过将小数据包处理性能提高4倍来扩展以支持新的工作负载,同时通过硬件卸载降低运营成本。我们还扩展了与Fujitsu在FC领域的长期合作关系,利用ExpressLane增加了多种高级特性,在基于闪存的存储环境中提供基于延迟的服务质量(QoS),并支持Brocade ClearLink诊断功能,通过验证网络路径和隔离潜在网络问题来优化FC网络完整性。”
Fujitsu服务器产品管理总监Uwe Romppel表示:“我们的新一代PRIMERGY服务器利用了我们20年的x86服务器开发经验,而客户、合作伙伴和市场带给我们的灵感也功不可没。从1994年第一台PRIMERGY服务器问世至今,我们的目的一直是进一步推动创新,提高可用性和效率,为打造以业务为中心的数据中心做出贡献。面向PRIMERGY服务器的Emulex以太网和光纤通道解决方案可交付客户运行下一代应用所需的更出色性能、可扩展性和灵活性,进而轻松实现上述目标。”
面向全新Fujitsu PRIMERGY服务器的Emulex以太网I/O连接解决方案可带来以下关键优势:
Fujitsu LPe16000B-M6-F、LPe16002B-M6-F和MC-FC162E 16GFC适配器基于Emulex LightPulse第五代FC技术,可在一个端口上提供每秒超过120万次I/O操作(IOPS)的出色性能(这是目前最高的FC适配器性能),而且每端口IOPS数量比上一代提高了6倍,可为云和存储密集型应用提供更出色的存储性能。通过提供比上一代HBA高4倍的每瓦特IOPS性能,它还可以提高能效。Emulex第五代FC还采用了独有的ExpressLane技术。该技术可以利用优先级标记识别发往网络架构的高优先级流量,减少拥塞,缩短延迟并提高吞吐量,进而改进服务水平协议(SLA)和服务质量(QoS)。此外,利用Emulex第五代FC HBA对Brocade ClearLink诊断技术的支持,客户现在可以优化应用性能并加快部署问题的解决。
Emulex FC和以太网适配器基于相同的驱动程序,可通过OneCommand-Manager配置,可在虚拟化环境中降低复杂性并减少网络重新配置工作,同时通过协议融合实现统一网络,加快上市时间,帮助客户无缝地部署下一代数据中心。
面向全新Fujitsu PRIMERGY RX和BX机架式和刀片服务器、基于Emulex技术的Fujitsu I/O连接解决方案包括:
好文章,需要你的鼓励
OpenAI发布ChatGPT Atlas AI浏览器,支持网页问答、历史查询和邮件改写等功能。同时曝光秘密项目Mercury,雇佣约100名前投行精英以每小时150美元训练AI金融模型。公司还因用户滥用Sora生成马丁·路德·金视频而暂停相关功能。此外,医疗AI搜索引擎OpenEvidence获2亿美元融资,估值60亿美元。
浙江大学团队提出动态专家搜索方法,让AI能根据不同问题灵活调整内部专家配置。该方法在数学、编程等任务上显著提升推理准确率,且不增加计算成本。研究发现不同类型问题偏爱不同专家配置,为AI推理优化开辟新路径。
随着Chrome和Safari主导浏览器市场,众多替代浏览器正在挑战这些行业巨头。本文梳理了当前顶级替代浏览器,包括AI驱动的浏览器如Perplexity的Comet、Arc公司的Dia、Opera的Neon和OpenAI的Atlas;注重隐私的浏览器如Brave、DuckDuckGo、Ladybird和Vivaldi;以及专注特定领域的浏览器如Opera Air和SigmaOS。这些浏览器通过AI集成、隐私保护、定制化和专注用户福祉等特色功能,为用户提供了多样化的浏览体验选择。
清华大学研究团队提出SIRI方法,通过"压缩-扩张"交替训练策略,成功解决了大型推理模型"话多且准确率低"的问题。实验显示,该方法在数学竞赛题上将模型准确率提升43.2%的同时,输出长度减少46.9%,真正实现了效率与性能的双重优化,为AI模型训练提供了新思路。