Latisys是一家为客户提供按需主机托管和虚拟数据中心服务的领先供应商,拥有一流的资源和设备,包括资深的 IT专家和一个24x7x365全年不休的网络运营中心,来为其遍布各地,包括一些财富500强企业提供优质的服务。Latisys网络运营中心(NOC)作为Latisys管理主机客户端的关键,其基于SAN架构网络存储构建的按需计算平台,已经无法满足其对于I / O和网络存储性能不断增长的需求。为此,Latisys在进行多方评估之后,采用了QLogic 8Gb FC技术,来满足他们不断扩展的目标需求。
挑战
Latisys网络运营中心(NOC)是Latisys管理主机客户端的关键。它负责监控、问题跟踪、远程管理和问题的解决。NOC采用先进的技术,在客户端出现问题时,能够及时联系相关人士,并保持客户知情,并能针对Latisys人员、客户人员甚至是第三方供应商分派正确的资源,以确保迅速解决每一个问题。此外,NOC接收所有与客户检测到的故障和问题有关的以及额外的服务请求操作要求,让客户能够始终获悉和掌控一切问题,并获得该行业提供最佳的服务。因此,为了给多样化且不断增长的客户群提供最高满意度的服务,并出于业务整合的需求,Latisys需要保证最高等级的性能,以及最可靠的光纤通道网络。
QLogic 8Gb光纤通道解决方案
由于Latisys的客户来自不同行业,如在线游戏、金融服务和电子商务,因此对于这些客户而言,Latisys在使用8Gb光纤通道技术之后,所实现的更快备份、更高吞吐量、更快SAN复制和更高的业务连续性,很有可能给他们的虚拟数据中心带来巨大的潜在商业利益。
因为Latisys环境包括大量的“物理”刀片服务器和“虚拟”刀片服务器,然后连接到存储区域网络(参见下图),服务器堆栈满负载运行LAN子系统,该子系统不仅作为用户接口的网关,而且还要运行安全和网络服务。 “关键业务”这个词甚至都不能用来诠释它 - 这个系统需要保持99.999%的可用性,以满足Latisys客户的正常运营需求。
QLogic 8Gb光纤通道解决方案可帮助Latisys提高系统的可用性(99.999%的正常运行时间),并将备份时间从数小时缩短到几分钟。 Latisys采用最新的技术,不仅提高了虚拟服务器的密度,同时提供投资保护,并能够对现有基础设施的兼容,以及实现更低的功耗。所有这一切都降低了他们的总拥有成本。
即使如备份和恢复这样一个简单的过程,都可以对系统产生巨大的影响。 Latisys IT负责人Oliveira表示:“在我们与QLogic的沟通中,我们很快意识到8Gb是一个真正的高性能计算解决方案。当一个产品可以将备份窗口从2小时缩短至30分钟左右,你知道这不只是在谈论速度优势。你要知道对于我们那些运行高要求的网络、交易数据库、国际计算机游戏的客户,尤其是金融机构,这是在谈论五位数范围的资金节省。”
正如大多数QLogic企业客户都知道,QLogic产品一大卖点是,他们与架构无关,而且能完全向后兼容4Gb和2Gb的设备。QLogic 8Gb HBAs拥有绿色节能的技术优势,如动态电源管理和QLogic神奇的HBA技术,该技术能让HBAs不需要散热片或冷却风扇就可运行。
Oliveira表示:“我们很高兴能对8Gb进行测试和评估,因为这项技术不仅能满足未来的需求,同时还可建立一个灵活的、可扩展的网络架构。在我们的业务中,拥有最敏捷网络的公司会受惠良多,包括更好的盈利能力、更可靠的数据中心运营,以及我们客户群不断增长的信任。”
综上所述,I/O的大量聚合以及对新的优质服务的渴求,是QLogic 8Gb的解决方案迅速引起Latisys关注的主要原因。功能强大的刀片服务器和高利用率的虚拟机之间的整合,引发对8Gb光纤通道超高带宽的需求。在刀片服务器上部署虚拟机,要实现卓越应用性能,最合乎逻辑的选择是存储区域网络8Gb光纤通道,包括8Gb交换机、HBA和强大的架构管理软件。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。