2016年8月5日,全球开源领导厂商红帽携手ZD至顶网、Intel、云达科技共同举办的主题为“开放 融合 开源开启存储新世界”的2016年中国开源企业存储峰会在北京富力万丽酒店隆重召开。在下午峰会上,Intel亚太研发有限公司云存储技术组高级软件工程师张建先生带来题为“优化Ceph效能的最佳实务技巧”的主题演讲。
张建表示Intel一直来为Ceph进行优化效能,包括结合最新的3D Xpoint内存技术的性能加速,包括在实际应用中优化压缩,加密、硬件卸载以及RBD缓存和缓存分层的优化,通过IA优化的存储库最大限度的减少延迟。Intel还参与了很多开源项目,做了很多性能分析以及工具,针对特定应用场景的优化,通过这种方式促进Ceph的正当发展。
以下是嘉宾的演讲实录:
张建:大家好,我是来自于Intel亚太研发有限公司云存储技术组的张建,今天给大家分享一下在优化Ceph效能的最佳实务技巧。
首先我会自我介绍一下。下面我会结合背景为什么做Ceph的优化,做这个有什么意义以及怎么做。有通用的部署以及指南。然后有一些案例,包括块、对象以及密集研发过程中的工具,然后通过我一些的特殊工具能够达到什么样的程度,我欧合作在哪里以及未来的机会在哪里。最后做一下Ceph的介绍和SMMARY的介绍。
第一个介绍——Ceph at Intel。这些应用,其实我们在Optimize做了一些,主要是基于Intel平台。比如做Compression, Encryption hardware offloads (QAT、SOCs)。这是第一。
第二是PMStore(for 3D XPointDIMMs)。第三是RBDcaching and Cache tieringwith NVM。第四是IA optimized storage libraries to reduce latency。
第二块是做了很多性能分析以及工具,通过这种方式促进Ceph的正当发展,还有一些针对特定应用场景的优化。
接下来是一些尝试,会有管理工具,比如CDN, Cloud DVR, Video Surveillance, CephCloud Services, Analytics。
然后是基于Intel的产品,做一些开源项目,希望尽快地达成方案。
为什么要对Ceph做各种的优化?通过前面的嘉宾发言能够了解到。广大客户看中Ceph的是蔓延性。但从应用角度来看,有一些复杂的地方,比如怎么对硬件进行配置等,这些都有一些不确定性。另外,运营系统里需要对超系统本身做东西。另外在几百个参数里怎么获得我的参数,以满足我的需求。
在我们介绍的具体案例分享中,看看Intel所做的大会,吸引了400多个人参加,系统上非常好。但同时也存在一些问题,比如右边的图(图),前三个的问题在哪里?(图)第一个是Performance,第二个是code complexity。第三个是Stability。
根据这些问题,做了一些方案。这个图是Ceph的投资架构图。(见PPT图:Ceph—General Community Deployment Practices)(PPT图:Available Ceph solution recipes)(PPT图:Intel solutions for Ceph deployments)
下面是具体的案例,会从这几个方向分享一下我们针对特定的传统做的各种方法。一个是Ceph Tunings。接下来看一下Ceph Block performance。(见PPT图Ceph Blocr perfomance—Test Results)。通过右边的图可以看到,前面的分别可以达到86%和90%的带宽,有一定的优化空间在里面。左边是Drop OSD Cache—Prepare Data (dd)—Run FIO,1.40GB Span。2.4 IOs: Sequential (W,R), Random (W, R)。3.400s test。4.Scale RBD images –1 to 120。
(PPT图:Ceph Block Performance –Tuning effects)
基于前面做的,我们做了优化,数据…5%左右。第二个是把原来的关掉,比较明显,大概有59%。做一些red hat。所以我们会去做一些。
接下来一块是针对对象。在这个节点我们使用了我们自己开发的工具,这种规模比较下,希望100高一点。我们做了很多。后来还有一个best 。接下来是我们做的重点是现在群。这个方面,大家可以看到没有任何性能的保留。参数设得比较高,可以看到在今天的对比下可以非常显著地提高运营系统。
当然还有很多优化空间在里面。
最后一块是基于上面的架构,为了保存数据,还是要去。所以在数据分析上,需要写一个。
这是对比(图),我们看一下对比图,我们做的,现在观察到的结果,有两倍。当然还有好多优化的地方。
最后一部分是CeTune。
第二部分是COSBench,可以到做很多应用。
最后一个VSM,这是2014年做的开源,产品化以后,OpenStack* Paris summit, designed to help lower the barrier to adopt Ceph.会提供不同的界面,The project earns a lot of interests from community, a few companies decided to adopt in production.
所以,第一点是越来越独到了。第二通过前面的案例分析可以看到,需要优化。第三ceph开辟新的领域,但还需要优化,进一步发挥出来。最后和Intel一起合作共同努力。
好,谢谢大家!
好文章,需要你的鼓励
机器人和自动化工具已成为云环境中最大的安全威胁,网络犯罪分子率先应用自动化决策来窃取凭证和执行恶意活动。自动化攻击显著缩短了攻击者驻留时间,从传统的数天减少到5分钟内即可完成数据泄露。随着大语言模型的发展,"黑客机器人"将变得更加先进。企业面临AI快速采用压力,但多数组织错误地关注模型本身而非基础设施安全。解决方案是将AI工作负载视为普通云工作负载,应用运行时安全最佳实践。
MBZUAI研究团队发布了史上最大的开源数学训练数据集MegaMath,包含3716亿个Token,是现有开源数学数据集的数十倍。该数据集通过创新的数据处理技术,从网页、代码库和AI合成等多个来源收集高质量数学内容。实验显示,使用MegaMath训练的AI模型在数学推理任务上性能显著提升,为AI数学能力发展提供了强大支撑。
面对心理健康专业人士短缺问题,谷歌、麦肯锡和加拿大重大挑战组织联合发布《心理健康与AI现场指南》,提出利用AI辅助任务分担模式。该指南构建了包含项目适应、人员选择、培训、分配、干预和完成六个阶段的任务分担模型,AI可在候选人筛选、培训定制、客户匹配、预约调度和治疗建议等环节发挥作用。该方法通过将部分治疗任务分配给经过培训的非专业人员,并运用AI进行管理支持,有望缓解治疗服务供需失衡问题。
这项由多个知名机构联合开展的研究揭示了AI系统的"隐形思维"——潜在推理。不同于传统的链式思维推理,潜在推理在AI内部连续空间中进行,不受语言表达限制,信息处理能力提升约2700倍。研究将其分为垂直递归和水平递归两类,前者通过重复处理增加思考深度,后者通过状态演化扩展记忆容量。