分析公司Splunk正在使机器学习成为其下一代企业解决方案的核心,并称速度将比以前快20倍。
Splunk的平台会处理大企业生成的机器到机器的数据,帮助这些企业找到薄弱点并提升运营表现。
Splunk有大约14000家客户,其中包括医疗服务提供商、金融服务公司例如Nasdaq和Black Rock,以及像John Lewis这样的零售商。
为了争取更多的业务,今天Splunk在华盛顿年度会议上发布了最新一代企业解决方案,其中增加了更多算法。
Splunk公司IT市场布道师Guillaume Aymé表示:“现在我们会把这机器学习原生地内嵌到我们做的一切中。机器学习将帮助可以更好地做出决策。”
总的目标是从企业设备生成的数据中提供更多洞察,帮助这些企业提高性能,此外Splunk还希望通过在自身产品中原生地内嵌机器学习,这将吸引到那些通常不会想到使用机器学习的那些小型企业。
Aymé表示:“我们正在努力为企业组织降低使用机器学习的门槛,不需要聘请专门的数据科学家。他们只是希望机器学习能够带来成效,而不需要知道底层是如何运作的。”
机器学习将被融入Splunk最新版本的产品中,这些解决方案将专注于解决欺诈和云监控等痛点。
例如,User Behaviour Analytics通过搜索异常情况帮助检测内部交易和潜在安全漏洞,例如有人在不应该登录的时候进行登录。
与此同时,IT Service Intelligence产品则采用机器学习来区分“常态的”异常——例如银行预计在月底可能出现使用高峰——以及需要改善性能的情况。
对Splunk Enterprise 7.0来说另一个重大变化就是改进了的指标,这使得客户可以更好地分析各种数值例如温度等。Splunk表示,这一变化将加速监控,“至少”发出警报达20次。
“想到物联网设备,通常是笨笨的,只是发送出各种数字。我们让客户可以更加轻松地对这种数据进行分析,”Aymé表示。
好文章,需要你的鼓励
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。
这项研究由中国科学技术大学的研究团队提出了Pro3D-Editor,一种新型3D编辑框架,通过"渐进式视角"范式解决了现有3D编辑方法中的视角不一致问题。传统方法要么随机选择视角迭代编辑,要么同时编辑多个固定视角,都忽视了不同编辑任务对应不同的"编辑显著性视角"。Pro3D-Editor包含三个核心模块:主视角采样器自动选择最适合编辑的视角,关键视角渲染器通过创新的MoVE-LoRA技术将编辑信息传递到其他视角,全视角精修器修复并优化最终3D模型。实验证明该方法在编辑质量和准确性方面显著优于现有技术。
这项研究提出了ComposeAnything,一个无需重新训练的框架,可显著提升AI图像生成模型处理复杂空间关系的能力。该技术由INRIA、巴黎高师和CNRS的研究团队开发,通过三个创新步骤工作:首先利用大型语言模型创建包含深度信息的2.5D语义布局,然后生成粗略的场景合成图作为先验指导,最后通过物体先验强化和空间控制去噪引导扩散过程。在T2I-CompBench和NSR-1K基准测试中,该方法远超现有技术,特别是在处理复杂空间关系和多物体场景时表现卓越,为AI辅助创意设计开辟新可能。