至顶网美国报道:2018年9月25日至27日,Hitachi Vantara用户大会NEXT 2018在圣迭戈举行。Hitachi Vantara首席执行官Brian Householder在演讲中谈到在这个“游戏规则已经发生变化”“用户期望在发生改变”的今天,数字化变革势在必行。Hitachi Vantara要想作为引领行业转型的数据驱动型创新者。也是积极主动的变革,这也是为什么在NEXT 2017上,公司成立Hitachi Vantara公司。
Hitachi Vantara全球高级副总裁兼亚太区总经理庄国光在接受至顶网采访中谈到,目前来看Hitachi Vantara的战略规划和产品线非常清晰,和今天的用户转型方向也非常契合。合作伙伴和用户都表示今天的Hitachi Vantara能够提供完整、清晰的价值服务。“当合作伙伴和用户在看Hitachi Vantara的转型方向的时候,和自己的转型方向一致,也都非常积极的配合起来。”
从这几天大会上发布的产品和解决方案可以看出,Hitachi Vantara非常成功。庄国光认为一方面为客户服务的文化和精神没有改变,一方面Hitachi Vantara又在积极拥抱改变。“Hitachi Vantara是在积极主动的转型,很多竞争对手是在被动转型,所有整个Hitachi Vantara的员工能够更加拥抱这种转变,才能实现平稳的过渡期。”
同时为了让Hitachi Vantara技术和产品更加落地,Hitachi Vantara成立之后与合作伙伴形成新的关系。合作伙伴、用户、厂商这个三角关系长期存在,但是在今天这个数据增长、多云、IOT环境下的用户需求发生了很大的改变。因此对于Hitachi Vantara和合作伙伴之间的合作也在改变、“以前是单对单的合作方式,在Hitachi Vantara提供从数据存储、分析到IOT完整的方案,这样就可以整合不同的合作伙伴同一时间提供完整的解决方案帮助用户转型。”庄国光对至顶网讲到。今天没有一个企业能够独立完成IOT时代的用户需求,庄国光表示一方面希望帮助合作伙伴提升他们转型的方向,一方面希望具有新的能力的合作伙伴加入提供独一无二的产品和解决方案来帮助客户,释放数据价值。
中国市场已经成为一个成熟的市场,而且Hitachi Vantara中国团队是一个非常健康的团队,也对Hitachi Vantara全球副总裁兼中国区总经理戴建平非常放心。相信在戴建平的带领下,Hitachi Vantara能够在中国市场继续处于稳定的增长。
对于2018年中国的预期,庄国光表示,继续保持在金融等领域的高中端存储的优势,同时发力在HCP对象存储、Pentaho数据分析软件等新一代数据存储需求上。庄国光表示中国市场已经是全球竞争最激烈的市场,Hitachi Vantara重要的是追求客户质量,为客户提供最优质的产品和解决方案。
作为亚太区的总经理,庄国光很大部分时间是在印度,他认为印度就像21世纪初的中国,充满了机会。“印度是一个人口非常年轻的国家,现在也在积极发展实体经济,不仅是Hitachi Vantara充满机会,中国的很多企业包括阿里巴巴、小米也在印度取得很好的增长。”目前印度政府、金融是Hitachi Vantara重点服务的行业,电信比较薄弱,但是潜力巨大。
好文章,需要你的鼓励
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。
这项研究由中国科学技术大学的研究团队提出了Pro3D-Editor,一种新型3D编辑框架,通过"渐进式视角"范式解决了现有3D编辑方法中的视角不一致问题。传统方法要么随机选择视角迭代编辑,要么同时编辑多个固定视角,都忽视了不同编辑任务对应不同的"编辑显著性视角"。Pro3D-Editor包含三个核心模块:主视角采样器自动选择最适合编辑的视角,关键视角渲染器通过创新的MoVE-LoRA技术将编辑信息传递到其他视角,全视角精修器修复并优化最终3D模型。实验证明该方法在编辑质量和准确性方面显著优于现有技术。
这项研究提出了ComposeAnything,一个无需重新训练的框架,可显著提升AI图像生成模型处理复杂空间关系的能力。该技术由INRIA、巴黎高师和CNRS的研究团队开发,通过三个创新步骤工作:首先利用大型语言模型创建包含深度信息的2.5D语义布局,然后生成粗略的场景合成图作为先验指导,最后通过物体先验强化和空间控制去噪引导扩散过程。在T2I-CompBench和NSR-1K基准测试中,该方法远超现有技术,特别是在处理复杂空间关系和多物体场景时表现卓越,为AI辅助创意设计开辟新可能。