近日,在 2023 SAP TechEd 技术大会上,SAP推出了一系列全面的生成式 AI 功能和进展,旨在赋能不同技能水平的开发人员,助力企业制胜 AI 时代。
SAP 执行董事会成员、首席技术官穆悦庚 (Juergen Mueller) 表示:“当今不断变化的技术和商业环境下,每位开发人员都需要掌握 AI 开发技能。在 SAP TechEd 大会上,我们发布了多项创新成果,其中既有嵌入 AI 技术的传统代码开发工具,也有一站式平台,依托 SAP BTP(业务技术云平台) 开发生成式 AI 扩展和应用。开发人员身处 AI 变革浪潮的中心,这些资源可以支持他们变革企业的运营模式。”

图:SAP 执行董事会成员、首席技术官穆悦庚 (Juergen Mueller) 在大会上发表演讲
企业都希望从生成式 AI 中获取商业价值,因此,专业和普通开发人员之间达成有效合作就变得至关重要。SAP 推出 SAP Build Code 解决方案,可以更轻松地让使用去年发布的 SAP Build 的业务专家开展协作。SAP Build Code 解决方案专为 SAP 应用和生态系统打造,为开发人员提供了 AI 驱动的生产力工具,并针对 Java 和 JavaScript 开发环境进行了优化。此外,SAP Build Code充分利用Joule的能力,即全新的、真正懂得业务的生成式AI“智能副驾”,来进一步提高工作效率,它嵌入了代码生成功能,可用于创建数据模型、应用逻辑和测试脚本。
高质量的数据是造就优秀AI的基础。SAP HANA Cloud 持续引领数据领域的创新,在不增加额外成本的情况下,将新的矢量数据库功能添加到自身的多模式产品中。矢量数据存储能够管理文本、图像或音频等非结构化数据,为 AI 模型提供长期记忆和更清晰的上下文情境,从而快速、轻松地查找和检索相似的对象。比如,用户可以根据合同中的语言搜索供应商,查看供应商付款记录,并追踪单个订单。这些新的矢量数据库功能非常强大,能够增强大型语言模型与企业关键数据之间的交互。该创新功能提供了一个安全、私有的框架,并采用行业特定的客户数据来减少幻觉,帮助 SAP 开发人员率先交付全新的数据洞察。
基于 SAP BTP 的AI Foundation 是一款全新的一站式平台,支持开发人员依托 SAP BTP 开发基于 AI 和生成式 AI 的扩展组件和应用,有助于进一步提高开发人员的影响力和工作效率。AI Foundation 囊括了大量资源,包括即用型 AI 服务、访问领先的大型语言模型的权限、矢量数据库功能,以及 AI 运行时间和生命周期管理。这些资源能够满足开发人员一切所需,帮助他们依托 SAP BTP 开发业务就绪型 AI 工具。
技术创新的日新月异,使得世界对资深开发人员的需求与日俱增。为此,SAP 也在不断提供更多学习机会。为了践行到 2025 年提升 200 万开发人员技能的承诺,并补充现有的免费 AI 学习内容,SAP 此次针对使用 ABAP Cloud 开发模型的后端开发人员,推出了新的基于角色的认证和免费的学习资源,覆盖了基于 SAP BTP 和 SAP S/4HANA 的 ABAP 开发工具,在SAP Learning 网站上即可轻松获取。这些学习资源为开发人员提供了所需技能,支持他们构建符合 SAP clean core(干净的数字核心)战略的云就绪扩展组件,进而帮助企业在云端开展灵活、合规的业务转型。
SAP还加入了斯坦福以人为本AI研究院的企业会员计划。SAP研究人员和工程师将与包括研究教师和学生在内的斯坦福学术界合作,共同探讨生成式AI和商业的交汇之处。
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。