OpenStack本周四发布清单,OpenStack的下个版本,即Mitaka,已经正式打造完成。与此次大版本更新相关的消息可谓一应俱全。
这一轮OpenStack升级口号主要围绕易用性与可扩展性作文章。
与以往一样,新版本同样凝聚了庞大的资源与心血:Nova13.0发布说明中坦言,"实现我们所推出的全部变更确实极为艰难"。
该项目新版本最引以自豪的改动包括增加默认设置数量,据称其移除了相当一部分变量,从而帮助使用者更轻松地加以理解或调整。其中Keystone身份服务正是最典型的例子,如今该服务承诺提供一步式流程,用以跨越整个云体系进行身份管理设置。
另外新增的还有面向全部OpenStack子项目的统一调用机制,这意味着开发人员将不再需要学习并使用多种API。
一套新的OpenStack客户端,用户可以利用这款工具驱动所有OpenStack下的子项目--而无需使用大量各自独立的客户端。
在两周后将于德克萨斯州奥斯汀市召开的下一轮OpenStack峰会上,无疑将会公布更多与新版本相关的消息--让我们共同期待这场Mitaka领衔的资讯盛宴。
好文章,需要你的鼓励
从浙江安吉的桌椅,到广东佛山的沙发床垫、河南洛阳的钢制家具,再到福建福州的竹藤制品,中国各大高度专业化的家具产业带,都在不约而同地探索各自的数字化出海路径。
哥伦比亚大学研究团队开发了MathBode动态诊断工具,通过让数学题参数按正弦波变化来测试AI的动态推理能力。研究发现传统静态测试掩盖了AI的重要缺陷:几乎所有模型都表现出低通滤波特征和相位滞后现象,即在处理快速变化时会出现失真和延迟。该方法覆盖五个数学家族的测试,为AI模型选择和部署提供了新的评估维度。
研究人员正探索AI能否预测昏迷患者的医疗意愿,帮助医生做出生死决策。华盛顿大学研究员Ahmad正推进首个AI代理人试点项目,通过分析患者医疗数据预测其偏好。虽然准确率可达三分之二,但专家担心AI无法捕捉患者价值观的复杂性和动态变化。医生强调AI只能作为辅助工具,不应替代人类代理人,因为生死决策依赖具体情境且充满伦理挑战。
这项研究首次发现AI推理模型存在"雪球效应"问题——推理过程中的小错误会逐步放大,导致AI要么给出危险回答,要么过度拒绝正常请求。研究团队提出AdvChain方法,通过训练AI学习"错误-纠正"过程来获得自我纠错能力。实验显示该方法显著提升了AI的安全性和实用性,用1000个样本达到了传统方法15000个样本的效果,为AI安全训练开辟了新方向。