2024年6月21日至23日,华为开发者大会(HDC)2024在中国松山湖举行。多位鸿蒙先锋开发者伙伴在6月22日的“开发者主题演讲”环节进行了议题分享,他们围绕HarmonyOS NEXT开发者解决方案的四大特征——清晰易学、极简开发、极致效率、创新突破展开演讲。来自南昌航空大学的周子萌作为学生代表在《鸿蒙原生应用好学好开发》中,结合开发套件的“清晰易学”特征,分享了她与HarmonyOS NEXT的精彩邂逅。
2023年,周子萌及其信天翁团队参加了HarmonyOS极客马拉松比赛,在HarmonyOS NEXT的帮助下仅用7天时间便完成初赛作品,并最终获得了二等奖以及“鸿蒙先锋”等荣誉。周子萌的分享不仅是对个人开发者之路的回顾,也为其他开发者提供了一个学习HarmonyOS NEXT的宝贵视角。
周子萌团队此前有过研发“飞行仪表系统”应用的经验,而后又在机缘巧合下参与了鸿蒙的开发,从萌新到获奖,周子萌认为她们的团队历程主要分为这四个部分:了解新技术、从语言入手、边学边练以及实战开发。在最初接触HarmonyOS NEXT时,她和团队成员都是“小白”,但他们通过官方文档和《鸿蒙生态应用开发白皮书》迅速了解了HarmonyOS NEXT的核心概念和开发体验。HarmonyOS NEXT的“一次开发,多端部署”理念和“可分可合,自由流转”特性为他们的产品设计与开发提供了创新思路。
在学习编程语言方面,周子萌认为将新知识与已有知识相结合是学习途中非常重要的事情。她发现,尽管每种编程语言都有其独特语法和特性,但底层逻辑是相通的。HarmonyOS NEXT的编程语言ArkTS相比之下更为简洁,易于上手,且符合自然语言的结构,这使得即使是编程初学者也能较快掌握。
在完成作品的基本内容后,周子萌和团队成员并未止步,而是继续完善应用。在具体实现特定交互模式时,他们还借助华为云提供的详细指导和实践案例来理解不同组件的协同工作方式。这不仅帮助他们快速构建和优化应用,还提高了开发效率和产品质量。此外,在平板端的设计上,他们创新性地实现了二级联动界面,为用户提供了直观且便捷的交互体验。
周子萌还提到了HarmonyOS NEXT的设计规范和创新特性,这些规范和特性指导他们在项目中实现了标准化和高质量的用户体验。通过遵循这些规范,他们确保了应用的界面一致性和流畅性,并实现了多端适配和按需分发。数据的自由流转功能更是让用户体验到了无缝衔接的设备操控感。
在学习和实战开发的过程中,周子萌团队也会遇到各种问题。周子萌表示HarmonyOS NEXT的开发者论坛给予了他们很大的帮助,这个平台上的知识问答和博主知识分享为开发者提供了丰富的参考资料,帮助他们解决遇到的各种问题和挑战。在参加HarmonyOS极客马拉松大赛时,技术专家的现场支持也为开发者们提供了及时的答疑解惑服务,助力他们更快更好地完成应用开发。
周子萌的分享展现了HarmonyOS NEXT赋能开发者的强大优势,她鼓励所有开发者抓住机遇,在这个充满潜力的领域发光发热。随着HarmonyOS NEXT的不断发展,相信会有越来越多的开发者像周子萌一样,借助HarmonyOS NEXT的能力实现自己的开发者梦想。
好文章,需要你的鼓励
ETH Zürich等机构研究人员提出TrustVLM框架,解决视觉-语言模型预测可信度问题。该方法利用模型中存在的"模态差距",创新性地结合图像到文本和图像到图像的相似度,实现无需重新训练即可大幅提升误分类检测性能。在17个数据集的严格测试中,TrustVLM相比现有方法在关键指标上提升显著,同时改善了零样本分类准确率。此成果为AI系统在自动驾驶、医疗等安全关键领域的可靠部署提供了重要保障。
这项研究提出了个性化安全概念,解决大语言模型对不同用户采用统一安全标准的问题。研究团队创建了PENGUIN基准测试集评估模型在处理高风险场景时的个性化安全能力,并开发了RAISE框架高效获取关键用户信息。实验表明,提供用户背景可使安全分数提高43.2%,而RAISE框架通过平均仅2.7次交互即可提高安全分数31.6%。这一创新方法将AI安全从"一刀切"转向"个性定制",为高风险领域的AI应用提供了新思路。
明尼苏达大学研究团队提出了一种创新方法,通过回合级信誉分配显著提升大语言模型(LLM)智能体的多回合推理能力。传统方法只对整个过程进行评价,而他们的MT-GRPO算法能够精确评估每个决策步骤的价值,就像为每一步提供具体反馈。在维基百科搜索工具使用场景中,该方法实现了100%的工具执行成功率和50%的答案精确匹配率,远超传统方法。这一突破不仅提高了AI在多步骤任务中的表现,也为开发更复杂的AI系统提供了重要思路。
这篇研究介绍了PISCES——一种能精确从大语言模型参数中移除特定概念知识的创新技术。与现有方法不同,PISCES通过解缠器模型识别概念相关特征,直接编辑模型参数,实现了更精准的知识移除。在Gemma和Llama模型上的测试表明,该方法不仅有效降低了目标概念的准确率(低至7.7%),还保持了模型在无关领域的高性能,并显著提高了对"重新学习"的抵抗力。这一突破为AI系统的安全部署和合规使用提供了新的可能性。