第六届中国云计算大会上,ZDNet采访直播间分外热闹,产学研三路专家都曾做客其中分享云计算、大数据的故事。PMC公司研发副总裁兼首席科学家廖恒博士也是其中一员,他跟ZDNet的网友讲述的是PMC如何做“硬”以迎接大数据浪潮,应对软件冲击。
大数据时代造就市场更大的需求,这对于长期关注于数据存储的PMC来说绝对是个机遇。但是,廖恒博士表示目前市场上对于大数据还存在一定误解。数据的处理计算必须和存储相互依赖相互结合,而常常在谈论大数据的时候,却比较容易忽视存储,而将大数据片面的理解为Hadoop。
这在实际数据存储中却要依情况而看,廖恒举例目前90%以上的大数据分析所覆盖的大数据量其实并不是很大,可能还不到到100G的容量,大材小用时有发生。这就需要一种模式的创新,Hadoop更多的是面向于大集群、文件批处理的模式,而Spark可应对内存内的处理,所以要根据实际需要进行匹配,当然也更适用于TCO的优化。未来,数据中心或者是在小规模的机架内做到资源的共享、池化和调配,会带来一个最终的优化方案。
谈到软硬件关系,廖恒形象地比喻,在软硬件的体系结构的中间有条很大的鸿沟,软件人不能理解硬件实质,硬件人又很难理解软件的生态,但软硬件又是一种互相依赖的关系。应对于此,作为存储的硬件厂商,PMC今天提供的更多的是模块化的解决方法。不论芯片、板卡、子系统还是通过SATA、SAS、PCIe来连接,都能覆盖市场中的所有形态,但这种搭积木的模式也不是完善的,灵活性就是个大考验。
PMC也在寻求改善,体系结构上亟需创新,去年提出的I/O分离解耦合的体系架构就是解决方案。当然,这个方案不是一蹴而就的,包括基础技术开发、原型机开发、和数据中心的测试、交流,目前都处于不断探索和创新中。
对于敏感的闪存成本问题,廖恒谈到,站在产业规模的考虑,PMC专注于产品的研发和市场开拓,认为解决此问题最终无非是要做到标准化和开放化。在此,PMC也一直推动NVMe标准的制定,整个生态体系的开放互通。同时,廖博士风趣地说道,PMC也在不断练好“内功”,以望稳定地站在市场洪流中。
好文章,需要你的鼓励
麻省理工学院研究团队发现大语言模型"幻觉"现象的新根源:注意力机制存在固有缺陷。研究通过理论分析和实验证明,即使在理想条件下,注意力机制在处理多步推理任务时也会出现系统性错误。这一发现挑战了仅通过扩大模型规模就能解决所有问题的观点,为未来AI架构发展指明新方向,提醒用户在复杂推理任务中谨慎使用AI工具。
继苹果和其他厂商之后,Google正在加大力度推广其在智能手机上的人工智能功能。该公司试图通过展示AI在移动设备上的实用性和创新性来吸引消费者关注,希望说服用户相信手机AI功能的价值。Google面临的挑战是如何让消费者真正体验到AI带来的便利,并将这些技术优势转化为市场竞争力。
中科院自动化所等机构联合发布MM-RLHF研究,构建了史上最大的多模态AI对齐数据集,包含12万个精细人工标注样本。研究提出批评式奖励模型和动态奖励缩放算法,显著提升多模态AI的安全性和对话能力,为构建真正符合人类价值观的AI系统提供了突破性解决方案。