第六届中国云计算大会上,ZDNet采访直播间分外热闹,产学研三路专家都曾做客其中分享云计算、大数据的故事。PMC公司研发副总裁兼首席科学家廖恒博士也是其中一员,他跟ZDNet的网友讲述的是PMC如何做“硬”以迎接大数据浪潮,应对软件冲击。
大数据时代造就市场更大的需求,这对于长期关注于数据存储的PMC来说绝对是个机遇。但是,廖恒博士表示目前市场上对于大数据还存在一定误解。数据的处理计算必须和存储相互依赖相互结合,而常常在谈论大数据的时候,却比较容易忽视存储,而将大数据片面的理解为Hadoop。
这在实际数据存储中却要依情况而看,廖恒举例目前90%以上的大数据分析所覆盖的大数据量其实并不是很大,可能还不到到100G的容量,大材小用时有发生。这就需要一种模式的创新,Hadoop更多的是面向于大集群、文件批处理的模式,而Spark可应对内存内的处理,所以要根据实际需要进行匹配,当然也更适用于TCO的优化。未来,数据中心或者是在小规模的机架内做到资源的共享、池化和调配,会带来一个最终的优化方案。
谈到软硬件关系,廖恒形象地比喻,在软硬件的体系结构的中间有条很大的鸿沟,软件人不能理解硬件实质,硬件人又很难理解软件的生态,但软硬件又是一种互相依赖的关系。应对于此,作为存储的硬件厂商,PMC今天提供的更多的是模块化的解决方法。不论芯片、板卡、子系统还是通过SATA、SAS、PCIe来连接,都能覆盖市场中的所有形态,但这种搭积木的模式也不是完善的,灵活性就是个大考验。
PMC也在寻求改善,体系结构上亟需创新,去年提出的I/O分离解耦合的体系架构就是解决方案。当然,这个方案不是一蹴而就的,包括基础技术开发、原型机开发、和数据中心的测试、交流,目前都处于不断探索和创新中。
对于敏感的闪存成本问题,廖恒谈到,站在产业规模的考虑,PMC专注于产品的研发和市场开拓,认为解决此问题最终无非是要做到标准化和开放化。在此,PMC也一直推动NVMe标准的制定,整个生态体系的开放互通。同时,廖博士风趣地说道,PMC也在不断练好“内功”,以望稳定地站在市场洪流中。
好文章,需要你的鼓励
关注IT支出的朋友可能发现一个悖论:用于支持生成式AI的基础设施开销正在迅速提升,英伟达收入与利润两路狂飙的现实已经清楚证明了这一点。然而数据中心硬件层面的总支出并没有发生太大变化,且目前来看支出的主要增长点将集中在服务领域,其更多是为了减轻其他类型的工作、而非指望生成式AI独力支撑起销售预期。
一种基于人工智能(AI)的新策略正显著加快为帕金森病发现潜在新药的速度。这项发表在《自然化学生物学》杂志上的研究,可能意味着帕金森病新疗法将更快进入临床阶段并与患者见面。
如今的医生们仍背负着很多沉重且劣质的技术债务,这些技术不仅没有积极作用、甚至不能算是有价值的资产。我们绝不能让这样的情况重演,特别是不能在AI时代下重演。为此,美国医学会于2023年11月发布了一套AI开发、部署与使用原则,旨在回应我们从医生和公众那里收集到的担忧和疑虑。