DriveScale是一家初创公司,今年年初从此前3年的隐身模式走出来,推出了可以动态地将外部连接的JBOD作为本地设备呈现给服务器的硬件和软件。它的想法是提供可组合的服务器-存储结合体,用于改变Hadoop类型的分布式工作负载。
这么做的目的是分享超大规模数据中心的特性,而不涉及到这么大规模,也不需要企业进行DIY。DriveScale表示,现有的服务器和存储产品设计对于分布式Hadoop类型的工作负载来说太死板了,通常存在不同程度的配置不足或者过量配置服务器和存储资源。
服务器和存储应该作为单独的资源池进行管理。据悉,DriveScale公司有很多前Sun和思科公司的员工,有不错的可信度,值得考虑。
技术
软件构成系统:这是带有本地(在机架中)磁盘存储的服务器,当大数据Hadoop工作负载发生变化的时候可以分解,然后可以重新组合成为新的配置。
它所做的是,DriveScale软件对磁盘驱动器机箱中的存储进行虚拟化,然后跨10GbitE连接呈现给机架中的服务器。此外有一个机架顶部的以太网交换机,服务器和SAS JBOD存储机箱有以太网端口。采用SAS的DriveScale适配器(虚拟化卡)是介于服务器和存储以太网端口之间的。
该适配器采用一个以太网控制器(2 x 10GbitE)以及一个SAS(2 x 12Gbit/s 4通道)控制器。一个1U的DriveScale一体机设备容纳4个这样的适配卡,连接到TOR以太网交换机。这个适配卡机箱有80Gbit/s的带宽。服务器访问磁盘是通过这个以太网和DriveScale系统的。显然这个以太网和SAS连接为磁盘访问贡献了一些延迟,大约是200微秒。
该服务器运行Linux系统,有一个DriveScale软件代理。DriveScale有一个管理工具,用于组合(配置或者分配)存储给一台或者多台服务器,配置软件代理。
这个代理呈现已经被组合成为服务器的存储,本地(直连)到这个服务器,使用DriveScale服务器代理以及适配卡,隐藏了它实际上是通过以太网外部连接的事实。
还有一个SaaS整体管理工具。用户通过GUI或者RESTful API控制DriveScale。JBOD未来还可以涵盖SSD。
创建、创始人和资金
DriveScale在2013年由首席科学家Tom Lyon和首席执行官Satya Nishtala创建的时候,接收到了300万美元的种子资金。Lyon最早是Sun公司的员工,他和Nishtala当时为Banman工作。他们是Nuovo的创始人,这个分拆出来的公司开发了思科的UCS服务器。在Sun的时候,Lyon致力于Sparc处理器的设计以及SunOS,而Nishyala则负责Sun存储、UltraSparc工作组服务器以及工作站产品。
DriveScale公司的首席执行官是Gene Banman,工程师设计副总裁是Duane Northcutt,他是前Sun公司的硬件架构师。前Sun首席执行官和共同创始人Scott McNealy以及研究Java的James Gosling是该公司咨询顾问。
该公司今年年初进行了1500万美元的A轮融资,由Pelion Venture Parnters主导,Nautilus Venture Partners以及Foxconn的Ingrasys参与。Ingrasys是Foxconn的全资子公司,帮助开发和制造DriveScale一体机。
DriveScale称,现在是解耦设计的一个好时机。它的技术可以让企业拥有类似互联网公司(Amazon、Facebook和Google等)的那种横向扩展架构,让他们更加灵活地扩展服务器和存储资源。
好文章,需要你的鼓励
OpenAI发布ChatGPT Atlas AI浏览器,支持网页问答、历史查询和邮件改写等功能。同时曝光秘密项目Mercury,雇佣约100名前投行精英以每小时150美元训练AI金融模型。公司还因用户滥用Sora生成马丁·路德·金视频而暂停相关功能。此外,医疗AI搜索引擎OpenEvidence获2亿美元融资,估值60亿美元。
浙江大学团队提出动态专家搜索方法,让AI能根据不同问题灵活调整内部专家配置。该方法在数学、编程等任务上显著提升推理准确率,且不增加计算成本。研究发现不同类型问题偏爱不同专家配置,为AI推理优化开辟新路径。
随着Chrome和Safari主导浏览器市场,众多替代浏览器正在挑战这些行业巨头。本文梳理了当前顶级替代浏览器,包括AI驱动的浏览器如Perplexity的Comet、Arc公司的Dia、Opera的Neon和OpenAI的Atlas;注重隐私的浏览器如Brave、DuckDuckGo、Ladybird和Vivaldi;以及专注特定领域的浏览器如Opera Air和SigmaOS。这些浏览器通过AI集成、隐私保护、定制化和专注用户福祉等特色功能,为用户提供了多样化的浏览体验选择。
清华大学研究团队提出SIRI方法,通过"压缩-扩张"交替训练策略,成功解决了大型推理模型"话多且准确率低"的问题。实验显示,该方法在数学竞赛题上将模型准确率提升43.2%的同时,输出长度减少46.9%,真正实现了效率与性能的双重优化,为AI模型训练提供了新思路。