英国数据存储初创企业Arkivum正积极推动AaaS--即归档即服务方案。通过在自家云环境下提供出色的服务水平,该公司已经在同公有云以及大规模内部磁带库的竞争当中取得胜利。
这家初创企业诞生于2011年,由南安普敦大学开发出的服务技术转化为实际产品,其方案能够将数据保存在来自三个远程位置的磁带当中,遵循Escrow条款,提供服务水平协议,承诺长达25年的数据完整性,同时利用内部设备承载大规模数据并提供本地缓存机制。
服务水平协议规定,其Arkivum 100服务承诺在接收到请求的五分钟之内实现特定数据流传输。另外,这套存储设备还作为托管服务的组成部分,并提供可拖拽CIFS界面外加REST API以实现应用程序集成。该系统采用LTFS以将随机访问文件系统接口添加至磁带库当中。
数据中心连接服务由英国的JANET学院网络实现,NHS与商用网络则由N3提供。
Arkivum数据流示意图
Arkivum公司目前拥有两座彼此独立的数据中心,使用租赁自商业数据中心供应商的资源,负责提供在线磁带存储容量。第三座离线数据中心则遵循Escrow协议。输入数据将经过奇偶校验及加密,而后再由Arkivum/100服务发送至全部三座数据中心。
该公司提供的Arkivum/1+1服务能够在Arkivum数据中心内提供一套归档副本,并根据Escrow要求在第三方处再保留另一套副本。
Escrow协议的存在是为了证明Arkivum不存在供应商锁定问题,且有能力随时随地实现数据回调。其磁带系统采用IBM提供的LTO格式磁带,磁带的长期成本效益要优于磁盘。其内部设备为商用(戴尔PowerEdge)机架级服务器,同时配备直连存储并运行有Arkivum软件。LTO格式目前受到各类磁带驱动器及磁带库厂商的广泛支持。
Arkivum公司还将根据客户的呼声推出一套全面管理内部归档方案--Arkivum/OnSite。
据了解,这家初创企业此前进行过三轮风投融资,相关融资额度并未公布,而多次融资则代表其采用常规发展模式。从2013年到2014年,该公司业务增长幅度在100%到200%之间,2014年到2015年亦保持了同样的增幅。其客户主要来自英国本土,同时亦拿下了几笔国际订单,客户包括纽约现代艺术博物馆。
纽约现代艺术博物馆在一项十年计划中利用Arkivum/OnSite存储总量达6.2 PB的音频-影像数据,其中包括35000条、总长近500小时的16毫米安迪-沃霍尔影像。这套本地系统由Arkivum/100系统(IBM LTO磁带库)与及网关设备(数TB磁盘缓存)构建而成。此系统能够在一秒内实现重复数据删除,且利用纽约现代艺术博物馆的一座远程数据中心实现灾难恢复。
Arkivum数据中心内的磁带库
第三套数据离线副本被保存在纽约现代艺术博物馆的另一座数据中心内,这就使得博物馆方面拥有100%数据完整性保障。纽约现代艺术博物馆利用Arkivum体系与Archivematica开源软件作为前端,并利用开源Binder方案作为检索系统。
Arkivum公司的其它客户还包括Aston、Loughborough以及斯坦福大学、伦敦Tate画廊、Linnean Society of Long、Bristol Genetics实验室、日本Phlexglobal公司、英国国家医学研究会以及牛津分子诊断中心。可以看到,其客户主要集中在文化、生命科学以及高等教育领域。
Arkivum公司高管团队认为,其服务在欧洲与北美区域拥有强大的发展潜力,而其业务也已经开始扩展至英国之外的诸多地区。
要充分发挥这一竞争优势,该公司无疑需要建立更多国际化业务基础设施,这也意味着需要进行更为有力的融资。Arkivum公司CEO Jim Cook与COO Andy Conway可能已经对此进行了充分考量。
好文章,需要你的鼓励
三星与AI搜索引擎Perplexity合作,将其应用引入智能电视。2025年三星电视用户可立即使用,2024和2023年款设备将通过系统更新获得支持。用户可通过打字或语音提问,Perplexity还为用户提供12个月免费Pro订阅。尽管面临版权争议,这一合作仍引发关注。
浙江大学团队提出动态专家搜索方法,让AI能根据不同问题灵活调整内部专家配置。该方法在数学、编程等任务上显著提升推理准确率,且不增加计算成本。研究发现不同类型问题偏爱不同专家配置,为AI推理优化开辟新路径。
苹果M5 MacBook Pro评测显示这是一次相对较小的升级。最大变化是M5芯片,CPU性能比M4提升约9%,多核性能比M4 MacBook Air快19%,GPU性能提升37%。功耗可能有所增加但电池续航保持24小时。评测者认为该产品不适合M4用户升级,但对使用older型号用户仍是强有力选择。
清华大学研究团队提出SIRI方法,通过"压缩-扩张"交替训练策略,成功解决了大型推理模型"话多且准确率低"的问题。实验显示,该方法在数学竞赛题上将模型准确率提升43.2%的同时,输出长度减少46.9%,真正实现了效率与性能的双重优化,为AI模型训练提供了新思路。