当前AI市场炒得火热,越来越多的企业加入到人工智能的行列,让智能化应用提升企业与用户的竞争力,开拓更广阔的业务领域,例如:智能监控、人脸识别、智慧小区、智慧校园等等,可以说 AI智能化的大潮已经极速来袭。
Infortrend 根据市场需求推出了AI与存储融合一体化设备-GSi系列存储,GSi一套系统集成了文件存储、块存储,打通云端。并与机器学习硬件以及相关套件融合,不需要再单独购买计算节点,一台GSi就可以满足用户对于海量数据的存储管理需求,同时也满足AI机器学习中所需的超强计算能力。
高度集成的架构设计,无缝对接存储与机器学习应用程序。在Infortrend GSi存储的centOS 操作系统之上配有Docker 的设计,将深度学习软件(例如:TensorFlow, Caffe, Caffe2, Theano等)通过Docker的方式部署在GSi存储上,满足AI 所需的机器学习框架。并且内置NVIDIA GPU 卡支持CUDA 计算加速,来提供超强的浮点计算。
由于架构的高度集成,所以磁盘阵列的数据传输到计算单元进行计算时,我们不需要担心网络的延迟。对于传统的网络架构而言,存储中的数据需要通过网络交换机传输到计算节点或者计算服务器进行计算,在这中间必然会存在一些网络延迟,而EonStor GSi 是通过内部的PCI-E总线进行数据传输,所有的传输过程都在一个设备当中进行,不会出现网络延迟的情况,而影响用户业务的正常运转。
另外Infortrend EonStor GSi也对接云存储,通过内部独有的智能算法,数据可以在infortrend GSi 与云端之间合理分配, 将该系列存储的高性能和安全性发挥到极致,使本地存储与云完全融合,有效弥补了独立的本地存储与独立云存储的不足,广泛支持各种OpenStack与公有云服务(例如,阿里云、Amazon,Azure,Google等),不仅可以应对后期因业务增长带来的空间需求,也可以利用云计算处理更深层面的数据分析。
具备全方位的云集成功能,通过数据压缩、重复数据删除等功能来减少数据对云空间以及传输带宽的占用。其中,云同步功能在实现跨站点文件共享与同步的同时,可以作为理想的备份与灾难恢复方案;云缓存模式提供访问云端如本地端一样快捷的体验。
全方位的数据保护功能,通过快照、卷复制、镜像、云集成等方式实现数据的备份。通过256位AES 加密保护,防止数据外泄;SSL 加密技术可以保证敏感数据向云端传送过程中的安全。
伴随着云计算、大数据等技术的趋于成熟,几乎所有的行业都在尝试通过人工智能AI 的方法来改变传统的工作方式,提高工作效率。下面Infortrend列举了几类可应用GSi的场景:
智慧小区
我们通过Docker 轻量级的虚拟化技术将人脸识别系统部署在我们的存储上,而Infortrend GSi 本身内置强大的NVIDIA GPU 卡为人脸识别分析以及身份验证提供超强的计算能力,以便完成实时数据分析,有效解决刷卡进门的麻烦。当然,还可以通过Infortrend GSi 设备集成的云功能共享数据,即便我们身处异地,可以在手机APP上实时查看小区内部情况。实现社区安防系统的升级,提高小区内部的安全性,减少社区安全管理对人员的依赖,提升物业管理水平和服务效率,建设一个安全、和谐、信息管理智能化的高端小区。
广电行业
加入AI人工智能后,能够对视频、图片等媒资文件进行数据分析、辨识,我们只要对视频、图片中的某一个物体进行搜索即可快速定位到目标文件。使查找变得更轻松、更高效。
医疗影片的智能分析
依靠海量医疗数据与AI算法发现病症规律,从而为医生诊断和治疗提供参考意见;也可以利用算法对基因数据进行分析,对疾病风险进行预测。
自动驾驶
在汽车行业AI的焦点莫过于自动驾驶,通过嵌入AI机器学习的算法,通过大量的交通与行驶数据不断地自我学习,修复并提高安全性和效率。
在学校以及科研单位中运行的应用程序通常需要高性能计算,例如基于MATLAB 建模、矩阵运算、信号处理,以及深度学习的训练等等。针对这些应用,Infortrend GSi 不仅可以提供高性能计算,也为大量的计算数据提供存储空间,不需要复杂的网络架构,部署起来简单、高效。
通过AI智能机器分析客户数据,提高审批效率,把控金融风险。例如银行审核企业贷款或者个人消费贷款时,可以利用人工智能对贷款的风险进行控制、决策。人工智能也可以广泛快速地收集信息,在海量数据中筛选有用信息,并综合判断被审核人的信用情况和还款能力。另外,在投资领域,通过人工智能系统分析大量的股票交易数据,让机器帮助人选择更优的投资股票。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。