日常工作中,难免需要向指定的服务点传输文件。而群晖NAS作为得力的数据存储助手,越来越被个人、家庭、工作室、企业所采用。NAS是集中化存储生活、工作数据的解决方案,不仅可以在局域网网络内进行数据交换,远程也能访问NAS的数据。提到文件传输不得不提http(s)协议,它被应用在整个互联网,将全世界连接起来。但随着时代的变化,http(s)协议在文件传输上的缺点也越来越明显。群晖Presto诞生正是解决http(s)在文件传输中的低效能、不稳定等问题。

安全、稳定的Presto套件更懂你
Presto的初衷在于解决远程、跨地域客户端电脑与NAS在文件传输中的问题,属于网络传输加速器,专注于克服冗长的来回时间及高封包遗失率。特点如下:
1、稳定的远程访问,随着地理位置的增加,文件传输速度会越来越慢、甚至不稳定,而Presto依靠在客户端和NAS端建立的高速通道,可解决传输慢不稳定的问题。
2、安全性,在文件、数据传输中会设计到用户密码账户安全的问题,在Presto中账号密码安全地储存在 TLS/TCP 频道中。AES-128 加密可确保大量数据传输的安全性,数据也能压缩至搭载SITA的UDP频道。
3、自动识别网络环境,如在低延迟的网络环境,TCP会代替群晖网络传输加速器,优先选择快速通道。
用Presto享用高速、稳定数据传输服务
看完上述内容,是不是被Presto的神奇所折服?Presto在日常使用过程中是否能达到上述提到的效果?下面通过模拟日常使用习惯来对Presto进行简单测评。先介绍测试环境:
1、客户端:
操作系统:Windows 10
CPU:i7-6500U
内存:8GB
网卡:Killer 1535 a/b/n/ac游戏网卡
环境:50Mbps(理论数据:上传512kb/s,下载6.25MB/s)
2、NAS端:
产品型号:DS716+
CPU:INTEL Celeron N3160
内存:2GB
DSM版本:DSM 6.1
网络环境:20Mbps
本次效能测试使用BitMeter OS流量统计软件,因为软件延迟因素所以图表中的传输结尾会呈现满载状态。(BitMeter OS是一款开源的浏览统计软件,官网:http://codebox.org.uk/pages/bitmeteros)
在进行测试前,需要先在客户端和NAS安装群晖Presto套件,并且设置好DDNS,以及在路由器防火墙开放Presto 3360/3361 两个端口。NAS端Presto可显示当前的状态,如传输速度、文件列队以及日志。

NAS端截图

目前Presto支持Mac和Windows,这里以PC端为准。
情景模式一:单个大文件(大于1GB);
环境:Presto
表现:



可以看到通过Presto传输单个大文件时,平均速度稳定在530KB/s,已经接近当下网络环境的最高速度。并且传输稳定,无大波动。下面看看通过http传输的情况。
情景模式二:单个大文件(大于1GB);
环境:Http
表现:

这里通过直接将同一个文件使用浏览器传输,速度一下降到最低且不稳定。透过DSM的网速监测软件可以看到速度仅有30KB/s。
情景模式三:多个碎片文件(大于1MB);
环境:Presto
表现:



在第三个情景中,选取了23张RAW格式的无损照片进行传输测试。这也是日常工作中经常会进行的操作。通过上述图片可以发现,即便是多个文件传输,速度也没有受影响,稳定在500KB/s。
情景模式四:多个碎片文件(大于1MB);
环境:Http
表现:

在通过传统的http传输时,文件传输速度不稳定,平均速度在80kB/s以下。
日志监控系统——全方位记录所有操作

日志系统对于管理员来说非常重要,它能反应系统服务的运行状态。Presto作为文件数据传输服务自然也提供日志功能。提供直观,清晰的传输活动日志报告。管理员可以通过Presto File Server产生的全方位日志来监控带宽使用量、传输质量的实时流量状态。此外,通过报告也可以可追踪用户的上传/下载活动、网络流量及文件传输数量,来判断是否有可疑入侵行为或是不正常的文件存取。
结论:
通过以上测试,可以发现Presto不管在进行单个单文件还是碎片文件传输时,表现都非常稳定,速度接近客户端最大上传速度。而在使用http传输时,整体表现不够稳定,速度也非常慢,仅适合体积小的文件。如你有跨地域传输(跨国、洲际)的需求、超大文件或稳定高速的远程传输需求(如高清影像素材),Presto是上述需求的理想解决方案。
群晖Presto目前还处于beta(测试)阶段。如大家感兴趣也可以到群晖官网参加测试计划。https://www.synology.cn/zh-cn/beta/2017_Presto
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。