2016年11月16日,由DVBCN & AsiaOTT主办的“GFIC2016——亚太CDN年度盛典”在上海召开。
本届“GFIC2016——亚太CDN年度盛典”主要从技术与运维两个角度切入,直击在互联网+时代背景下,各行业所面临的创新、转型挑战。UCloud在会上发表了“直播借力云平台开创运营新思路”的主题演讲,分享直播平台云运维实操经验 。
在颁奖环节中,UCloud核心产品UCDN以优异表现斩获“CDN最佳产品质量奖”,展示了其在产品性能、客户认可等方面的突出优势,证明UCloud已经在CDN行业内取得领先地位。
“CDN+存储+计算”铁三角,打破CDN加速瓶颈
UCloud此次获奖的产品UCDN(UCloud内容分发网络),目前已成功实现跨厂商、跨地域全球网络覆盖,500+超强加速节点中超80%实现自建;
UCloud CDN保有全国各省三大运营商的最优质节点资源,同时拥有全国各地数十个较大运营商节点,提供最优用户访问质量。
目前,UCDN月服务可用性高达99.96%,100K文件的全国平均访问延迟低至220毫秒,在多家服务商参与竞争的客户实测PK中,UCloud CDN获胜率超过90%。凭借UCDN产品的突出优势,UCloud在一年内积累了上万家用户,并获得视频APP Top 300中大部分企业的高度认可。
图1.UCloud受邀出席大会并发表主题演讲
UCloud实现高效内容分发的秘诀在于:
构建海量数据存储和计算技术配合支持下的稳定架构,突破CDN加速瓶颈,分发水平无缝升级。
通过UCloud UGC(通用计算)的高效并行计算能力, 充分利用UCloud一个区域内的多个可用区的UHost(云主机),提供基于UCloud云平台的高可用性、高安全性和高功能性,满足图片处理、机器学习、大数据处理、生物数据分析等领域的计算需求。
对于互联网应用中广泛存在的海量非结构化数据,UCloud对象存储UFile提供无上限的存储空间、支持高并发访问,并拥有低成本优势。结合UCDN突出的分发能力,全面提升全网终端用户的访问体验。
冷存储方面,UCloud提供一种低成本、高可靠的数据归档服务——归档存储(UArchive),适合于海量数据的长期归档、备份。UArchive支持数据自动多重冗余备份,具有高可靠性、安全、弹性扩展及适用场景多等优势。
在新存储技术中,采用了EC(erasure coding,纠删码)技术实现数据冗余机制,对比目前传统厂商3份副本的冗余技术,在保证可靠性的前提下显著提高存储利用率,为用户降低存储成本,进一步契合直播行业大规模视频文件存储的需求。
图2.UCloud大规模跨地域低成本的直播录制方案
此外,UCloud内核团队自主研发了Linux内核TCP协议栈的优化算法,在视频业务上已达到TCP单边加速业界最优水平,特别是针对直播重点优化了卡顿并容忍公网复杂情况,使直播业务指标得到较大幅度提升。
目前,UCloud已经可以提供十万核级别的并发计算能力,更低单价的存储成本、更加弹性的存储空间、高可靠的数据归档服务等,全面保障内容分发过程中的数据处理、存储及安全等问题。
创新驱动发展,UCloud实现行业引领
图3. UCloud获颁亚太CDN年度盛典“ CDN最佳产品质量奖”
在UCloud的发展历程中,有一句话伴随始终,那就是“用户的需求是下一个产品”,而支撑这一理念的是UCloud在计算、存储、网络等领域的技术、服务经验的不断积累。
2016年初,凭借对市场的敏锐嗅觉迎面直播风口,成为行业第一个提出直播云解决方案的云服务商。近一年来,UCloud深耕视频行业客户需求,依托于UCloud在海量计算、大规模存储等多元云产品的综合实力,通过CDN节点全面布局建设、性能优化和视频技术专业研发,为视频行业客户提供了基于云计算的分布式多媒体处理集群和顶级音视频技术,并创新性地推出了机器识别等新应用,被多家服务商效仿,而直播行业的火爆也促成了UCloud在CDN领域的成功布局。
未来,UCloud将持续提升技术实力,增加产品类别,实现更多领域更多行业的创新引领。
好文章,需要你的鼓励
微软研究院推出VIBEVOICE,这是一种革命性的AI语音合成技术,能够一次性生成长达90分钟的多人对话音频。
成均馆大学团队开发出选择性对比学习新方法,让机器通过观察人类交互场景学会识别物体功能部位。该技术突破传统局限,采用动态学习策略,能根据信息质量调整学习方式,在多个数据集上显著超越现有方法,为机器人、自动驾驶等领域的智能交互应用奠定重要基础。
微软与三星达成合作,将Copilot人工智能助手集成到三星的智能电视和显示器产品中。用户可以通过语音或遥控器直接与Copilot交互,获得智能问答、内容推荐、设备控制等服务。这一合作标志着AI助手从传统计算设备向家庭娱乐设备的进一步扩展,为用户提供更加智能化的观看体验。
新加坡南洋理工大学研究团队开发出EgoTwin系统,这是首个能够根据文字描述同时生成第一人称视频和匹配人体动作的AI框架。该系统通过创新的头部中心动作表示方法和因果交互机制,解决了视角对齐和动作画面同步的核心难题,在17万样本的真实数据集上实现了显著性能提升,为VR内容创作、影视制作等领域提供了新的技术可能。