人大人科创
张江-硅谷创新创业平台

2018通信领域研究报告(二)-5G应用大盘点

5G应用大盘点

(一)5G网络将成为AI重要的基础

  • AI技术在未来几年会逐步成熟,越来越多的应用会用上AI技术,变得越来越智能。与此同时,5G技术将在2020年规模商用。为了满足运营商早期部署5G网络的需求,2017年12月3GPP将会在第一阶段中首先冻结NSA(Non-standalone)标准,支持移动超宽带业务;2018年、2019年5G的第一阶段和第二阶段将相继冻结。
  • 连接则是AI的基础能力,未来将形成一个连接AI应用大脑及各类终端的超大规模网络。AI与5G技术深度结合,为我们的生活带来巨大改变。
  • 分布式核心网帮助AI将应用延伸到边缘

  • AI的目标是达到或者超过人类的思维能力。那么人脑是如何工作的呢?以处理图像为例,人眼并不是把投射到视网膜上的图像一点不漏地传给大脑,而是先对图像进行本地处理,将信息进行加工,抽取线段、角度、弧度、运动、色度和明暗对比等包含重要信息的简单特征,并把它们编制成神经密码信号,再传给大脑。
  • 与人类处理信息的方式类似,为了加快处理速度。终端将“听”和“看”到的海量信息在边缘进行一次加工和提炼,然后到AI大脑进行统一处理。但是受制于体积、功耗和成本,终端的处理能力有限,这些信息会在边缘数据中心利用云端更加强大的计算能力进行处理,再送往AI大脑。5G核心网分布式架构完美匹配应用延伸到边缘的需求,边缘网关将信息直接转发到边缘应用,帮助AI将应用延伸到边缘。
  • 自动驾驶就是一个AI的典型应用,将车联网应用服务器和网关一起部署在边缘数据中心,自动驾驶车辆将实现超低时延(1ms超低时延)的极致体验。
  • 网络切片为AI应用打造一个“私人定制”的网络

  • AI将会深刻的改变各行各业,将给行业提供更多丰富多彩的智能应用,智慧城市、智慧家庭、智慧交通、智能制造、智能电网等应用将在5G时代变成现实。AI时代多种多样的应用对网络提出了不同的需求:智慧城市需要海量的连接、智慧交通需要超低的时延、智慧家庭需要超大带宽。每个AI的应用都需要一个专属的网络,根据应用需求实时动态地进行调整,满足快速变化的业务需求。而5G核心网构建逻辑隔离的网络切片,能提供网络功能和资源按需部署的能力,来满足未来这些行业多样化的业务需求,为每个AI的应用打造一个私人定制的网络。
  • AI将改变5G网络

  • 5G为AI技术连接提供了低时延、大带宽和超大规模连接等极致体验的能力。AI技术也将应用在5G核心网中,帮助核心网实现运营、运维和运行自动化。
  • 区别于4G网络,5G网络的一个重要使命是使能垂直行业,将关注连接价值更高的长尾应用(个性化的、零散的、小量的应用)。这些长尾应用受制于建网成本,在4G时代,仅少量垂直行业的连接以专网的形式存在。在5G时代,将以灵活多变网络切片满足各垂直行业的连接需求。
  • 传统的建网方式需要半年甚至更长的时间,完全不能满足5G网络切片的建设。5G网络切片的建设需要建设一个全生命周期自动化系统,借助AI的能力实现切片运营自动化,实现切片分钟级上线,帮助运营商满足快速变化的市场需求,迅速占领市场。
  • AI让“网随人动”

  • 为了给用户带来更好的业务体验,5G网络将与应用和云端更加紧密结合。5G网络需要实时响应用户和应用的变化,对网络的功能、拓扑和路由进行调整,实时调整业务流的流向。同样以车联网为例,随着车辆的移动,汽车将会从一个边缘数据中心的服务区域移动到另外一个边缘数据中的控制区域。为了保证服务的连续性,核心网需要能够快速自动地与终端和应用之间进行协同,保证在高速的移动过程中数据不丢失。此外,5G的核心网能力可以提供智能的调度,开放边缘平台能力,实现应用快速部署,做到“网随人动”。
  • AI让网络自治

  • 5G核心网将以切片的形式呈现,在运营商的网络会运行着数十个甚至上百个切片,传统依靠人工的运维模式将被颠覆。以AI为核心构建一个自动化的运维体系,实现对网络运行状态进行实时监控,对网络行为进行精准预测、对故障进行自动恢复。
  • 下一个时代,将是5G的时代,也是AI的时代

  • 5G与AI相辅相成,5G为AI提供一个随需而变的网络,AI让5G变得更加智能。今天,科技的发展已经超乎我们的想象。明天,5G与AI的完美结合将给我们的生活带来前所未有的变化,未来已来。
  • 在即将举行的第八届全球移动宽带论坛上,华为云核心网将在“面向5G的核心网演进”圆桌会议上与全球的分析师、运营商客户和垂直行业伙伴齐聚一堂,共议核心网从云化向5G演进的架构转型、业务创新和商业使能。

  • (二)5G使AR迎来突破性增长机会

    说到 AR 眼镜,人们会立即想到 Magic Leap 或者 HoloLens。Magic Leap 自成立8年以来,融资超过20亿美元,但是目前还没有商业化产品落地。7月12日,它完成了 D 轮股权融资,还宣布 Magic Leap One 的开发者版将于近期面世,让我们拭目以待。而从产品角度来说,AR领域的先行者,美国增强现实科技公司 Meta 的第二代产品 Meta 2 的分辨率是 HoloLens 的4倍,也就是说可以提供更精细的视觉体验。此外,Meta 2 的视角是90度,HoloLens 的只有30度,而视角大小对虚拟场景的体验会产生直接影响。

    Meta 的 CEO,以色列人 Meron Gribetz的创业经历,也是“创新上行”模式的实例,当产生小创意以后,充分利用各种众筹和孵化平台,在创业的每个阶段,都找到需要的长板进行对接,从而最终实现产品研发和商业化。

    AR领域的先行者-Meron Gribetz

    Meron 出生在以色列,曾服役于以色列国防军情报机构的技术部门。

    Meta2 AR眼镜


    那么,Meron 是如何产生这个创意的呢?这要从一次 TED 演讲说起。2009年,Meron 进入哥伦比亚大学学习计算机科学和神经科学。在哥大求学时,Meron 偶然看到了 MIT 印度裔工程师 Pranav Mistry 的 TED 演讲。在这个演讲中,Pranav 展示了一种手势操纵设备,可以运用双手对虚拟物体进行操纵,Pranav 演示了如何使用手势与外界进行交互。例如将双手在眼前摆成一个长方形,就能将长方形内的景色拍下来。这项技术深深地震撼了 Meron

    在一次采访中他说:这个演讲让我对于人机交互有了全新的理解。于是,他就开始思考如何开创一种全新的人机交互模式。2011年的一天晚上,Meron 和朋友在酒吧喝酒,正跟朋友讲述他对激光投影技术的理解,讨论这项技术将会如何取代目前的人机交互系统。Meron 正讲到兴头上时,朋友的手机突然亮了起来。和大多数人一样,他的朋友下意识地去看手机上的信息并开始回复。被忽视的 Meron 无奈环顾四周,看见酒吧里有一个人拿着手机正在向其他人展示 Instagram 上的一些搞笑图片。这个情景让他意识到,
    物理屏幕的存在,分隔了虚拟与真实世界。
    受到演讲的启发,
    Meron 认为,真实与虚拟两个世界应该合二为一,技术应该用来拓展人类的感知维度,并且更容易地让两者连接在一起。因此,他决定动手创造一种更加自然的人机交互方式。很幸运的是,Meron 在哥伦比亚大学的指导老师是计算机系的教授 Steve FeinerFeiner 教授是增强现实领域的先驱。在1996年,Feiner 教授的团队运用镜片以及 GPS 定位器开发设计了第一款户外 AR 设备,并率先将其运用到旅游、新闻、建筑等不同领域当中。他同时还是哥伦比亚大学计算机图形学与用户界面实验室的主任。在 Feiner 教授的引导下,Meron 进入了 AR 的技术世界。AR 的全称是 Augment Reality,中文是增强现实,就是将虚拟世界的信息叠加到现实世界中的技术。在教授的指导下,他用 Epson 公司的 3D 眼镜,把 Intel 生产的一个用来追踪手势运动的照相机放到 3D 眼镜上,再安装上其他配件,开发了第一款 AR 眼镜。

    Meron Gribetz做出的第一款AR眼镜样品

    用现在的眼光看起来,确实非常简陋,根本称不上是一款产品。但是,这个眼镜对于 Meron 的创业之路却非常重要,随后在2012年,他创立了 Meta,总部设在美国湾区的 Redwood City。

    众筹开启商业化之路

    在开发了第一款 AR 眼镜的样品之后,Meron 就面临如何实现商业化、缺乏启动资金等问题。2013年的5月,他在 Kickstarter 上开始为开发 Meta 的第一代产品 Meta 1 发起众筹。当时他的想法是:如果这款产品能引起大家的关注,那么证明存在切实需求,说不定还能解决前期开发费用。通过众筹还能获得产品反馈与建议,这样可以帮我更好地进行产品改进。其实他的做法很符合“最小可用品”的原则,也就是说,
    先投放能满足
    基本功能的产品,不断接受用户反馈,快速迭代,直到做出真正符合需求的好产品为止。

    发起众筹后Meron 和他的同学就在宿舍内盯着电脑屏幕。很快第一笔订单出现了,购买者是伦敦的 ARUP 公司,这是一家跨国建筑设计公司。接着,第二笔订单显示在计算机屏幕上,居然是苹果公司联合创始人史蒂夫·沃兹尼亚克,他成为了 Meta 1 的第二位用户。当众筹结束后,总共有超过500名资助者。他们最终获得了将近20万美元,金额是预期筹款的两倍。

    Meta 1 AR 眼镜

    众筹大获成功后,2013年8月,Meta 公司被美国孵化器 Y Combinator 加入到种子加速计划当中,并取得了100万美元的天使投资。利用这几次的融资,公司获得了产品研发和推广的资金。

    一年之后,在旧金山 TechCrunch Disrupt 的大会上,Meta 展示了他们开发的第一代产品 Meta 1,并开始向用户销售。当时,初期消费者主要以 AR 爱好者或者开发者为主。

    值得提一下的是,尽管 Meron 自己没有什么启动资金,他所拥有的只是一个想法,一个创意,在尝试做出样品后,充分利用众筹和孵化平台,完成了创业公司早期融资,为产品优化迭代和公司运营提供了保障。并且,在成功试水以后,Meta 继续利用资本市场推动了公司的发展。

    后续陆续完成了 A 轮和 B 轮融资,合计约8000万美元。其间就开始了第二代产品的开发,他们了解到用户对以下几个性能比较关注,比如:

  • 视野宽度,即能感受到的 AR 范围;
  • 显示图像的真实性和清晰度;
  • 与 AR 物体互动体验;
  • 多人协作的可能性等等。
  • 基于这些用户反馈,Meta 团队便开始着手研发第二代 AR 眼镜。在2016年2月17日的 TED 大会上,Meron 首次对外展示了 Meta 第二代产品 Meta 2。它的视野宽度可以达到90度,同时图像分辨率也达到了2.5K的显示级别。

    Meta 2 眼镜的Air Grab功能示意图

    此外,他们研发的 Air Grab 技术,可以让用户通过双手直接对 AR 物体进行抓取、移动、旋转等操作。这个功能实现了他希望利用技术连接真实与虚拟世界,创造出比屏幕更加自然的人机交互界面的梦想。戴上 Meta 2 眼镜之后,就能用手直接操控投射在现实空间的虚拟物体,而不需要借助任何物理媒介。

    AR眼镜的应用

    做产品研发的用户,应该对 CAD 建模软件 Solidworks 不会陌生,它大规模地应用在汽车、航空、机械等行业的研发工作中。拿 Solidworks 为例,看看这家公司是如何运用 Meta 的产品,打造 3D 建模平台的。当你戴上 AR 眼镜之后,眼前会出现一个圆形平台和一个储物架,在储物架上,存放着你最新设计的汽车车身 3D 模型。当你用手抓取了这个模型,把它放到圆形平台后,关于这个模型的所有参数与设计细节,将展现在平台左侧。同时在平台前方还有一系列的选项,不同选项代表不同的操作功能。你可以用手势,直接在 3D 模型上进行修改,比如你对某一区域的颜色或者材料不满意,可以直接将你喜欢的颜色,或者合适的材料拖拽到这里,模型就会立即更新。当 3D 模型设计确定后,用户将导出一种 GITF 格式的文件。它是一种开源的 3D 模型类型文件,这个文件包含以下信息:

  • 展示状态,就是在软件中的三维空间;
  • 模型材质与颜色;
  • 模型结构,就是 3D 模型中的点、线、面的位置。
  • 这些参数都可以通过 AR 眼镜进行调整,只要用手就可以移动、缩放、展示和修改 3D 模型的细节。可见,与 AR 技术结合后的 3D CAD 建模工具,将改变未来的设计流程,大大提高研发效率和产品的展现方式。

    总体来说,Meta 公司近80%的用户用 AR 眼镜主要从事产品研发工作,而其他研发 AR 眼镜的公司,例如微软 HoloLens,是以应用到游戏行业为主。

    但是必须说明的是,Meta 2 的 AR 眼镜本身还不具备计算能力,它的计算能力取决于与它连接的手机或电脑的计算能力。此外,如果终端是智能手机的话,电量消耗也是主要的限制性环节。所以,目前看来,计算能力、追踪技术、数据传输速度是影响 AR 眼镜应用的主要因素。

    Meta 3 AR 眼镜效果图

    目前,Meta 正在研发第三代 AR 眼镜 Meta 3,这是一个看起来更小,更轻便的眼镜。2018年6月,在珠海举办的中国-以色列企业峰会上展出了第三代 AR 眼镜的样品,我们期待第三代产品尽快实现量产。

    当然,可以预期的是,5G 通讯技术的逐步成熟,将一定程度上解决图像数据传输速度慢,反应时间长的问题。

    基于目前的技术现状,以及未来可预期的计算能力、网络带宽、计算机视觉技术的发展,与 VR 相比,AR 技术将最早实现商业化落地。到时,无论在游戏,还是产品研发领域,都需要你积极探索,充分挖掘应用场景。

    (三)5G助力智慧医疗进入快速发展新时代

    2017年10月28日,于“生命的诺亚方舟”——深圳国家基因库,华大智造携远程超声诊断系统重磅新品精彩亮相第十二届国际基因组学大会(ICG-12),用划时代跨界新品,普及优质医疗,让更多人享受生命关怀,践行“健康中国、健康世界”的梦想。

    在来自全球的科学泰斗、科研翘楚、学界新星的共同见证下,华大基因执行副总裁、国际区域中心主任余德健发表了精彩致辞,揭开了这台划时代的远程超声诊断系统的神秘面纱。

    华大基因执行副总裁、国际区域中心主任余德健致辞

    本次发布的重磅新品——远程超声诊断系统 MGIUS-R3,由华大智造和众多合作商强联合打造,借力国际顶尖的专用网络技术实现了远程精准操控,引领了现代远程超声的发展方向。华大智造影像研发中心副总监伍利先生为到场来宾就产品的性能与未来发展规划进行深刻阐述,同时将联合各合作伙伴一道共创医疗行业创新解决方案,携手建设“智慧医疗”生态圈,助推大健康行业升级发展。

    华大智造影像研发中心副总监伍利介绍新产品

    在这场大云集的发布会上,湖北省妇幼保健院超声科主任医师、卫生技术二级岗位教授、湖北省中医药大学硕士生导师陈欣林主任,深圳大学医学部生物医学工程学院副院长、广东省超声医学工程学会常务理事倪东教授,华为无线应用场景实验室王宇峰总裁,分别代表临床医学领域、科研领域与通讯应用领域的学术权威,同与会专家、学者分享基于跨界融合取得的一系列成果和对未来的展望。

    实时诊断,大爱无疆

    据陈欣林主任介绍,最近10年,先天性心脏病一直高居我国出生缺陷的“榜首”,超声检查是目前检出胎儿心脏结构异常的惟一方法,胎儿到14周左右已经可以通过超声诊断是否存在结构异常。

    远程超声诊断系统采用国际顶尖网络通讯技术,远程响应速度毫秒级,全面满足用户更高效、更快速,更精准的诊断需求。不仅如此,高灵敏度力反馈系统的应用,能在直径为800mm的空间内进行扫查,全面满足心脏、颈部、胸部及腹部等全身应用需求。

    湖北省妇幼保健院超声科主任医师、卫生技术二级岗位教授、湖北省中医药大学硕士生导师陈欣林主任发表主旨演讲

    智能科技,化繁为简

    倪东教授介绍,医学影像放射科工作量非常大。他指出在不久的未来人工智能可以实现成功辅助医务人员更高效的完成医疗诊断。

    远程超声诊断系统集临床专家经验与数据分析技术、智能AI、深度学习等技术于一体,实现了高效的人机交互体验,使设备以病人为中心进行紧密的协作,并提供丰富的解决方案。深圳大学和华大智造的紧密合作,超声诊断系统的惊艳问世昭示着超声设备将迈入“智能化时代”,也昭示着华大智造开创了智能化超声系统的里程碑。

    深圳大学医学部生物医学工程学院副院长、广东省超声医学工程学会常务理事倪东教授演讲

    5G网络,如临其境

    王宇峰先生指出,进入5G时代后的移动通信领域,应用场景将从语音、数据不断扩展,与各个行业紧密联系,5G不单单是服务于人和人,同样服务于人和物以及垂直行业。

    5G时代即将来临,智慧医疗步入了快速发展时期。远程超声诊断系统应运而生,上善若水。沟通畅如水:高清晰视频语音系统让专家和病人沟通畅通无阻 ; 信息如雨:数据传输实时高效,无延滞,响应时间为毫秒级别,图像传输不丢帧;智慧凝如露凝:远程调节超声图像的参数,实时快速诊断,提高医疗效率

    华为无线应用场景实验室王宇峰总裁演讲

    王宇峰总裁和刘健副总裁分别代表华为WirelessX Labs与华大智造完成智慧医疗合作意向书的签署。

    在“互联网+医疗”的新时代,华大智造迎来了跨界发展的新契机,将优质医疗播撒在世界每一个需要的角落,让智造品牌闪耀全球,为人人健康贡献中国力量。

    (四)5G在自动驾驶中必不可少

    C-V2X,C即Cellular,V2X就是vehicle-to-everything,指车与外界的信息交换,它是基于蜂窝网络的车联网技术。

    C-V2X指从LTE-V2X到5G V2X的平滑演进,它不仅支持现有的LTE-V2X应用,还支持未来5G V2X的全新应用。它基于强大的3GPP生态系统和连续完善的蜂窝网络覆盖,可大幅降低未来自动驾驶和车联网部署成本。

    与雷达、激光雷达等传感器不同,我们可以把V2X视为一种无线传感器系统的解决方案,它允许车辆通过通信信道彼此共享信息,它可检测隐藏的威胁,扩大自动驾驶感知范围,能预见接下来会发生什么,从而进一步提升自动驾驶的安全性、效率和舒适性。C-V2X被认为是自动驾驶的关键推动因素之一。

    C-V2X能做什么呢?还是继续举例吧。

    如上图,道路前方弯道处停有一辆抛锚的汽车,但由于正好处于弯道,汽车本地的摄像头、雷达等传感器无法检测到,眼看一场车祸正要酿成悲剧。

    幸运的是,我们有V2X。



    V2X通过通信网络共享信息,具有“耳听八方”的能力,此时汽车显示屏上会提示前方有车辆,并启动减速和转向,安全通过。

    再来一个案例。

    如上图,前方的大卡车挡住了视线,而对面正驶来一辆汽车,此时要超车,毫无疑问是非常危险的。

    当驾驶员刚打左转灯准备超车时,V2X通过显示屏立即提示,前方有来车,不能超车…

    直到危险解除后,才顺利超车,安全通过。

    V2X主要包括V2N(车辆与网络/云)、V2V(车辆与车辆)、V2I(车辆与道路基础设施)和V2P(车辆与行人)之间的连接性。

    2015年,3GPP在Rel. 14版本中启动了基于LTE系统的V2X服务标准研究,即LTE-V2X,国内多家通信企业(华为、大唐、中兴)参与了LTE-V标准制定和研发。2016年9月,首版涵盖了V2V和V2I的V2X标准发布;2017年6月,进一步增强型V2X操作方案发布。

    在Rel. 14中,V2V通信基于D2D( Device-to-Device)通信,其为Rel.12和Rel.13版本中的Proximity Services (ProSe) 近距离通信技术的一部分。新的D2D接口被命名为PC5接口,以实现可支持V2X要求的增强型功能,这些增强型功能包括:支持高达500Km / h的相对车速、支持eNB覆盖范围内的同步操作、提升资源分配性能、拥塞控制和流量管理等。

    在Rel. 14中,LTE-V2X主要有两种操作模式:通过PC5接口点对点通信(V2V)和通过LTE-Uu与网络通信(V2N)。

    基于PC5接口的V2V通信也包括两种模式:管理模式(PC5 Mode 3)和非管理模式(PC5 Mode 4),当网络参与车辆调度时称为管理模式,当车辆独立于网络时称为非管理模式。在非管理模式下,基于车辆间的分布式算法来进行流量调度和干扰管理;在管理模式下,通过Uu接口的控制信令由基站(eNB)辅助进行流量调度和干扰管理。

    C-V2X还将持续平滑演进到5G V2X,将对功能进一步增强,以支持低延迟和高可靠性V2X服务。

    除了PC5和Uu接口,C-V2X技术构架还包括V2X控制功能、边缘应用服务器和V2X应用服务器。

     ▲C-V2X技术构架,来源ngmn V2X白皮书

    •V2X控制功能(V2X control function)位于核心网,其为实现V2X通信向UE提供必要的参数以执行相关网络动作。

    •V2X应用服务器可部署于网络之外,由车企、移动运营商或第三方来运营,从而跨运营商跨车厂,这也解决了过去车企担心的依赖C-V2X会导致自动驾驶业务被电信运营商所控制的问题。

    •边缘应用服务器靠近数据源部署,解决了时延和网络负荷问题,将在许多V2X用例(比如实时高清地图更新等)中发挥重要作用。

    为何自动驾驶需要5G?

    目前基于LTE的V2N已经覆盖了很多车联网用例,比如交通信息提示、地图更新、OTA固件更新。未来V2V和V2I将广泛应用于车联网的低时延、远距离通信场景。

    你可以将C-V2X看成是连接V2N和V2V/V2I的粘合剂,其依托于成熟的蜂窝网络生态,随着4G向5G的技术演进,将在未来自动驾驶领域发挥关键的作用。


    基于5G近实时的高清视频传输,V2N和V2V互补(V2N2V

    如前所述,让自动驾驶不仅能“眼观六路”,还能“耳听八方”,实现100%安全性。


    5G网络切片技术提供始终如一的QoS保障。

    与互联网“尽力而为”的数据传输不同,网络切片可提供始终如一的低时延和高速率服务保障,这对于安全性要求极高的自动驾驶领域尤为关键。比如,当汽车行驶于网络拥塞区域(比如演唱会、体育场附近),网络切片技术仍然能优先保障汽车通信的高速率和低时延性能。

    ▲网络切片 vs 无网络切片性能监控

    边缘计算是自动驾驶的未来。

    5G核心网控制面与数据面彻底分离,NFV令网络部署更加灵活,从而使能分布式的边缘计算部署。边缘计算将更多的数据计算和存储从“核心”下沉到“边缘”,部署于接近数据源的地方,一些数据不必再经过网络到达云端处理,从而降低时延和网络负荷,也提升了数据安全性和隐私性。

    这对于时延要求极高、数据处理和存储量极大的自动驾驶领域而言,重要性不言而喻。未来对于靠近车辆的移动通信设备,如基站、路边单元等或均将部署车联网的边缘计算,来完成本地端的数据处理、加密和决策,并提供实时、高可靠的通信能力。

    所以,自动驾驶需要5G