三维视频融合技术
专注于三维地理信息场景视频融合为客户创造价值,引领DT时代数据应用

虚实融合技术原理

视频融合技术是虚拟现实技术的一个分支,或者说是虚拟现实的一个发展阶段。三维视频融合技术指把一个或多个由摄像机图像序列视频和与之相关的三维虚拟场景加以匹配和融合,生成一个新的关于此场景的动态虚拟场景或模型,实现虚拟场景与实时视频的融合,即:虚实融合。

虚实融合,是把视频画面精确融合显示在三维模型对应的空间真实地理坐标位置,这种融合不会随着对三维模型的倾斜、旋转等操作而产生错位,充分发挥出三维场景的直观特点。

三维视频融合技术,可依托于单独的三维引擎,实现小范围或局部的三维场景与视频等资源的融合应用,也可依托于三维地理信息系统(3D GIS),实现全球广域范围内的三维地理信息可视化融合应用。

基于单独三维引擎的视频融合相比于三维地理信息系统视频融合,受限于应用范围,不能形成全城、全国或更大范围的三维可视化应用平台。同时,在三维可视化数据挖掘和处理上,基于三维地理信息的视频融合技术,具有天然的时间和空间优势。通过内置的国际化统一标准的经度、纬度、海拔等地理信息坐标体系,实现三维可视化视频融合平台的基于LI(时空位置智能)的定位和时空动态分析,提升视频分析及人工智能应用价值。


融合表现
三维地理信息场景视频虚实融合应用,结合不同的现场环境、不同的视频视角,具备多种融合表现方式
全景拼接融合
全景拼接融合
场景断续融合
场景断续融合
广告牌式融合
广告牌式融合
室内分层融合
室内分层融合
建筑结构融合
建筑结构融合
动态实时融合
动态实时融合
五大核心技术
致力于不断提升视频地理融合和视频综合分析技术
视频拼接与视频融合技术
视频拼接与视频融合技术

业界首创基于三维地理信息(3D GIS)引擎的视频融合技术,提供数字孪生平台下各种二、三维场景下的视频矫正、透视变换等多种视频拼接和视频融合算法,具有业界最高的单机641080P视频同时融合显示能力,支持静态和动态视频融合。

自研三维地理信息引擎
自研三维地理信息引擎

数字孪生平台自主开发了具有完全知识产权的三维地理信息(3D GIS)引擎和引擎编辑器,完全适配国产麒麟、飞腾、鲲鹏等软硬件环境,全面满足政府、军工、航天航空、核工业等高安全等级部门需求。


多源海量数据智能承载技术
多源海量数据智能承载技术

拥有地球级“天空地海廊”五维一体的海量多源数据接入和动态智能承载能力,数字孪生平台具备PB级数据加载和百万批动态目标实时渲染能力,有效支持视频、音频、物联感知(IoT)、卫星影像、北斗数据、地理高程、倾斜摄影、3Dmax模型、矢量、BIM等多种数据格式。

位置智能(LI)技术
位置智能(LI)技术

基于三维地理信息(3D GIS)引擎,为用户提供空间测量、轨迹分析、行为预测、空间密度检测、多维数据空间碰撞等诸多数字孪生平台基于时间+空间数据的智能算法,实现位置信息与数据信息相结合的数据挖掘和分析,通过数据位置可视化表达和位置智能(LI)应用,打破传统信息化领域中普遍存在的信息孤岛,有效实现各业务子系统间的智能联动,在真实三维场景中实现数据集成和业务综合应用。


云渲染技术
云渲染技术

基于GPU云化技术,实现三维数字孪生平台场景的多端发布,有效支持BS端、CS端和移动端应用,为用户提供极简的三维引擎使用方法和丰富的二次开发接口。