1.一种虚拟现实交互方法,其特征在于,包括以下步骤:步骤S1:对虚拟现实设备进行图像数据输入,得到空间图像数据;对空间图像数据进行虚拟空间模型构建,得到虚拟空间模型;对虚拟空间模型进行虚拟音频空间构建,得到虚拟音频空间;
步骤S2:对虚拟现实设备进行实时人脸摄像处理,得到实时摄影流数据;对实时摄影流数据进行人脸图像检测,得到摄影人脸图像数据;对摄影人脸图像数据进行注视点生成,得到视线注视点数据;对视线注视点数据对进行坐标系映射,得到注视点坐标数据;
步骤S3:对虚拟现实设备进行头部传感数据获取,得到头部传感数据;基于头部传感数据对视线注视点数据进行偏转注视点向量计算,得到偏转注视点向量数据;基于偏转注视点向量数据对注视点坐标数据进行偏转坐标计算,得到偏转注视点坐标;
步骤S4:基于偏转注视点坐标对虚拟空间模型进行虚拟视觉区域获取,得到虚拟视觉区域数据;基于虚拟视觉区域数据对虚拟音频空间进行注视音频区域定位,得到注视虚拟音频区域;对虚拟视觉区域数据以及注视虚拟音频区域进行区域音频优化,得到区域音频优化数据。
2.根据权利要求1所述的虚拟现实交互方法,其特征在于,步骤S1包括以下步骤:步骤S11:对虚拟现实设备进行图像数据输入,得到空间图像数据;
步骤S12:对空间图像数据进行空间点云数据标记,得到空间图像点云数据;
步骤S13:对空间图像点云数据进行点云数据配准,得到空间点云配准数据;
步骤S14:对空间图像点云数据进行空间特征提取,得到空间点云特征数据;
步骤S15:对空间点云特征数据进行空间实体分割,得到空间实体数据;
步骤S16:基于空间实体数据以及空间点云配准数据进行虚拟空间模型构建,得到虚拟空间模型;
步骤S17:对虚拟空间模型进行虚拟音频空间构建,得到虚拟音频空间。
3.根据权利要求2所述的虚拟现实交互方法,其特征在于,步骤S17包括以下步骤:步骤S171:对虚拟空间模型进行声源设定,得到声源设定数据;
步骤S172:对声源设定数据进行声源数据集合,得到声源数据集;
步骤S173:基于虚拟空间模型对声源数据集进行声传播路径分析,得到声传播路径数据;
步骤S174:基于声传播路径数据对虚拟空间模型进行传播路径介质设定,得到传播路径介质数据;
步骤S175:基于声源数据集以及声传播路径数据对传播路径介质数据进行声音反射分析,得到声音反射数据;
步骤S176:基于声源数据集以及声传播路径数据对传播路径介质数据进行声音障碍分析,得到声音障碍数据;
步骤S177:基于声音反射数据以及声音障碍数据对虚拟空间模型进行音频数据空间拟合,得到虚拟音频空间。
4.根据权利要求1所述的虚拟现实交互方法,其特征在于,步骤S2包括以下步骤:步骤S21:对虚拟现实设备进行实时人脸摄像处理,得到实时摄影流数据;
步骤S22:对实时摄影流数据进行人脸图像检测,得到摄影人脸图像数据;
步骤S23:对摄影人脸图像数据进行眼部区域提取,得到摄影眼部区域数据;
步骤S24:对摄影眼部区域数据进行瞳孔中心定位,得到瞳孔中心定位数据;
步骤S25:对摄影眼部区域数据进行虹膜轮廓提取,得到虹膜轮廓图像数据;
步骤S26:对瞳孔中心定位数据以及虹膜轮廓图像数据进行注视点生成,得到视线注视点数据;
步骤S27:对视线注视点数据对进行坐标系映射,得到注视点坐标数据。
5.根据权利要求1所述的虚拟现实交互方法,其特征在于,步骤S26包括以下步骤:步骤S261:对虹膜轮廓图像数据进行虹膜特征点提取,得到虹膜特征点数据;
步骤S262:对瞳孔中心定位数据以及虹膜特征点数据进行眼球模型构建,得到眼球模型;
步骤S263:基于瞳孔中心定位数据对眼球模型进行眼球光轴数据方向获取,得到眼球光轴方向数据;
步骤S264:对眼球光轴方向数据进行视线交汇点模拟,得到视线交汇点数据;
步骤S265:对视线交汇点数据进行视线注视点生成,得到视线注视点数据。
6.根据权利要求5所述的虚拟现实交互方法,其特征在于,步骤S3包括以下步骤:步骤S31:对虚拟现实设备进行头部传感数据获取,得到头部传感数据;
步骤S32:对头部传感数据进行头部姿态数据分析,得到头部姿态数据;
步骤S33:基于头部姿态数据对头部传感数据进行头部偏转特征分析,得到头部偏转特征数据;
步骤S34:基于头部偏转特征数据对视线注视点数据进行偏转注视点向量计算,得到偏转注视点向量数据;
步骤S35:基于偏转注视点向量数据对注视点坐标数据进行偏转坐标计算,得到偏转注视点坐标。
7.根据权利要求1所述的虚拟现实交互方法,其特征在于,步骤S33包括以下步骤:步骤S331:对头部姿态数据进行基准姿势设定,得到头部基准姿势数据;
步骤S332:基于头部基准姿势数据对头部传感数据进行头部偏转角度计算,得到头部偏转角度;
步骤S333:对头部偏转角度进行偏转向量方向分析,得到偏转向量方向数据;
步骤S334:对头部偏转角度进行偏转向量幅度计算,得到偏转向量幅度数据;
步骤S335:对偏转向量方向数据以及偏转向量幅度数据进行特征数据拟合,得到头部偏转特征数据。
8.根据权利要求1所述的虚拟现实交互方法,其特征在于,步骤S4包括以下步骤:步骤S41:对虚拟空间模型进行坐标网格映射,得到虚拟空间坐标网格;
步骤S42:基于偏转注视点坐标对虚拟空间坐标网格进行偏转注视点空间定位,得到空间偏转注视点数据;
步骤S43:对空间偏转注视点数据进行虚拟视觉区域获取,得到虚拟视觉区域数据;
步骤S44:基于虚拟视觉区域数据对虚拟音频空间进行注视音频区域定位,得到注视虚拟音频区域;
步骤S45:对虚拟视觉区域数据以及注视虚拟音频区域进行区域音频优化,得到区域音频优化数据。
9.根据权利要求8所述的虚拟现实交互方法,其特征在于,步骤S45包括以下步骤:步骤S451:对注视虚拟音频区域进行区域声学特性分析,得到区域声学特性数据;
步骤S452:基于区域声学特性数据对虚拟音频空间进行空间区域声场模拟,得到空间区域声场数据;
步骤S453:对虚拟视觉区域数据进行注视视觉路径获取,得到注视视觉路径;
步骤S454:对注视视觉路径进行音频遮挡物识别,得到路径音频遮挡物数据;
步骤S455:基于路径音频遮挡物数据对空间区域声场数据进行区域音频仿真优化,得到区域音频优化数据。
10.一种视听设备,其特征在于,包括头戴显示器,用于执行如权利要求1所述的虚拟现实交互方法,该视听设备的头戴显示器包括:虚拟音频空间构建模块,用于对虚拟现实设备进行图像数据输入,得到空间图像数据;对空间图像数据进行虚拟空间模型构建,得到虚拟空间模型;对虚拟空间模型进行虚拟音频空间构建,得到虚拟音频空间;
注视点坐标生成模块,用于对虚拟现实设备进行实时人脸摄像处理,得到实时摄影流数据;对实时摄影流数据进行人脸图像检测,得到摄影人脸图像数据;对摄影人脸图像数据进行注视点生成,得到视线注视点数据;对视线注视点数据对进行坐标系映射,得到注视点坐标数据;
偏转注视点生成模块,用于对虚拟现实设备进行头部传感数据获取,得到头部传感数据;
基于头部传感数据对视线注视点数据进行偏转注视点向量计算,得到偏转注视点向量数据;
基于偏转注视点向量数据对注视点坐标数据进行偏转坐标计算,得到偏转注视点坐标;
区域音频优化模块,用于基于偏转注视点坐标对虚拟空间模型进行虚拟视觉区域获取,得到虚拟视觉区域数据;基于虚拟视觉区域数据对虚拟音频空间进行注视音频区域定位,得到注视虚拟音频区域;对虚拟视觉区域数据以及注视虚拟音频区域进行区域音频优化,得到区域音频优化数据。