1.一种推荐任务发布时间的空间众包方法,其特征在于,包括任务相关表达学习、多视角关系学习、任务发布时间预测,所述任务相关表达学习部分消除图的自连接以及特征变换权重矩阵,在保证高效推荐的同时加快模型的训练速度;所述多视角关系学习部分针对任务发布序列进行,先对序列中每个任务的多视角属性进行融合,接着使用Transformer的多头注意力机制,进一步挖掘序列中蕴含的上下文信息,所述任务发布时间预测部分利用全连接层预测任务发布时间得到每个任务的推荐发布时间,然后分别利用贪心算法和基于最小费用最大流算法进行动态的任务分配,最后利用最小费用最大流算法计算出网络流图中的最大流量,此最大流量就对应当前时刻的最大的任务完成数;
所述任务相关表达学习部分首先基于任务请求者和任务,任务请求者和任务发布时间的交互数据,分别构建两个图卷积神经网络提取任务请求者、任务、任务发布时间的特征,任务请求者和任务的图卷积神经网络各层的传播过程如下式:其中Q表示任务请求者的特征向量,S表示任务的特征向量,Q(i)和S(i)分别表示第i层的任务请求者和任务的特征向量,l1表示神经网络的层数, Aqs表示任务请求者和任务的交互矩阵的邻接矩阵, 是Aqs的度矩阵,Qqs和Sqs表示网络最终输出的任务请求者和任务的特征矩阵;
图神经网络最后一层的输出结果为各层特征矩阵的平均值, 任务请求者和任务发布时间对应的图卷积神经网络各层的传播过程类似,最终得到任务请求者的特征矩阵Qqt和任务发布时间的特征矩阵Tqt;
所述多视角关系学习部分针对任务发布序列进行,先对序列中每个任务的多视角属性进行融合,如下式:ei=si+ti+posi
其中si表示任务的特征矩阵,ti表示任务发布时间的特征矩阵,posi表示任务在序列的位置编码矩阵,ei表示最终得到的新实体,包含更多任务相关信息;用ei替代原来的si,可以得到新的任务发布序列的表达;接着使用Transformer的多头注意力机制,进一步挖掘序列中蕴含的上下文信息,各层的传播过程如下:Zl=LN(MHA(Hl‑1)+Hl‑1)
Hl=LN(TFN(Zl)+Zl)
其中MHA表示多头注意力机制,LN表示归一化层,TFN表示一个两层的前馈网络,Hl表示第i层的输出矩阵;所述多头注意力机制首先由前一层的输出矩阵分别映射出查询矩阵键 值 如下式:其中 表示权重矩阵;接着计算每个注意力头的输出,
dk表示注意力头的维度;最后将所有注意力头拼接,得到最终的输出
其中 是包含上下文语义信息的任务发布序列的表达;对序列中的每个任务的表达求平均值得到任务发布序列的最终表达所述任务发布时间预测部分,利用全连接层预测任务发布时间;全连接层的输入是任务请求者特征向量和任务发布序列的向量的拼接,如下式:表示预测的任务发布的时间段,FC表示全连接层,ρ表示softmax激活函数;
得到每个任务的推荐发布时间段后,根据均匀分布生成指定数量的工人;然后分别利用贪心算法和基于最小费用最大流算法进行动态的任务分配;
为了控制信息在两个不同的语义空间中的流动,引入门机制融合任务请求者两个不同语义空间中的特征矩阵,其表达方式如下:*
Q=gate*Qqt+(1‑gate)*Qqs
gate=σ(Wg(Concat(Qqs,Qqt))+bg)*
σ表示sigmoid激活函数,Wg和bg表示可训练的参数矩阵,Q表示最终得到的任务请求者的特征矩阵;
所述两个不同的语义空间为任务请求者和任务、任务请求者和任务发布时间。