广告粗排相关论文阅读笔记

背景

效果类在线广告投放流程一般包含以下步骤:

  • 召回(Information Retrieval,IR),从海量广告全集中召回和当前请求相匹配的候选广告集,候选广告集的规模一般是数万;

  • 粗排(Approximate Rank,AR),对召回返回的候选广告集使用相对简单的模型预估每个广告的点击率 <math xmlns="http://www.w3.org/1998/Math/MathML"> pCTR \text{pCTR} </math>pCTR,并基于广告主在点击上的出价 <math xmlns="http://www.w3.org/1998/Math/MathML"> b i d click bid_{\text{click}} </math>bidclick计算 <math xmlns="http://www.w3.org/1998/Math/MathML"> eCPM \text{eCPM} </math>eCPM: <math xmlns="http://www.w3.org/1998/Math/MathML"> eCPM = pCTR ⋅ b i d click \text{eCPM}=\text{pCTR}\cdot bid_{\text{click}} </math>eCPM=pCTR⋅bidclick,最后,再基于 <math xmlns="http://www.w3.org/1998/Math/MathML"> eCPM \text{eCPM} </math>eCPM从大到小进行排序,选取排序靠前的数百个广告;

  • 精排(Full Rank,FR),对粗排返回的数百个广告,和粗排类似的方式、但选择相对复杂的模型预估点击率并计算 <math xmlns="http://www.w3.org/1998/Math/MathML"> eCPM \text{eCPM} </math>eCPM,再基于 <math xmlns="http://www.w3.org/1998/Math/MathML"> eCPM \text{eCPM} </math>eCPM排序后,选取排序靠前的数十个广告。

  • 定价(Price),对精排返回的数十个广告按照一定的机制根据出价计算最后的定价,然后将胜出的广告返回给媒体侧进行展示,当用户点击广告时,广告平台获取相应的点击事件,并按照之前计算的定价计价,扣减广告主的账户余额。

上述流程中的粗排和精排均可以认为是排序(Learning to Rank,LTR)问题,而排序问题的求解一般有3种方式:

  • Pointwise,逐个求解序列中各元素的优先级,从而得到整个序列的排序结果;
  • Pairwise,序列中各元素两两配对,逐对求解两元素之间的优先级,从而得到整个序列的排序结果;
  • Listwise,直接求解序列的排序结果。

这三种方法从上到下,从只考虑序列中元素自身、到考虑序列中两两元素相互关系再到考虑序列中所有元素相互关系,考虑的信息更加全面,但问题求解的样本空间也逐渐增大,从所有元素构成的样本空间、到所有元素两两配对构成的样本空间、再到所有元素组合序列构成的样本空间。 上述广告投放流程中提到的先预估点击率、再计算 <math xmlns="http://www.w3.org/1998/Math/MathML"> eCPM \text{eCPM} </math>eCPM、最后根据 <math xmlns="http://www.w3.org/1998/Math/MathML"> eCPM \text{eCPM} </math>eCPM进行排序的方法,则属于Pointwise类型的排序方法。 另一方面,粗排和精排虽然都是排序问题,但结合各自所处的广告投放环节,又有着不同的条件约束和演进方向。 精排需处理的广告数相对粗排较少,仅约数百个,因此可以在保证在线广告系统低延时、高吞吐的前提下,设计复杂的模型结构,精准地预估 <math xmlns="http://www.w3.org/1998/Math/MathML"> pCTR \text{pCTR} </math>pCTR,从而计算 <math xmlns="http://www.w3.org/1998/Math/MathML"> eCPM \text{eCPM} </math>eCPM,这方面的模型工作有DIN、DIEN等。而随着广告主愈加关注后链路转化效果,其偏向采用oCPC方式进行广告投放,即在转化上进行出价,因此,需要精排同时能预估转化率,并根据以下公式计算 <math xmlns="http://www.w3.org/1998/Math/MathML"> eCPM \text{eCPM} </math>eCPM: <math xmlns="http://www.w3.org/1998/Math/MathML"> eCPM = pCTR × pCVR × tCPA \text{eCPM}=\text{pCTR}\times\text{pCVR}\times\text{tCPA} </math>eCPM=pCTR×pCVR×tCPA,转化率预估方面的模型工作有ESMM等。另外,由于精排和后续的定价属于广告位拍卖场景,涉及广告主、媒体、广告平台三方的博弈,因此精排和定价需要满足拍卖机制中的激励兼容(每个广告主都如实报价)和个体独立(每个广告主都获得非负的效用),同时,原先按照特定公式计算 <math xmlns="http://www.w3.org/1998/Math/MathML"> eCPM \text{eCPM} </math>eCPM并排序的方式并不满足多目标优化(同时优化媒体用户体验、广告主GMV和平台收益),因此,需结合广告特征(包含 <math xmlns="http://www.w3.org/1998/Math/MathML"> pCTR \text{pCTR} </math>pCTR和 <math xmlns="http://www.w3.org/1998/Math/MathML"> pCVR \text{pCVR} </math>pCVR)、上下文特征,针对多目标优化,对精排和定价进行端到端的学习和推理,这方面的模型工作有Deep GSP、DNA等。 而粗排需处理的广告数相对精排较多,约数万个,另外,粗排的排序逻辑与精排近似,主要承担承上启下、初步筛选的作用,减少精排的计算量,因此,粗排一般使用相对简单的模型进行点击率、转化率的预估,在模型准确度和计算复杂度上达到均衡。基于这个思路,粗排模型不断发展,从简单的后验统计、到浅层模型、再到深层模型。虽然模型结构不断变化,但粗排均是Pointwise类型的排序方法,其存在以下不足:粗排模型训练样本使用的是精排进一步筛选出的广告的展现、点击日志,存在样本偏差问题;粗排模型虽然不断演进,但受限计算复杂度的约束,其预估的点击率、转化率难以对齐精排,而随着广告出价方式和调控机制的发展, <math xmlns="http://www.w3.org/1998/Math/MathML"> eCPM \text{eCPM} </math>eCPM的计算已不是简单的预估点击率和出价的相乘,这样导致粗排更难以通过预估点击率和出价相乘对齐精排的排序结果。因此,粗排模型的演进从Pointwise类型的排序方法------先预估每个广告的点击率、再计算 <math xmlns="http://www.w3.org/1998/Math/MathML"> eCPM \text{eCPM} </math>eCPM进行排序,发展至Pairwise类型的排序方法------直接学习并推理精排的排序结果。 本文是对《COLD: Towards the Next Generation of Pre-Ranking System》《COPR: Consistency-Oriented Pre-Ranking for Online Advertising》这两篇论文的阅读笔记。这两篇论文由阿里妈妈分别于2020年和2023年发表,介绍了其粗排模型的演进历程。

Pointwise

《COLD: Towards the Next Generation of Pre-Ranking System》由阿里妈妈于2020年发表,介绍了其粗排模型基于Pointwise类型的排序方法,从简单的后验统计、到浅层模型、再到深层模型的演进历程,并主要介绍了其深层模型COLD在模型结构和工程实现上的优化思路,从而在保证在线系统性能要求的前提下,在模型准确度上取得较好的提升。

后验统计

论文首先介绍了粗排模型的演进历程。第一代粗排模型使用简单的后验统计。根据广告历史展现、点击计算后验点击率作为广告粒度的静态分,其并不是个性化的,因此不同用户和上下文环境的广告请求其粗排阶段的排序结果均是相同的。

图1 后验统计

浅层模型

第二代粗排模型使用浅层模型,比如Logistic回归模型。令 <math xmlns="http://www.w3.org/1998/Math/MathML"> x u x_u </math>xu为用户特征、 <math xmlns="http://www.w3.org/1998/Math/MathML"> x a x_a </math>xa为广告特征、 <math xmlns="http://www.w3.org/1998/Math/MathML"> x u a x_{ua} </math>xua为用户和广告的交叉特征,对上述特征进行加权求和后通过Sigmoid函数映射至0到1的区间,作为点击率预估值:
<math xmlns="http://www.w3.org/1998/Math/MathML" display="block"> y = σ ( θ T x ) x = concat ( x u , x a , x u a ) \begin{align} y&=\sigma(\theta^Tx) \\ x&=\text{concat}(x_u,x_a,x_{ua}) \end{align} </math>yx=σ(θTx)=concat(xu,xa,xua)

浅层模型实现简单,但模型表达能力相对深层模型较弱。

图2 Logistic回归模型

双塔模型

第三代模型是双塔模型。双塔模型最早是由微软于2013年提出的DSSM模型,并应用在搜索场景下的搜索词和关键词匹配中,后续由于该模型易于工程实现,逐渐被广泛应用于搜索、推荐、广告等场景中。 阿里妈妈在粗排中所使用的双塔模型如图3所示。令 <math xmlns="http://www.w3.org/1998/Math/MathML"> e u e_u </math>eu为用户特征经过Embedding层后的Embedding向量, <math xmlns="http://www.w3.org/1998/Math/MathML"> e a e_a </math>ea为广告特征经过Embedding层后的Embedding向量。这两个Embedding向量分别经过各自的全连接网络后,得到用户向量 <math xmlns="http://www.w3.org/1998/Math/MathML"> v u v_u </math>vu和广告向量 <math xmlns="http://www.w3.org/1998/Math/MathML"> v a v_a </math>va,对这两个向量求内积后再通过Sigmoid函数得到预估点击率:
<math xmlns="http://www.w3.org/1998/Math/MathML" display="block"> y = σ ( v u T v a ) v u = FC ( e u ) v a = FC ( e a ) \begin{align} y&=\sigma(v_u^Tv_a) \\ v_u&=\text{FC}(e_u) \\ v_a&=\text{FC}(e_a) \end{align} </math>yvuva=σ(vuTva)=FC(eu)=FC(ea)

图3 双塔模型

从模型结构可以看出,虽然分别使用各自的子网络对用户特征和广告特征进行深度挖掘,但是用户特征和广告特征直至最终的Sigmoid函数才会交叉,导致模型的表达能力有所欠缺。 使用双塔模型进行粗排的工程实现如图4所示。每天使用历史的展现、点击日志进行模型训练、参数更新,然后离线对用户和广告集合中的所有用户和广告使用其特征计算其向量,并保存至索引中。在线推理时,对于每次广告请求,从索引中获取当前发起广告请求的用户的用户向量和召回返回的粗排候选广告集合中所有广告的广告向量,对于每个广告向量,计算其与用户向量的内积,并进而通过Sigmoid函数计算广告预估点击率,最后再使用eCPM公式得到粗排的广告排序分进行排序。

图4 双塔模型进行粗排的工程实现

从中可以看出,计算复杂度较高的用户向量和广告向量计算均可离线完成,在线推理时只需从索引中按主键获取相应的向量进行简单计算即可,大大减少了在线计算量,但是该工程实现也存在以下不足:所有用户和广告均需离线计算其向量,导致离线计算量较大,但实际有大量非活跃用户并不会发起广告请求、大量受众较少的广告也并不会被召回;同时,在离线计算后产生的新用户和新广告在索引中并没有其向量,导致无法对其进行粗排;另外,离线计算的用户和广告向量在全量更新至各自的索引时,会由于更新的时间差导致索引中用户和广告向量版本在一段时间内不一致,从而影响在线推理的准确度。

深层模型

由于双塔模型在模型表达和工程实现上的不足,所以阿里妈妈进一步改进粗排模型,使用深层模型,并在输入中即对用户特征和广告特征进行交叉,充分挖掘用户和广告之间的相关性。在精排模型方面,阿里妈妈已先后迭代了GwEN(Group-wise Embedding Network)、DIN、DIEN等深层模型,如果直接将其应用在粗排,则较大的计算量会导致粗排超时,因此,阿里妈妈在精排模型(论文中使用的是GwEN)的基础上进行网络结构和工程实现的优化,在提升粗排模型表达能力的同时,减少计算耗时,保证粗排的性能要求,经过优化后的粗排模型即COLD (Computing power cost-aware Online and Lightweight Deep pre-ranking system)。

GwEN

在《Deep Interest Network for Click-Through Rate Prediction》这篇介绍DIN的论文中,作者简单介绍了阿里妈妈之前所使用的精排模型------GwEN,以作为和DIN进行比较的基线模型,其模型结构如图5所示。

图5 GwEN网络结构

GwEN的输入是由用户特征、广告特征、用户行为特征、上下文特征构成的多个特征组,每个特征组采用独热或多热编码,例如输入:
<math xmlns="http://www.w3.org/1998/Math/MathML" display="block"> [ w e e k d a y = F r i d a y , g e n d e r = F e m a l e , v i s i t e d _ c a t e _ i d s = { B a g , B o o k } , a d _ c a t e _ i d = B o o k ] [weekday=Friday, gender=Female, visited\_cate\_ids=\{Bag, Book\}, ad\_cate\_id=Book] </math>[weekday=Friday,gender=Female,visited_cate_ids={Bag,Book},ad_cate_id=Book]

可表示为:
<math xmlns="http://www.w3.org/1998/Math/MathML" display="block"> [ 0 , 0 , 0 , 0 , 1 , 0 , 0 ] ⏟ w e e k d a y = F r i d a y [ 0 , 1 ] ⏟ g e n d e r = F e m a l e [ 0 , . . . , 1 , . . . , 1 , . . . , 0 ] ⏟ v i s i t e d _ c a t e _ i d s = { B a g , B o o k } [ 0 , . . . , 1 , . . . , 0 ] ⏟ a d _ c a t e _ i d = B o o k \underbrace{[0, 0, 0, 0, 1, 0, 0]}{weekday=Friday}\underbrace{[0, 1]}{gender=Female\quad}\underbrace{[0, ..., 1, ..., 1, ..., 0]}_{visited\_cate\ids=\{Bag, Book\}\quad}\underbrace{[0, ..., 1, ..., 0]}{ad\_cate\_id=Book} </math>weekday=Friday [0,0,0,0,1,0,0]gender=Female [0,1]visited_cate_ids={Bag,Book} [0,...,1,...,1,...,0]ad_cate_id=Book [0,...,1,...,0]

每个特征组经过Embedding层后转化为相应的固定长度的Embedding向量(多热编码会转化为多个Embedding向量,需再进行池化转化为固定长度的Embedding向量),再将所有特征组的Embedding向量拼接在一起后输入全连接网络层,最后通过一层Softmax层输出预估点击率。

网络结构优化

COLD的网络结构复用GwEN,但进行了轻量化的改造。轻量化改造的方案一般包括模型剪枝、特征筛选等。论文采用特征筛选方案,如图6所示,在原GwEN的Embedding层之后增加SE(Squeeze-and-Excitation)模块。Squeeze-and-Excitation Networks(SENet)是由自动驾驶公司Momenta于2017年公布的一种图像识别模型,其和2017年Google提出的Transformer模型一样,均采用了注意力机制,通过对特征通道间的相关性进行建模,把重要的特征进行强化来提升准确率,取得了2017年ILSVR竞赛的冠军。

图6 COLD网络结构

论文使用SE模块计算各特征组Embedding向量的权重。令模型输入包含 <math xmlns="http://www.w3.org/1998/Math/MathML"> M M </math>M个特征组, <math xmlns="http://www.w3.org/1998/Math/MathML"> e i e_i </math>ei表示第 <math xmlns="http://www.w3.org/1998/Math/MathML"> i i </math>i个特征组的Embedding向量,向量的维度为 <math xmlns="http://www.w3.org/1998/Math/MathML"> k k </math>k,则特征组Embedding向量的权重可通过以下方式计算:
<math xmlns="http://www.w3.org/1998/Math/MathML" display="block"> s = σ ( W [ e 1 , ... , e m ] + b ) s=\sigma(W[e_1,\dots,e_m]+b) </math>s=σ(W[e1,...,em]+b)

其中, <math xmlns="http://www.w3.org/1998/Math/MathML"> s ∈ R M s\in\mathbb{R}^M </math>s∈RM, <math xmlns="http://www.w3.org/1998/Math/MathML"> W ∈ R k × M W\in\mathbb{R}^{k\times M} </math>W∈Rk×M, <math xmlns="http://www.w3.org/1998/Math/MathML"> b ∈ R M b\in\mathbb{R}^M </math>b∈RM, <math xmlns="http://www.w3.org/1998/Math/MathML"> s s </math>s的第 <math xmlns="http://www.w3.org/1998/Math/MathML"> i i </math>i个元素 <math xmlns="http://www.w3.org/1998/Math/MathML"> s i s_i </math>si表示 <math xmlns="http://www.w3.org/1998/Math/MathML"> e i e_i </math>ei的权重标量,使用 <math xmlns="http://www.w3.org/1998/Math/MathML"> s i s_i </math>si与 <math xmlns="http://www.w3.org/1998/Math/MathML"> e i e_i </math>ei的每个元素进行相乘,得到 <math xmlns="http://www.w3.org/1998/Math/MathML"> e i e_i </math>ei加权后的Embedding向量 <math xmlns="http://www.w3.org/1998/Math/MathML"> v i v_i </math>vi,再将加权后的Embedding向量拼接在一起输入后续的全连接网络。 论文在计算Embedding向量的权重后,按权重排序,选择靠前的 <math xmlns="http://www.w3.org/1998/Math/MathML"> K K </math>K个特征组进行模型训练和在线推理。而 <math xmlns="http://www.w3.org/1998/Math/MathML"> K K </math>K值的设置,论文进行了多轮离线实验,评估不同 <math xmlns="http://www.w3.org/1998/Math/MathML"> K K </math>K值下的模型表达能力(通过GAUC指标)和系统性能指标(通过QPS和RT),通过权衡,确认最终的 <math xmlns="http://www.w3.org/1998/Math/MathML"> K K </math>K值。

工程实现优化

COLD的工程实现如图7所示,其在线推理包含两步:第一步,对于每次广告请求,从用户特征表获取当前发起广告请求的用户的用户特征,从广告特征表获取召回返回的粗排候选广告集合中所有广告的广告特征,并进而计算用户和广告的交叉特征;第二步,将特征输入网络,先转化为Embedding向量,再拼接在一起输入全连接网络,前向传播后输出预估点击率。工程实现的优化包括并行化、列式计算和降低精度等。

图7 COLD工程实现

并行化

由于需对多个候选广告预估点击率,而每个广告的计算相互独立,因此,可以按广告维度进行并行计算。

列式计算

对于多个候选广告的特征计算,论文不采用按广告维度的行式计算,而采用按特征组维度的列式计算,如图8所示,这样可以借助SIMD(Single Instruction Multiple Data)实现同时对多个数据执行指令以加速特征计算。

图8 特征的行式计算和列式计算

降低精度

网络前向传播中的运算主要是矩阵相乘,而Float16相对Float32在矩阵相乘上有更高的性能,因此,可以使用Float16替代Float32。而某些求和池化操作会导致计算结果在Float16下溢出,因此论文进一步设计了分段平滑函数linear_log以保证计算结果不会过大:
<math xmlns="http://www.w3.org/1998/Math/MathML" display="block"> linear_log ( x ) = { − log ⁡ ( − x ) − 1 x < − 1 x − 1 ≤ x ≤ 1 log ⁡ ( x ) + 1 x > 1 \text{linear\_log}(x)=\begin{cases} -\log(-x)-1 & x<-1 \\ x & -1\le x \le 1 \\ \log(x)+1 & x>1 \end{cases} </math>linear_log(x)=⎩ ⎨ ⎧−log(−x)−1xlog(x)+1x<−1−1≤x≤1x>1

图9 分段平滑函数linear_log

Pairwise

虽然以前模型结构不断变化,但粗排均是Pointwise类型的排序方法,其存在以下不足:粗排模型训练样本使用的是精排进一步筛选出的广告的展现、点击日志,存在样本偏差问题;粗排模型虽然不断演进,但受限计算复杂度的约束,其预估的点击率、转化率难以对齐精排。因此,粗排模型的演进从Pointwise类型的排序方法------先预估每个广告的点击率、再计算 <math xmlns="http://www.w3.org/1998/Math/MathML"> eCPM \text{eCPM} </math>eCPM进行排序,发展至Pairwise类型的排序方法------直接学习并推理精排的排序结果《COPR: Consistency-Oriented Pre-Ranking for Online Advertising》由阿里妈妈于2023年发表,介绍了其在粗排阶段直接学习精排排序结果并进行推理的相关工作------COPR(Consistency-Oriented Pre-Ranking)。 首先介绍广告请求中的两种日志。每次广告请求,精排会对粗排返回的 <math xmlns="http://www.w3.org/1998/Math/MathML"> M M </math>M个广告预估点击率、计算 <math xmlns="http://www.w3.org/1998/Math/MathML"> eCPM \text{eCPM} </math>eCPM、并按 <math xmlns="http://www.w3.org/1998/Math/MathML"> eCPM \text{eCPM} </math>eCPM进行排序,将排序结果写入排序日志(Ranking Log)。一次广告请求的排序日志如下所示:
<math xmlns="http://www.w3.org/1998/Math/MathML" display="block"> R = [ ( a d 1 , p C T R 1 , b i d 1 ) , ... , ( a d M , p C T R M , b i d M ) ] \mathbf{R}=[(ad_1,pCTR_1,bid_1),\dots,(ad_M,pCTR_M,bid_M)] </math>R=[(ad1,pCTR1,bid1),...,(adM,pCTRM,bidM)]

其中,每个广告包含其广告特征、精排预估点击率和出价。 精排从排序结果中选取靠前的 <math xmlns="http://www.w3.org/1998/Math/MathML"> N N </math>N个广告展示给用户。系统将广告展现和用户是否点击写入展现日志。一次广告请求的展现日志(Impression Log)如下所示:
<math xmlns="http://www.w3.org/1998/Math/MathML" display="block"> I = [ ( a d 1 , y 1 ) , ... , ( a d N , y N ) ] \mathbf{I}=[(ad_1,y_1),\dots,(ad_N,y_N)] </math>I=[(ad1,y1),...,(adN,yN)]

其中,每个广告包含其广告特征和是否被点击的标记 <math xmlns="http://www.w3.org/1998/Math/MathML"> y y </math>y。

图10 COPR网络结构

COPR网络结构如图10所示,其将CLOD作为基线模型,并在COLD的基础上进行升级,增加排序对齐模块。 COLD网络结构不再介绍,其输入为用户特征、广告特征和上下文特征,输出为点击率预测值。可以使用展现日志对COLD模型进行训练,令 <math xmlns="http://www.w3.org/1998/Math/MathML"> y ^ \hat{y} </math>y^为COLD模型点击率预测值, <math xmlns="http://www.w3.org/1998/Math/MathML"> y y </math>y为展现日志中广告是否被点击的标记,则训练COLD模型所使用的交叉熵损失函数可表示为:
<math xmlns="http://www.w3.org/1998/Math/MathML" display="block"> L c t r = ∑ I [ − y log ⁡ ( y ^ ) − ( 1 − y ) log ⁡ ( 1 − y ^ ) ] L_{ctr}=\sum_{I}{[-y\log(\hat{y})-(1-y)\log(1-\hat{y})]} </math>Lctr=I∑[−ylog(y^)−(1−y)log(1−y^)]

对于排序对齐,COPR并没有直接将粗排和精排排序结果完全对齐,而是设计了基于块的采样(Chunk-Based Sampling),如图11所示。论文将每条排序日志平均切分为 <math xmlns="http://www.w3.org/1998/Math/MathML"> D D </math>D个块(Chunk),每个块中广告个数为 <math xmlns="http://www.w3.org/1998/Math/MathML"> K = M D K=\frac{M}{D} </math>K=DM,对每个块,从其 <math xmlns="http://www.w3.org/1998/Math/MathML"> K K </math>K个广告中抽样一个广告,如此共抽样 <math xmlns="http://www.w3.org/1998/Math/MathML"> D D </math>D个广告,构成新的精排排序结果:
<math xmlns="http://www.w3.org/1998/Math/MathML" display="block"> R c h u n k = [ ( a d s d , p C T R s d , b i d s d , D − d ) ] d = 1 D \mathbf{R}{chunk}=[(ad{s_d},pCTR_{s_d},bid_{s_d},D-d)]_{d=1}^D </math>Rchunk=[(adsd,pCTRsd,bidsd,D−d)]d=1D

其中, <math xmlns="http://www.w3.org/1998/Math/MathML"> D − d D-d </math>D−d表示排序优先级,值越大,优先级越高。COPR即基于上述新的排序结果进行学习,也就是说在块的粒度实现粗排和精排排序结果对齐。 <math xmlns="http://www.w3.org/1998/Math/MathML"> K K </math>K值越小,粗排和精排排序结果一致性越高,相应要求粗排模型表达能力越高,但其计算复杂度也越高。若 <math xmlns="http://www.w3.org/1998/Math/MathML"> K = 1 K=1 </math>K=1,则粗排和精排排序结果完全一致。论文将 <math xmlns="http://www.w3.org/1998/Math/MathML"> K K </math>K设置为10。

图11 基于块的采样

不同于以往粗排模型预测每个广告的点击率 <math xmlns="http://www.w3.org/1998/Math/MathML"> y ^ i \hat{y}_i </math>y^i,并希望 <math xmlns="http://www.w3.org/1998/Math/MathML"> y ^ i \hat{y}_i </math>y^i与精排模型预测点击率 <math xmlns="http://www.w3.org/1998/Math/MathML"> pCTR i \text{pCTR}_i </math>pCTRi对齐,COPR设计了图10中所包含的松弛网络(Relaxation Net),通过该网络学习并推理调节因子 <math xmlns="http://www.w3.org/1998/Math/MathML"> α \alpha </math>α:
<math xmlns="http://www.w3.org/1998/Math/MathML" display="block"> α = R e L U ( M L P ( x ) ) + 1 e − 6 ∈ R + \alpha=ReLU(MLP(x))+1e^{-6}\in\mathcal{R}^+ </math>α=ReLU(MLP(x))+1e−6∈R+

再使用该因子调节 <math xmlns="http://www.w3.org/1998/Math/MathML"> y ^ \hat{y} </math>y^:
<math xmlns="http://www.w3.org/1998/Math/MathML" display="block"> y ~ = α ⋅ y ^ \tilde{y}=\alpha\cdot\hat{y} </math>y~=α⋅y^

<math xmlns="http://www.w3.org/1998/Math/MathML"> y ~ \tilde{y} </math>y~表示调整后的点击率预测值,使用 <math xmlns="http://www.w3.org/1998/Math/MathML"> y ~ \tilde{y} </math>y~与 <math xmlns="http://www.w3.org/1998/Math/MathML"> b i d bid </math>bid相乘作为 <math xmlns="http://www.w3.org/1998/Math/MathML"> eCPM \text{eCPM} </math>eCPM,并按 <math xmlns="http://www.w3.org/1998/Math/MathML"> eCPM \text{eCPM} </math>eCPM排序作为粗排排序结果。 因为需要对齐粗排和精排排序结果,所以对于 <math xmlns="http://www.w3.org/1998/Math/MathML"> R c h u n k \mathbf{R}{chunk} </math>Rchunk中的任意两个广告 <math xmlns="http://www.w3.org/1998/Math/MathML"> a d s i ad{s_i} </math>adsi和 <math xmlns="http://www.w3.org/1998/Math/MathML"> a d s j ad_{s_j} </math>adsj,若 <math xmlns="http://www.w3.org/1998/Math/MathML"> i < j i<j </math>i<j,则应有 <math xmlns="http://www.w3.org/1998/Math/MathML"> y ~ s i ⋅ b i d s i > y ~ s j ⋅ b i d s j \tilde{y}{s_i}\cdot bid{s_i}>\tilde{y}{s_j}\cdot bid{s_j} </math>y~si⋅bidsi>y~sj⋅bidsj,因此,论文设计了广告两两配对的排序对齐损失函数:
<math xmlns="http://www.w3.org/1998/Math/MathML" display="block"> L r a n k = ∑ i < j log ⁡ [ 1 + e − ( y ~ s i ⋅ b i d s i y ~ s j ⋅ b i d s j − 1 ) ] L_{rank}=\sum_{i<j}{\log\left[1+e^{-(\frac{\tilde{y}{s_i}\cdot bid{s_i}}{\tilde{y}{s_j}\cdot bid{s_j}}-1)}\right]} </math>Lrank=i<j∑log[1+e−(y~sj⋅bidsjy~si⋅bidsi−1)]

论文进一步指出,不同位置的两个广告排序错误所造成的影响是不同的,例如,块1和块10中两个广告排序错误的影响要大于块11和块20中两个广告排序错误的影响(因为越靠前的广告越有可能被展现和点击),所以,需要对上述损失函数每个广告配对设置权重项。论文使用了LTR算法中常用的评估指标DCG设计权重项,对于某个排序结果,DCG的计算公式如下:
<math xmlns="http://www.w3.org/1998/Math/MathML" display="block"> D C G = ∑ i = 1 D 2 p i − 1 log ⁡ ( i + 1 ) DCG=\sum_{i=1}^D{\frac{2^{p_i}-1}{\log(i+1)}} </math>DCG=i=1∑Dlog(i+1)2pi−1

其中, <math xmlns="http://www.w3.org/1998/Math/MathML"> p i p_i </math>pi表示广告 <math xmlns="http://www.w3.org/1998/Math/MathML"> i i </math>i在当前排序结果中的优先级,而理想的排序结果即精排排序结果,其DCG可表示为:
<math xmlns="http://www.w3.org/1998/Math/MathML" display="block"> I D C G = ∑ i = 1 D 2 D − i − 1 log ⁡ ( i + 1 ) IDCG=\sum_{i=1}^D{\frac{2^{D-i}-1}{\log(i+1)}} </math>IDCG=i=1∑Dlog(i+1)2D−i−1

而广告 <math xmlns="http://www.w3.org/1998/Math/MathML"> i i </math>i和广告 <math xmlns="http://www.w3.org/1998/Math/MathML"> j j </math>j配对的权重可表示为:
<math xmlns="http://www.w3.org/1998/Math/MathML" display="block"> Δ N D C G ( i , j ) = 2 D − i − 2 D − j I D C G [ 1 log ⁡ ( i + 1 ) − 1 log ⁡ ( j + 1 ) ] \Delta NDCG(i,j)=\frac{2^{D-i}-2^{D-j}}{IDCG}\left[\frac{1}{\log(i+1)}-\frac{1}{\log(j+1)}\right] </math>ΔNDCG(i,j)=IDCG2D−i−2D−j[log(i+1)1−log(j+1)1]

将上述权重项加入排序对齐损失函数中:
<math xmlns="http://www.w3.org/1998/Math/MathML" display="block"> L r a n k = ∑ i < j Δ N D C G ( i , j ) log ⁡ [ 1 + e − ( y ~ s i ⋅ b i d s i y ~ s j ⋅ b i d s j − 1 ) ] L_{rank}=\sum_{i<j}{\Delta NDCG(i,j)\log\left[1+e^{-(\frac{\tilde{y}{s_i}\cdot bid{s_i}}{\tilde{y}{s_j}\cdot bid{s_j}}-1)}\right]} </math>Lrank=i<j∑ΔNDCG(i,j)log[1+e−(y~sj⋅bidsjy~si⋅bidsi−1)]

另外,论文希望 <math xmlns="http://www.w3.org/1998/Math/MathML"> α \alpha </math>α作为调节因子,在调节点击率、对齐排序结果的同时,尽量接近1,减少对点击率的影响,因此,在损失函数中还引入了对 <math xmlns="http://www.w3.org/1998/Math/MathML"> α \alpha </math>α偏离1的惩罚项:
<math xmlns="http://www.w3.org/1998/Math/MathML" display="block"> L r e g = { α − 1 α > 1 1 α − 1 α < = 1 L_{reg}=\begin{cases} \alpha-1 & \alpha>1 \\ \frac{1}{\alpha}-1 & \alpha<=1 \end{cases} </math>Lreg={α−1α1−1α>1α<=1

最终,损失函数可表示为:
<math xmlns="http://www.w3.org/1998/Math/MathML" display="block"> L = L c t r ⏟ C T R L o s s + λ 1 L r a n k + λ 2 L r e g ⏟ 𝐶 𝑜 𝑛 𝑠 𝑖 𝑠 𝑡 𝑒 𝑛 𝑐 𝑦 𝐿 𝑜 𝑠 𝑠 L=\underbrace{L_{ctr}}{CTR\space Loss}+\underbrace{\lambda_1L{rank}+\lambda_2L_{reg}}_{𝐶𝑜𝑛𝑠𝑖𝑠𝑡𝑒𝑛𝑐𝑦\space 𝐿𝑜𝑠𝑠} </math>L=CTR Loss Lctr+Consistency Loss λ1Lrank+λ2Lreg

COPR工程实现如图12所示,离线对排序日志进行采样,基于展现日志和采样后的排序日志进行模型训练,在线使用模型预测点击率和调节因子,再使用调节后的点击率计算 <math xmlns="http://www.w3.org/1998/Math/MathML"> eCPM \text{eCPM} </math>eCPM,按 <math xmlns="http://www.w3.org/1998/Math/MathML"> eCPM \text{eCPM} </math>eCPM排序后得到粗排排序结果。

图12 COPR工程实现

参考文献

《COLD: Towards the Next Generation of Pre-Ranking System》 《COPR: Consistency-Oriented Pre-Ranking for Online Advertising》

相关推荐
火星机器人life2 小时前
基于ceres优化的3d激光雷达开源算法
算法·3d
虽千万人 吾往矣2 小时前
golang LeetCode 热题 100(动态规划)-更新中
算法·leetcode·动态规划
arnold663 小时前
华为OD E卷(100分)34-转盘寿司
算法·华为od
ZZTC3 小时前
Floyd算法及其扩展应用
算法
lshzdq4 小时前
【机器人】机械臂轨迹和转矩控制对比
人工智能·算法·机器人
2401_858286114 小时前
115.【C语言】数据结构之排序(希尔排序)
c语言·开发语言·数据结构·算法·排序算法
猫猫的小茶馆4 小时前
【数据结构】数据结构整体大纲
linux·数据结构·算法·ubuntu·嵌入式软件
u0107735145 小时前
【字符串】-Lc5-最长回文子串(中心扩展法)
java·算法
帅逼码农5 小时前
K-均值聚类算法
算法·均值算法·聚类
姚先生975 小时前
LeetCode 209. 长度最小的子数组 (C++实现)
c++·算法·leetcode