大数据, 2021, 7(5): 2021052- DOI: 10.11959/j.issn.2096-0271.2021052

专栏:数据驱动的优化

基于优化反馈的组合在线学习

孔芳1, 杨悦然1, 陈卫2, 李帅1

1 上海交通大学约翰·霍普克罗夫特计算机科学中心,上海 200240

2 微软亚洲研究院,北京 100080

Combinatorial online learning based on optimizing feedbacks

KONG Fang1, YANG Yueran1, CHEN Wei2, LI Shuai1

1 John Hopcroft Center for Computer Science, Shanghai Jiao Tong University, Shanghai 200240, China

2 Microsoft Research Asia, Beijing 100080, China

通讯作者: 李帅,shuaili8@sjtu.edu.cn

网络出版日期: 2021-09-15

基金资助: 国家自然科学基金资助项目.  62006151
国家自然科学基金资助项目.  62076161
上海市青年科技英才扬帆计划

Online: 2021-09-15

Fund supported: The National Natural Science Foundation of China.  62006151
The National Natural Science Foundation of China.  62076161
Shanghai Sailing Program

作者简介 About authors

孔芳(1998-),女,上海交通大学电子信息与电气工程学院博士生,主要研究方向为组合在线学习、在线影响力最大化等

杨悦然(1999-),女,上海交通大学数学科学学院在读,主要研究方向为组合在线学习等

陈卫(1968-),男,博士,微软亚洲研究院高级研究员,中国科学院计算技术研究所客座研究员,中国计算机学会大数据专家委员会和理论计算机科学专业委员会委员,IEEEFellow,《大数据》期刊编委。主要研究方向为在线学习和优化、社交和信息网络、网络博奕论和经济学、分布式计算、容错等

李帅(1988-),女,上海交通大学约翰·霍普克罗夫特计算机科学中心助理教授,主要研究方向为多臂老虎机、在线学习、机器学习理论、强化学习、推荐系统等

摘要

组合在线学习问题研究如何在与环境的交互过程中学习未知参数,逐步找到最优的目标组合。该问题有丰富的应用场景,如广告投放、搜索和推荐等。首先阐述了组合在线学习问题的定义及其框架——组合多臂老虎机问题,归纳了此框架下的经典算法和研究进展;然后具体介绍了该问题的两个实际应用——在线影响力最大化和在线排序学习问题,以及其研究进展;最后展望了组合在线学习问题的未来研究方向。

关键词: 组合多臂老虎机 ; 在线学习 ; 在线影响力最大化 ; 在线排序学习

Abstract

Combinatorial online learning studies how to learn the unknown parameters and gradually find the optimal combination of targets during the interactions with the environment.This problem has a wide range of applications including advertisement placement, searching and recommendation.Firstly, the definition of combinatorial online learning and its general framework – the problem of combinatorial multi-armed bandits were introduced, and its traditional algorithms and research progress were summarized.Then, the related works of two specific applications, online influence maximization and online learning to rank, were introduced.Finally, the prospective directions of further researches on combinatorial online learning were discussed.

Keywords: combinatorial multi-armed bandits ; online learning ; online influence maximization ; online learning to rank

PDF (1539KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

孔芳, 杨悦然, 陈卫, 李帅. 基于优化反馈的组合在线学习. 大数据[J], 2021, 7(5): 2021052- DOI:10.11959/j.issn.2096-0271.2021052

KONG Fang, YANG Yueran, CHEN Wei, LI Shuai. Combinatorial online learning based on optimizing feedbacks. Big data research[J], 2021, 7(5): 2021052- DOI:10.11959/j.issn.2096-0271.2021052

1 引言

随着数据时代的来临,传统离线学习方法已难以快速处理模型训练所需的爆发式增长的数据量及特征数量,这促进了在线学习模式的发展。在线学习方法接收实时数据流,定义累积懊悔(cumulative regret)取代损失函数作为新的优化函数,利用实时反馈不断迭代调整算法,从而减少离线训练所需的数据量,并提高处理效率。在许多实际问题中,最优解往往不是简单的单个目标,而是多个目标的组合形式,这推进了对组合在线学习问题的研究。组合在线学习问题,即组合多臂老虎机(combinatorial multi-armed bandits, CMAB)问题,结合了在线学习与组合优化,研究如何在与环境交互的过程中自主学习未知参数,逐步找到最优的目标组合,其应用包括社交网络中的广告投放、搜索、推荐等问题。

2 组合在线学习问题

2.1 多臂老虎机问题

多臂老虎机(multi-armed bandits)问题是一个经典的机器学习问题,该问题最初由赌场的老虎机情景演变而来,被建模为玩家与环境之间的T轮在线游戏。老虎机共有m个臂(arm),m个臂的集合即玩家的动作集合,记为A=[m]:={1,2,,m} 。每个臂i[m] ]都有各自未知的奖励分布,该分布的期望记作μi。玩家在每一轮游戏t[T]拉动其中一个臂AtA,环境将从该臂的奖励分布中采样一个随机变量XAt,t,作为玩家拉动该臂的奖励值。该奖励值将帮助玩家更新对臂的奖励分布的了解,进而更新其后续选择臂的策略。玩家的目标是最大化T轮的累积期望收益,即最小化与最优臂之间的累积期望收益的距离。令μ*=maxi[m]μi表示最高期望收益,则玩家的目标为最小化累积期望懊悔:

R(T)=E[t=1T(μ*XAt,t)]    (1)

其中,期望取自奖励值产生的随机性及玩家策略的随机性。

有时,玩家在每一轮收到的反馈不仅仅是其本轮拉动臂的奖励(即强盗反馈(bandit feedback)),还可能观察到所有臂的输出,该反馈类型被称为全反馈(full feedback)。玩家收到的反馈信息可用一个反馈图(feedback graph)来表示,图中每个节点表示一个臂,每条有向边(i,j)表示当玩家拉动臂i时可观察到臂j的输出。全反馈类型的反馈图可由完全图表示,即每个节点有指向所有节点(包含自身)的边;强盗反馈类型可用自环图表示,即每个节点仅有指向自身的边。反馈图可进一步泛化,用于表示更复杂的反馈关系[1-2]。除有向图外,矩阵也可用于描述反馈关系。部分监控(partial monitoring)[3]问题就使用反馈矩阵H来描述玩家可获得的反馈信息,并使用损失矩阵L来刻画玩家在游戏中的损失。若玩家在某一轮选择臂i,环境本轮选择臂i的输出为j,则玩家将付出损失Li,j,并观察到反馈Hi,j,通过设计不同的反馈矩阵,Hi,j可给出关于真实输出j的部分或全部有效信息。

通过与环境的多轮交互,玩家将收集到对各个臂的奖励分布的观察。在接下来的游戏中,玩家一方面希望选取历史观察中表现最好的臂,以获取相对较高的收益(开发(exploit));另一方面希望尝试一些尚未受到足够观察的臂,以获取潜在较高的收益(探索(explore))。过度开发可能导致玩家错过最优臂,过度探索则将导致玩家付出过多的学习代价,如何平衡开发与探索是多臂老虎机算法需要考虑的核心问题。

置信区间上界(upper confidence bound,UCB)[4]和汤姆森采样(Thompson sampling,TS)[5]类型的算法是解决此类多臂老虎机问题的经典方法。UCB类型的算法为每个臂i维持一个置信上界 ,该上界为过往观察的经验均值与置信半径之和,置信半径将随着被观察到的次数的增多而减小。当一个臂被观察到的次数足够小时,置信半径很大,促使置信上界足够大,算法将倾向于选择这些臂,这体现了探索的思想。当臂被观察到足够多的次数时,置信半径变小,置信上界的值趋近于经验均值,进而趋近于真实的期望值,算法将倾向于选择经验均值高的臂,这体现了开发的思想。TS类型的算法则为每个臂维持一个关于其奖励值的先验分布,初始时算法对臂的收益尚未了解,该分布趋近于一个均匀分布,体现了探索的思想;随着收集到的观察的增多,该分布逐渐集中于经验均值附近,方差变小,这体现了开发的思想。

上述策略均以最大化累积期望奖励/最小化累积期望懊悔为目标,然而考虑这样的应用场景,在疫情期间,医学研究人员有多种药物的配置方式及一些可供测试药物效果的小鼠,研究人员希望在小鼠身上实验后为人类找到最有效的药物配置方式,该目标与小鼠本身的奖励无关。这种问题被称为纯探索(pure exploration)问题,玩家有一定的预算轮数,在这段时间内可以拉动不同的臂,并观察其输出,预算轮数终止后,需要给出最终的推荐,即拉动不同臂的概率分布。简单懊悔(simple regret)是用来衡量解决此类问题策略的标准,其被定义为最优臂的期望奖励与最终推荐的期望奖励之差[6]。当玩家的最终目标是经过探索后识别出最优的臂时,该问题被称为最佳手臂识别(best arm identification)问题,是纯探索问题的一种变体[7]。该问题也有两种目标,当探索预算固定时,玩家需要最大化识别出最优臂的概率[8];当返回最优臂的概率固定时,玩家的目标为最小化探索所需付出的代价[9]

此外,在有些应用场景中,玩家有额外的探索限制,如商家希望在每一轮广告投放时,都能保证一定值的收益,即保守型探索(conservative exploration),服从保守型探索限制的问题被称为保守型老虎机(conservative bandits)问题[10]。给定一个基准臂A0,保守型探索限制玩家每一轮游戏t选择的臂At满足 XAt,t(1α)XA0,t0,其中α用于衡量玩家的保守程度,α越小,意味着玩家越保守。

在上述场景中,每个臂的奖励值服从一个固定的概率分布,此时称反馈类型为静态反馈(stationary feedback);当每个臂奖励值服从的概率分布随时间发生变化时,称反馈类型为非静态反馈(nonstationary feedback);当每一轮的信息不在这一轮实时反馈给玩家,而是会有一定延迟的时候,称此反馈为延迟反馈(delayed feedback)。此外,多臂老虎机问题还有许多丰富的变种。当每个臂的奖励值不再服从一个确定的概率分布,而是一系列的确定值时,该问题将变为对抗老虎机(adversarial bandit)问题,Exp3算法[11]是解决此类多臂老虎机问题的经典算法。若每个臂的期望收益与玩家所获得的环境特征相关,则称为情境式老虎机(contextual bandit)问题。在情境式老虎机问题中,若臂的期望收益是情境信息向量的线性加权形式,则称为线性老虎机(linear bandit)问题,LinUCB算法[12]是解决此问题的经典算法;若每一轮玩家拉动的不再是单独的臂,而是多个臂的组合,则该问题变为组合多臂老虎机问题,即组合在线学习问题。

2.2 组合多臂老虎机问题

在许多应用场景中,玩家拉动的不是单独的一个臂,而是多个臂的组合。如出行推荐平台需要向用户推荐的通常是机票、酒店与景区门票的组合,这时便需要组合多臂老虎机的研究框架来解决。

Gai Y等人[13]最早将多用户信道分配问题建模为一个组合多臂老虎机模型,在该模型中,每个臂包含多个组件的组合,拉动同一个臂的奖励随时间相互独立,但是不同臂之间的奖励会由于一些共享的部件而产生依赖关系。之后,该框架又被进一步泛化,并被系统地阐释[14,15,16,17]

组合在线学习同样被建模为玩家与环境之间的T轮在线游戏。该问题包含m个基础臂(base arm),所有基础臂组成的集合被记为[m]:={1,2,,m} 。每个基础臂i∈[m]维持其各自的奖励分布,奖励的期望记为μi。第t轮基础臂i的输出记为Xi,t,为环境从该臂的奖励分布中采样出的随机变量,且{Xi,t|t=1,2,,T} 是相互独立的。记所有基础臂的奖励期望为 μ(μ1,,μm),所有基础臂在第t轮的输出为 X(t)=(X1,t,,Xm,t) 。玩家可选择的动作是所有m个基础臂可能的组合,称之为超级臂(super arm),记S 为动作集合,则S2[m]。在每一轮t=1,2,,T 中,玩家拉动超级臂StS,随后获取本轮的奖励R(St,X(t)) ,并观察环境的反馈信息。玩家收到的奖励值R(St,X(t))将与拉动超级臂中包含的所有基础臂的输出相关。若该值为每个基础臂的输出(加权)之和,则称奖励为线性形式[17]。但在实际应用场景中,拉动超级臂的奖励形式可能更加复杂,如在推荐场景中用户的点击情况可能不直接线性依赖于平台推荐的每一个项目的吸引力,此时奖励被称为非线性形式[14-16]。玩家收集到的反馈信息也将根据不同的应用场景有所不同,可分为以下3类。

● 全信息反馈:该反馈类型假设玩家在拉动一个超级臂之后,能够观察到所有基础臂的输出,而与该基础臂是否被包含在被拉动的超级臂中无关。这是一种非常理想化的设定,现实中往往难以遇到该场景。

● 半强盗反馈:全信息反馈的设定较为理想,现实中更常见的模式是玩家只能观察到其选择的超级臂包含的基础臂的反馈信息,也就是半强盗反馈。例如,在搜索排序场景中,平台可以获取用户对所列举项目的满意程度。

● 强盗反馈:该反馈类型假设玩家只能观察到拉动超级臂所获得的总的奖励,而不能看到任何基础臂的信息。以推荐场景为例,用户的点击意味着对所推荐商品组合的认可,平台往往无法获知用户对具体某个产品的满意程度。

类似多臂老虎机问题,组合多臂老虎机的反馈类型也可分为静态反馈、非静态反馈、延迟反馈等。根据每一轮收集到的反馈信息,玩家将进一步更新自己的策略。

对于超级臂StS,记其累积期望奖励值为 rμ(St)=E[R(St,X(t))],其中期望取自每个基础臂输出的随机性。玩家的最终目标仍然是最大化T轮的累积期望收益,即最小化累积期望懊悔值。由于实际应用场景中一些组合问题的离线情形是NP难问题,Chen W等人[16,18]进一步泛化了算法的目标,提出了近似累积期望懊悔值。具体来说,若离线算法能提供(α,β)近似的最优解,即 (rμ(S)αOPTμ)β 对任意输入µ′成立,其中S′为输入µ′后离线算法输出的解,OPTμ=maxSSrμ(S) 为环境参数为µ′时所有超级臂的最高期望收益,则(α,β)近似累积期望懊悔值被定义为:

R(T)=TαβOPTμE[t=1Trμ(St)]    (2)

α=β=1意味着离线算法可以返回准确的最优解,(α,β)近似累积期望懊悔值为真实的累积期望懊悔值。

受到一些应用场景的启发,玩家在拉动一个超级臂StS后,除St中包含的基础臂外,更多的基础臂可能会被St随机触发,对玩家最终的收益产生影响。该问题被建模为带概率触发臂的组合多臂老虎机(CMAB with probabilistically triggered arms,CMAB-T)模型[15,18],得到了较多的关注。

注意到在情境式线性老虎机模型中,学习者在每一轮拉动一个由向量表示的动作,并收到与该动作向量线性相关的奖励值,线性函数的参数即学习者需要学习的未知参数向量。故线性多臂老虎机模型也可被视为基于线性奖励形式、强盗反馈类型的组合多臂老虎机问题。研究者通常通过采用为未知参数向量构造置信椭球(confidence ellipsoid)的方法来解决此类问题[19,20,21]

此外,多臂老虎机问题还可与组合数学中的拟阵结构相结合,即拟阵老虎机(matriod bandit)模型。该模型最早由Kveton B等人[22]提出,拟阵可由二元组M=(E,I) 表示,其中E={1,2,,m} 是由m个物品组成的集合,称为基础集(ground set);I是由E的子集组成的集合,称为独立集(independent set),且需要满足以下3点性质:①I;②I中每个元素的子集是独立的;③增加属性(augmentation property)。加权拟阵老虎机假设拟阵会关联一个权重向量 w(+)m,其中w(e)表示元素e∈E的权重,玩家每次拉动的动作AI 的收益为 f(A,w)=eAw(e) 。该问题假设拟阵是已知的,权重w(e)将随机从某未知的分布P中采样得到。对应到组合多臂老虎机模型,E中的每个物品可被看作一个基础臂,I中的每个元素可被看作一个超级臂。玩家的目标是寻找最优的超级臂A*=argmaxAIEw[f(A,w)],最小化T轮游戏拉动超级臂所获期望收益与最优期望收益之间的差,即累积期望懊悔值。

纯探索问题在组合场景下也得到了进一步的研究。Chen S等人[23]首先提出了多臂老虎机的组合纯探索(combinatorial pure exploration of multi-armed bandits)问题。在该问题中,玩家在每一轮选择一个基础臂,并观察到随机奖励,在探索阶段结束后,推荐出其认为拥有最高期望奖励的超级臂,其中超级臂的期望奖励为其包含基础臂的期望奖励之和。Gabillon V等人[24]在相同的模型下研究了具有更低学习复杂度的算法。由于允许玩家直接观察到其选择的基础臂的输出这一假设在实际应用场景中过于理想化,上述模型随后被进一步泛化。Kuroki Y等人[25]研究了玩家在每一轮选择一个超级臂并仅能观察到该超级臂包含基础臂随机奖励之和的情况,即全强盗线性反馈的组合纯探索(combinatorial pure exploration with full-bandit linear feedback)问题,并提出了非自适应性的算法来解决此问题。之后,Rejwan I等人[26]提出了自适应性的组合相继接受与拒绝(combinatorial successive accepts and rejects,CSAR)算法来解决此类问题中返回前K个最优基础臂的情况。Huang W R等人[27]泛化了线性奖励形式,研究了具有连续和可分离奖励函数的场景,并设计了自适应的一致最佳置信区间(consistently optimal confidence interval,COCI)算法。Chen W等人[28]提出了一种新的泛化模型——带有部分线性反馈的组合纯探索(combinatorial pure exploration with partial linear feedback,CPE-PL)问题,涵盖了上述全强盗线性反馈以及半强盗反馈、部分反馈、非线性奖励形式等场景,并给出了解决此模型的首个多项式时间复杂度的算法。在实际应用场景中,玩家可能无法观察到某个臂的准确反馈,而是多个臂之间的相对信息,即竞争老虎机(dueling bandit)模型。Chen W等人[29]研究了竞争老虎机的组合纯探索(combinatorial pure exploration for dueling bandits)问题,并设计了算法解决不同最优解定义的问题场景。

当每个基础臂的收益值不再服从特定的概率分布,而是一系列的确定值时,上述问题将变成对抗组合多臂老虎机(adversarial CMAB)问题,相关研究工作将在下一节中基于强盗反馈的CMAB算法部分一并介绍。

3 基于优化反馈的组合在线学习算法

Gai Y 等人[17]最早考虑了组合多臂老虎机中奖励形式为线性的情况,提出了线性奖励学习(learning with linear reward, LLR)算法解决此问题,具体如下。

算法1:LLR算法

初始化:L为每个超级臂包含基础臂的个数,t=0

For i=1 to m

t=t+1

选择有基础臂i的超级臂

更新基础臂i的奖励估计μ^i以及基础臂i被选择的次数Ti,t

End for

While True do

t=t+1

选择超级臂Aa={i[m]:ai0},其中

a=argmaxaiAaai(μ^i+(L+1)lntTi,t)

对于iAa,更新基础臂i的收益估计 μ^i以及基础臂i被选择次数Ti,t

End while

LLR算法使用UCB的思想平衡开发与探索的关系。在该算法中,学习者每轮可选择的超级臂中至多包含L个基础臂,其中L为超参数。每个超级臂Aa被表示为所有基础臂的加权组合,权重向量由m维的向量a表示,aii≥0表示基础臂i在超级臂中的权重,Aa将包含所有满足aii≠0的基础臂i。超级臂的置信上界是其包含的基础臂的置信上界的加权和,算法在每一轮选择置信上界最大的超级臂。该算法框架有丰富的应用场景,如寻找最大匹配、计算最短路径及最小生成树等。

随后,Chen W等人[14-16]泛化了奖励的形式,考虑到非线性形式的奖励,且受到一些实际应用场景(如影响力最大化等)的启发,提出了带概率触发机制的组合多臂老虎机(CMAB with probabilistically triggered arms,CMAB-T)模型,并设计组合置信区间上界(combinatorial upper confidence bound,CUCB)算法来解决此类问题,具体如下。

算法2:CUCB算法

输入:基础臂集合[m],离线神谕Oracle

初始化:Ti=0;μ^i=1i[m];t0

While True do

tt+1

μ¯i=min{μ^i+3lnt/2Ti,1}

S=Oracle(μ¯1,μ¯1,,μ¯1)

执行动作S,观察到所有被触发的基础臂i,更新Tiμ^i

End while

与LLR算法类似,CUCB算法同样在每一轮为所有基础臂计算其置信上界,不同之处在于选择超级臂的方法不同。CUCB算法考虑了更多的应用场景,定义了一个更广泛的求解超级臂的方法。算法获取一个离线神谕作为输入,将根据输入的每个基础臂的置信上界,输出该参数下最优(或近似最优)的超级臂,算法进而执行此超级臂,并观察相应的信息。由于许多非线性奖励形式的离线组合优化问题通常为NP难问题,该算法允许借助近似的离线神谕来帮助每一轮中超级臂的选取,且使用近似累积懊悔上界指标来衡量算法的性能。

通过为具体的CMAB-T问题实例寻找合适的受触发概率调制的有界平滑性条件(triggering probability modulated condition,TPM条件),CUCB算法可以达到 O˜(BmKT) 的累积懊悔上界[15],其中B为TPM条件的参数,K为所有超级臂中可随机触发的基础臂的最大个数。TPM条件的具体内容见条件1。

条件1(TPM条件):若存在有界平滑常数 BR+,使得对于任意两个基础臂分布(期望分别记为µ和µ′),任意超级臂S,满足 |r(S,μ)r(S,μ)|Bi[m]piS|μiμi| ,则称该CMAB-T问题实例满足1范数TPM条件。其中,piS为超级臂S成功触发基础臂i的概率。

概括来说,TPM条件通过所有基础臂在不同环境中的期望奖励之差的加权和约束了同一个超级臂在对应奖励分布下的奖励差异,每个基础臂的权重就是其在该超臂下被成功触发进而对超级臂奖励产生影响的概率。寻找合适的TPM条件对于该类问题的理论分析有重要的作用,如在线影响力最大化、基于特定点击模型的搜索排序问题等。

之后,Combes R等人[30]尝试了与LLR和CUCB不同的计算置信上界的方法,自然推广KL-UCB[31]中的指标(index),利用KL散度来确定置信区间,并提出了ESCB(efficient sampling for combinatorial bandits)算法解决线性奖励形式的CMAB问题。但由于超级臂数量随着基础臂数量的增加呈指数增长,该算法每一轮需要付出指数时间计算所有超级臂的置信上界。最近,Cuvelier T等人[32]提出了一个近似ESCB算法,算法能达到和ESCB一样的累积懊悔上界,但实现了多项式时间复杂度O(Tpoly(m))。

此外,上述CMAB问题还可拓展至与情境相关的情况,即每轮玩家都会收到当前的情境信息,每个基础臂的期望奖励值会与该情境信息相关,该问题被称为情境式CMAB(contextual CMAB)问题,由Qin L J等人[33]最早提出。在该工作中,每个基础臂i的期望奖励值都会与此轮的情境信息线性相关, ri(i)=θTxt(i)+ϵt(i)其中xt(i)是描述情境信息的向量,ϵt(i) 是噪声项,而超级臂的奖励值与超级臂中包含的基础臂的奖励值有关,可以是简单的加权和,也可以是非线性关系。参考文献[33]针对这样的问题框架提出了C2UCB算法,在UCB算法的基础上,加入了对参数θ的拟合过程,达到了 O(dTlogT) 阶的累积懊悔上界,其中d是情境信息向量的维数。Chen L X等人[34]推广了上述框架,考虑了玩家可选的基础臂集合会随时间发生变化的情况,并提出了CC-MAB算法来解决此类问题。随后Zuo J H等人[35]提出了另一种广义情境式CMAB-T(context CMAB-T)的框架——C2MAB-T。该框架考虑了给定情境信息之后,玩家可选的动作会受到该情境信息的限制。具体来说,在每一轮环境会先提供一个可选超级臂集S(t)S,而玩家这一轮可选择的超级臂就被限制在该集合中,其选择的超级臂会随机触发更多的基础臂,玩家最终观察到所有触发臂的反馈。参考文献[35]提出了C2-UCB、C2-OFU算法来解决此类问题,并证明了在近似离线神谕下,累积懊悔上界均为O(mKTlogT),其中m是基础臂的数量,K是所有超级臂可触发基础臂的最大数量。

总体来说,上述研究工作均基于UCB类型的算法处理开发与平衡的关系。除此之外,也有一系列基于TS的方法解决CMAB问题。

Komiyama J等人[36]研究用TS算法解决组合多臂老虎机中超级臂的奖励为所包含基础臂的输出之和且超级臂的大小固定为K的问题,提出了多动作汤姆森采样(multiple-play Thompson sampling, MP-TS)算法。该工作考虑了基础臂的输出为伯努利随机变量的场景,算法为每个基础臂i∈[m]维持一个贝塔分布Beta(Ai,Bi),在每一轮将为每个基础臂i从其分布Beta(Ai,Bi)中采样一个随机变量θi,并对所有基础臂根据该随机变量从高到低排序,从中选择前K个基础臂组成本轮要选择的超级臂,随后根据这些基础臂的输出再次更新其对应的贝塔分布。MP-TS算法达到了O(i[m]\[K]Δi,KlogTd(μi,μK))的累积懊悔上界,其中d(µiK)为任意非最优基础臂i与最优臂K期望奖励的KL距离,该懊悔值上界也与此类问题的最优懊悔值相匹配。

之后,Wang S W等人[37]研究如何用TS算法解决广义奖励形式的组合多臂老虎机问题,提出了组合汤姆森采样(combinatorial Thompson sampling, CTS)算法,具体见算法3。

算法3:CTS算法

初始化:对于每个基础臂,设定ai=bi=1

While True do

t←t+ 1

对于每个基础臂i,从贝塔分布Beta(a i,b i)随机采样θi(t)

θ(t)=(θ1(t),,θm(t))

计算S=Oracle(θ(t))

执行动作S,得到观察Q(t)={(i,Xi(t)):iS(t)}

更新ai,bi(iS(t))和Q(t)

End while

与CUCB算法相同,CTS算法同样借助离线神谕产生给定参数下的最优超级臂,但该算法要求能够产生最优解,不像CUCB算法那样允许使用近似解。与MP-TS相比,CTS算法将基础臂的输出由伯努利类型的随机变量放宽到[0,1]区间,且允许超级臂的奖励是关于基础臂输出更为广泛的形式,而不再是简单的线性相加。当超级臂的期望奖励值与基础臂的奖励期望满足利普希茨连续性条件(Lipschitz continuity)时,该工作给出了基于TS策略解决广泛奖励形式的CMAB问题的首个与具体问题相关的累积懊悔上界 O(mKlogT/Δmin) ,其中K为所有超级臂中包含基础臂的最大个数,∆min为最优解和次优解之间的最小差。该懊悔值上界也与基于同样条件获得的UCB类型的策略(CUCB算法)的理论分析相匹配[14]。当奖励形式满足线性关系时,该算法的累积懊悔上界可被提升至 O(mlogKlogT/Δmin)[38]

此外,Hüyük A等人[39-40]同样基于确定的离线神谕Oracle,考虑到带概率触发的基础臂,研究用CTS策略解决CMAB-T问题。当超级臂的期望奖励与基础臂的奖励期望满足利普希茨连续性条件时,该工作证明CTS算法在该问题场景下可以达到O(i[m]logTpiΔi)的累积懊悔上界,其中pi为基础臂i被所有超级臂随机触发的最小概率。该结果也与基于同样条件的UCB类型的策略(CUCB算法)的理论分析相匹配[14]

具体到拟阵老虎机问题,Kveton B等人[22]充分挖掘拟阵结构,提出了乐观拟阵最大化(optimistic matriod maximization,OMM)算法来解决此问题。该算法利用UCB的思想,每轮选取最大置信上界的超级臂,并且通过反馈进行参数更新,优化目标是令累积懊悔最小化。该文献分别给出了OMM算法与具体问题相关的遗憾值上界 O(eA*logTΔe,Ke)和与具体问题无关的累积懊悔上界 O(KmTlogT) ,其中K为最优超级臂A*的大小,Δe,Ke 是非最优基础臂e和第Ke个最优基础臂的权重期望之差,Ke为满足Δe,Ke大于0的元素个数。通过分析,拟阵多臂老虎机问题可达到的累积懊悔值下界为O((mK)logTΔ),该结果也与OMM算法可达到的累积懊悔上界相匹配。Chen W等人[41]也给出了利用CTS算法解决拟阵多臂老虎机问题的理论分析,该算法的累积懊悔上界也可匹配拟阵多臂老虎机问题的累积懊悔下界。

当每个臂的奖励值服从的概率分布随时间发生变化时,问题将变为非静态组合多臂老虎机。Zhou H Z等人[42]最早研究了非静态反馈的CMAB问题,并在问题设定中添加了限制——基础臂的奖励分布变化总次数S是O(T) 。文中提出了基于广义似然比检验的CUCB(CUCB with generalized likelihood ratio test, GLR-CUCB)算法,在合适的参数下,若总基础臂数量m已知,则累积懊悔上界为O(C1Sm2logT+C1SmTlogT) ;若m未知,则 累 积 懊 悔 上 界 为O(C1Sm2logT+C2SmTlogT) ,其中C1、C2为与具体问题相关的常数。而后Chen W等人[43]推广了设定,即忽略上述对S大小的假设,引入变量衡量概率分布变化的方差,在S或者V中存在一个已知时,提出了基于滑动窗口的CUCB(sliding window CUCB,CUCBSW)算法,其累积懊悔上界为O(T) 或者O(VT);在S和V都未知时,提出了基于两层嵌套老虎机的CUCB(CUCB with bandit-over-bandit,CUCB-BoB)算法,在特定情况下,该算法累积懊悔上界为T的次线性数量级。

此外,CMAB问题也可以拓展至保守探索模式。Zhang X J 等人[44]最早将Wu Y F等人[10]提出的保守型多臂老虎机问题衍生到CMAB问题框架中,即第t轮(t[T] )用户选择的超级臂的奖励值µt和默认超级臂的奖励值µ0的关系服从μt(1α)μ0 限制,其中α用于衡量用户的保守程度,α越小意味着用户越保守。该文献基于UCB的思想提出了情境式组合保守UCB(contextual combinatorial conservative UCB,CCConUCB)算法,同时针对保守选择的默认超臂的奖励值µ0是否已知,分别提出了具体算法。当保守选择的奖励值已知时,算法的累积懊悔为O(d(d+T)max{1,logTK/d+d/K}),其中d为基础臂的特征维数,K为超级臂中最多能包含的基础臂的数量。

上述CMAB研究工作均基于半强盗反馈,即超级臂中包含的(及触发的)所有基础臂的输出都可以被玩家观察到,也有部分工作研究了基于强盗反馈的CMAB算法。这类算法多考虑对抗组合多臂老虎机问题(adversarial CMAB),即每个基础臂的输出不再服从一个概率分布,而是一系列的确定值。Cersa-Bianchi N 等人[45]首先提出了COMBAND算法来解决此问题,该工作使用P=E[ssT]来体现组合关系,其中s{0,1}m 表示由基础臂组成的超级臂,当P的最小特征值满足一定条件时,算法可达到O(dTlogm) 的累积懊悔上界。Bubeck S等人[46]提出了基于约翰探索的EXP2(EXP2 with John’s exploration)算法,该算法也可达到O(dTlogm) 的累积懊悔上界。Combes R等人[30]考虑通过将KL散度投影到概率空间计算基础臂权重的近似概率分布的方法来减少计算复杂度,提出了更有效的COMBEXP算法,该算法对于多数问题也可达到相同的累积懊悔上界。Sakaue S等人[47]进一步考虑了更加复杂的超级臂集合的情况,设计了引入权重修改的COMBAND(COMBAND with weight modification,COMBWM)算法,该算法对于解决基于网络结构的对抗组合多臂老虎机问题尤其有效。

当玩家需要拉动的动作为多个臂的组合时,其获得的反馈也会随实际应用场景变得更加复杂,部分监控问题在此场景下得到了进一步的研究,即组合部分监控(combinatorial partial monintoring)。Lin T等人[48]最早结合组合多臂老虎机与部分监控问题,提出了组合部分监控模型,以同时解决有限反馈信息、指数大的动作空间以及无限大的输出空间的问题,并提出了全局置信上界(global confidence bound,GCB)算法来解决线性奖励的场景,分别达到了与具体问题独立的O(T2/3logT)和与具体问题相关的O(logT)的累积懊悔上界。GCB算法依赖于两个分别的离线神谕,且其与具体问题相关的O(logT)的累积懊悔上界需要保证问题最优解的唯一性,Chaudhuri S等人[49]放宽了这些限制,提出了基于贪心开发的阶段性探索(phased exploration with greedy exploitation,PEGE)算法来解决同样的问题,达到了与具体问题独立的O(T2/3logT) 和与具体问题相关的O(log2T)的累积懊悔上界。

在一些应用场景中,如推荐系统等,随着时间推移,系统将收集到越来越多的用户私人信息,这引起了人们对数据隐私的关注,故CMAB算法还可以与差分隐私(differential privacy)相结合,用于消除实际应用对数据隐私的依赖性。Chen X Y等人[50]研究了在差分隐私和局部差分隐私(local differential privacy)场景下带半强盗反馈的组合多臂老虎机问题,该工作证明了当具体CMAB问题的奖励函数满足某种有界平滑条件时,算法可以保护差分隐私,并给出了在两种场景下的新算法及其累积懊悔上界。

4 应用方面

组合多臂老虎机问题框架有非常丰富的实际应用,本文着重介绍在线排序学习和在线影响力最大化两类问题。

4.1 在线排序学习问题

排序学习问题主要研究如何根据目标的特征对目标进行排序,是机器学习算法在信息检索领域的一个应用。该问题有一个目标物品集L,学习者每次需要根据某种打分标准对整个目标集进行打分,并且将打分进行排序,推荐出前K(通常LK)个分数最高的目标物品。该问题有丰富的应用场景,如搜索、推荐、广告点击等。

在许多真实的应用场景中,如广告推荐、搜索引擎排序等,总商品集的数量远远大于需要推荐的商品数量,使得离线排序学习模型所需训练数据巨大,学习任务更加艰巨,这推动了对在线排序学习(online learning to rank)的研究。在线排序学习问题不再需要大量的历史数据来构建排序模型,学习者将在与用户的T轮交互过程中不断更新对目标物品的评估。由于学习者需要推荐多个目标的组合,该问题属于组合多臂老虎机的研究范畴,每个目标物品对应一个基础臂,而推荐的物品组合对应一个超级臂。

在线排序学习算法早期多由经典的多臂老虎机问题算法改进而来,例如Li L H等人[12]改进了LinUCB(linear UCB)算法,考虑了项目的特征的加权组合,并通过计算置信上界来解决排序问题,Chen Y W等人[51]改进了LinUCB算法,在探索时引入贪心算法,优化了在线排序学习算法。

近年来,在线排序学习的研究工作多基于点击模型。以商品推荐问题为例,商家考虑如何向用户推荐商品,在与用户的T轮交互过程中,学习商品的特征与用户的喜好之间的关系,使用户在轮推荐中尽可能多地点击其推荐的商品。商家每次向用户推荐的商品数量有限,推荐形式通常为列表。在每一轮推荐之后,商家可获取用户的点击反馈,通常来说,若用户点击了其推荐的某个商品,则反馈为1,否则反馈为0。

在这个问题中,D=[L]表示商品集,商家提供给用户的有序商品集为R=(d1,,dK)ΠK(D),其中 ΠK(D)DK。用户会以χ(k)的概率浏览第k个商品,该商品对用户的吸引力/用户点击该商品的概率记为α(dk)。对于推荐的商品列表来说,用户期望点击 r(R)=k=1Kχ(k)α(dk) 。若对应到CMAB的研究框架,每个商品可被看作一个基础臂,商家在每一轮推荐的商品列表可被视作超级臂,可观察到的反馈为用户对推荐商品列表的点击情况,商家的目标为最大化T轮的用户期望点击。

上述点击模型可分为3个部分:用户是否浏览某个商品、商品对用户的吸引程度以及用户最终的点击情况。用户的浏览行为和商品对用户的吸引力共同决定了用户最终是否点击。根据用户的点击行为,点击模型可进一步分为级联模型(cascade model)、依赖点击模型(dependent click model)、基于位置的模型(position-based model)等。

级联模型假设用户至多点击一次被推荐的商品列表(大小为K),即用户会从列表的第一个商品开始,依次向后浏览,一旦点击某个商品,用户将停止继续浏览。Kveton B等人[52]首先提出了析取目标(disjunctive objective)形式的级联模型,即被推荐的商品列表中只要有一个“好”的商品,奖励值为1,且考虑了所有可推荐的商品列表形成均匀拟阵的情况,并提出了CascadeKL-UCB算法解决该问题。该算法达到了Θ(LΔlogT) 的累积懊悔上界,其中Δ表示最优点击期望和次优点击期望之间的差的最小值。而后Kveton B等人[53]推广了问题框架,提出了组合级联模型,在该框架下推荐的商品列表只需满足某些组合限制即可。该工作研究了合取目标(conjunctive objective),即只有所有商品都是“好”商品时,奖励值才为1。作者提出了CombCascade算法解决此问题,达到了O(KLTlogTf*) 的累积懊悔上界,f *是最优超级臂的收益。Li S等人[54]进一步考虑了商品的情境信息(contextual information),并提出了C3-UCB算法,算法的累积懊悔上界为O(df*TKlnT) ,d为刻画情境信息的特征维数。

依赖点击模型放宽了级联模型对用户点击次数的限制,允许用户在每次点击之后仍以λ的概率选择继续浏览,即最终的点击数量可以大于1。在λ=1时,Katariya S等人[55]基于此模型结合KL-UCB算法[31]设计了dcmKL-UCB算法,取得了Θ(LΔlogT)的累积懊悔上界。Cao J Y等人[56]推广了问题设定,考虑了λ不一定为1的情况,并且考虑了用户疲劳的情况(即用户浏览越多,商品对用户的吸引能力越弱),在疲劳折损因子已知的情况下提出了FA-DCM-P算法,算法的累积懊悔上界是O(LTlogT);若疲劳折损因子未知,作者提出了FA-DCM算法,算法累积懊悔上界为O(LT43logT)

相较于前两个点击模型,基于位置的模型考虑了用户对不同位置商品的浏览概率的变化,即用户对商品的浏览概率将随着该商品在推荐列表中顺序的后移而逐渐变小。Li C等人[57]基于冒泡排序算法的思想设计了BubbleRank算法,该算法可同时适用于级联模型和基于位置的模型。Zoghi M等人[58]引入了KL标度引理,设计了BatchRank算法。该算法也可同时应用于级联模型和基于位置的模型。

Zhu Z A等人[59]不再考虑某特定的模型假设,而是根据实际推荐点击场景提出了更通用的广义点击模型,上述3种模型均可涵盖在内。广义点击模型假设用户浏览每个商品的概率随着商品在推荐列表中位置的后移而减小。用户点击某商品的概率与该商品的吸引力相关,且用户继续往后浏览的概率与其对当前商品的点击与否相关。用户对商品列表整体的浏览及点击情况可由如图1所示的贝叶斯网络结构来阐释。图1中Ai表示用户点击第i个商品后继续向下浏览,Bi表示用户没有点击第i个商品并继续向下浏览,Ei表示用户浏览第i个商品,Ci表示用户点击第i个商品,Ri表示第i个商品的相关程度/吸引力,即用户的浏览行为与商品的吸引力共同决定了用户对该商品的点击行为,而用户浏览第i+1个商品的可能性与用户对第i个商品采取行为的概率分布相关。

图1

图1   广义点击模型的贝叶斯网络结构


针对上述广义模型,Li S等人[60]考虑到广义模型中每次反馈可能有噪声影响,且假设点击概率和浏览每个商品的概率独立,同时与每个商品的吸引力也独立,提出了RecurRank算法。该算法利用递归的思想,考虑将排序分为若干阶段,每个阶段都采用分段排序,下一个阶段再对已经分得的段继续分段排序,直至最后排序完成,算法的懊悔上界为 O(KdTlogLT) ,其中d为商品的特征维数;Lattimore T等人[61]基于BatchRank的结果提出了TopRank算法,该算法学习商品之间吸引力大小的相对关系,从而完成排序任务。相比于BatchRank,该算法应用更加广泛,计算更加简便且懊悔上界更小。

此外,线性次模多臂老虎机(linear submodular MAB)模型是应用于在线排序学习领域的另一经典 老虎机模型。该模型最早由Yue Y S等人[62]提出,将次模信息覆盖模型引入组合多臂老虎机框架,并应用于排序学习领域。次模信息覆盖模型假设信息的边际效益递减。该模型假设任意商品a都可被d个基本覆盖函数F1,,Fd 表示,其中基本覆盖函数F1,,Fd 表示此文档对d个特征的覆盖率,且为已知的满足次模性质的函数。同理,每个商品对应组合多臂老虎机模型的基础臂,需要推荐的有序商品组合为超级臂,超级臂的覆盖函数是基础臂覆盖函数的加权和。Yue Y S等人[62]提出了LSBGreedy算法来解决此问题,并证明其累积懊悔上界为 O(SdTLlogTLδ),其中L是超级臂中包含的基础臂的数量, S是与权衡期望收益和噪声的参数相关的常数。然而问题原始定义是将所有商品都进行排序输出,即最终得到的超级臂是At=(at1,,atL) ,这并不符合多数排序学习问题的实际情况,此后Yu B S 等人[63]引入了背包限制(即每个文档有成本函数,需要考虑推荐的文档的成本总和不能超过某个限制值),并提出了两种贪心算法(MCSGreedy和CGreedy)来求解此类问题。Chen L等人[64]把原始线性次模问题推广到无限维,考虑了边际收益函数是属于再生核希尔伯特空间的具有有限模的元素,并提出了SM-UCB算法。Takemori S等人[65]考虑了双重限制下的次模多臂老虎机问题,即背包限制以及k-系统限制,沿用改进UCB的思想,提出了AFSM-UCB算法,相比于LSBGreedy[62]和CGreedy[63],该算法在实际应用效率方面有一定程度的提升。

4.2 在线影响力最大化

在线影响力最大化(online influence maximization,OIM)问题研究在社交网络中影响概率未知的情况下,如何选取一组种子节点集合(用户集合),使得其最终影响的用户数量最大[66]。该问题有丰富的应用场景,如病毒营销、推荐系统等。由于学习者选择的动作是多个节点的组合,动作的数量会随着网络中节点个数的增长出现组合爆炸的问题,故在线影响力最大化也属于组合在线学习的研究范畴。

在该问题中,社交网络通常用一个有向图G=(V,E)来表示,其中V表示用户的集合,E表示用户间的关系集合。以新浪微博的社交网络图为例,每条有向边(u,v)∈E可表示用户v关注了用户u,故信息可从u向v传播。每条边(u,v)会关联一个未知的权重w(u,v),表示信息从u传向v的概率,也可以称为u对v的影响力大小。

独立级联(independent cascade, IC)模型与线性阈值(linear threshold, LT)模型是描述信息在社交网络中传播的两个主流模型[67]。在IC模型中,信息在每条边上的传播被假设为相互独立,当某一时刻节点被成功激活时,它会尝试激活所有的出邻居v一次,激活成功的概率即边的权重w(u,v),该激活尝试与其他所有的激活尝试都是相互独立的。LT模型抛弃了IC模型所有传播相互独立的假设,考虑了社交网络中常见的从众行为。在LT模型中,每个节点v会关联一个阈值θv表示该节点受影响的倾向,当来自活跃入邻居的权重之和超过θv时,节点v将被激活。已有的在线影响力最大化工作主要专注于IC模型和LT模型。

Chen W等人[14-15]首先将IC模型下的在线影响力最大化问题建模为带触发机制的组合多臂老虎机问题(CMAB with probabilistically triggered arms, CMAB-T)。在该模型中,社交网络中的每条边被视为一个基础臂,每次选择的种子节点集合为学习者选择的动作,种子节点集合的全部出边的集合被视为超级臂。基础臂的奖励的期望即该边的权重。随着信息在网络中的传播,越来越多的边被随机触发,其上的权重也可以被观察到。基于此模型,CUCB算法[14-15]即可被用于解决该问题。通过证得IC模型上的在线影响力最大化问题满足受触发概率调制的有界平滑性条件(triggering probability modulated condition),CUCB算法可以达到 O˜(nmT) 的累积懊悔上界,其中n、m分别表示网络中节点和边的数量[15]

后续又有一些研究者对此工作进行了改进。Wen Z等人[68]考虑到社交网络中庞大的边的数量可能会导致学习效率变低,引入了线性泛化的结构,提出了IMLinUCB算法,该算法适用于大型的社交网络。该算法能达到 O˜(dnmT) 的累积懊悔上界,其中d为引入线性泛化后特征的维数。Wu Q Y等人[69]考虑到网络分类的性质,将每条边的概率分解为起点的影响因子和终点的接收因子,通过此分解,问题的复杂度大大降低。该文献中提出的IMFB算法可以达到 O˜(dn5/2T) 的累积懊悔上界。

上述研究工作均基于半强盗反馈,即只有被触发的基础臂的输出可以被学习者观察到。具体到在线影响力最大化问题,该反馈也被称为边层面的反馈,即所有活跃节点的每条出边的权重均可以被观察到。由于在实际应用场景中,公司往往无法获知具体哪个邻居影响到某用户购买商品,故该反馈是一种较为理想化的情况。节点层面的反馈是在线影响力最大化问题的另一种反馈模型,该反馈模型仅允许学习者观察到每个节点的激活状态。Vaswani S等人[70]研究了IC模型下节点层面反馈的情况,该工作分析了利用节点层面反馈估计每条边的权重与直接利用边层面反馈得到的估计值的差异,尽管两种估计的差值可以被约束,但该工作并没有给出对算法累积懊悔值的理论分析。

LT模型考虑了信息传播中的相关性,这给在线影响力最大化问题的理论分析带来了更大的挑战。直到2020年,Li S等人[71]研究了LT模型下的在线影响力最大化问题,并给出了首个理论分析结果。该工作假设节点层面的反馈信息,即传播过程每一步中每个节点的激活情况可以被观察到,并基于此设计了LT-LinUCB算法,该算法可以达到 O˜(n7/2m1/2T) 的累积懊悔上界。此外,Li S等人还提出了OIM-ETC(OIM-explore then commit)算法,该算法可以同时解决IC模型和LT模型下的在线影响力最大化问题,达到了O˜((nm)4/3T2/3) 的累积懊悔上界。Vaswani S等人[72]还考虑了一种新的反馈类型,即信息在任意两点间的可达情况,并基于此反馈信息设计了DILinUCB(diffusion-independent LinUCB)算法。该算法同时适用于IC模型和LT模型,但其替换后的近似目标函数并不能保证严格的理论结果。

5 未来研究方向

组合在线学习问题仍有很多方面可以进一步研究和探索,具体如下。

● 设计适用于具体应用场景的有效算法。以在线影响力最大化问题为例,目前的研究工作多为通用的算法,基于TPM条件得到算法的累积懊悔上界。但实际应用场景中通常涉及更多值得关注的细节,如在线学习排序问题中用户的点击习惯、用户疲劳等现象,在线影响力最大化问题中信息传播的规律等。通用的算法往往难以全面考虑这些细节从而贴合具体的问题场景,因此针对具体问题场景设计出有效的算法,以及为这些问题证明其累积懊悔下界等仍然是值得研究的问题。

● 将组合在线学习与强化学习结合。MAB问题是强化学习的一种特例,CMAB是组合优化与MAB的结合,更进一步的问题是能否将这种结合推广到广义的强化学习领域,探索更广泛通用的组合在线学习框架,以涵盖更多的真实应用场景。

● 研究具有延迟反馈和批处理反馈的组合在线学习算法。实际应用场景中往往有更复杂的反馈情况,如在线排序学习问题中用户可能没有立即对感兴趣的项目进行访问,导致玩家行动与反馈之间有一定的时间差,即延迟反馈;有时广告供应商每隔一段时间才集中收集一次数据,即批处理反馈。在MAB问题中,针对这两种反馈方式的算法研究已取得一定的进展,在CMAB问题中,考虑这些复杂反馈形式的算法仍需继续探索。

● 深入研究分布式CMAB(distributed CMAB)。考虑多个玩家同时以相同目标选择超级臂的场景,玩家之间可以进行交流,但是每一轮每个玩家能共享的信息有限,玩家最终根据自己观察到的信息做出选择,并得到对应的独立的奖励值,最终每个玩家都会选择自己认为最优的超级臂。分布式探索的方法在MAB问题中已经有所应用和突破,但在CMAB场景中仍然需要更多的深入研究。

● 寻找更多的实际应用场景,以及在真实数据集上进行实验。已有算法可应用的数据集仍然有限,目前的研究工作多在人工数据集上进行实验,如何将算法应用到更多的真实数据集中并解决更多的实际问题,是具有重要实际意义的研究方向。

6 结束语

本文首先介绍了组合在线学习问题的定义及其基本框架——组合多臂老虎机问题,而后概括了此框架下的组合在线学习模型及经典算法。该问题有丰富的应用场景,本文重点介绍了在线排序学习和在线影响力最大化,详述了这两个应用场景下的研究进展。组合在线学习仍有许多值得深入探索的问题,本文最后对其未来研究方向做了进一步展望。

参考文献

ALON N , CESA-BIANCHI N ,, DEKEL O ,et al.

Online learning with feedback graphs:beyond bandits

[J]. arXiv preprint,2015,arXiv:1502.07617.

[本文引用: 1]

LYKOURIS T , TARDOS É ,, WALI D .

Feedback graph regret bounds for Thompson sampling and UCB

[C]// Proceedings of the 31st International Conference on Algorithmic Learning Theory.[S.l.:s.n.], 2020.

[本文引用: 1]

BARTÓK G , FOSTER D P , PÁL D , ,et al.

Partial monitoring-classification,regret bounds,and algorithms

[J]. Mathematics of Operations Research, 2014,39(4): 967-997.

[本文引用: 1]

AUER P , CESA-BIANCHI N , FISCHER P .

Finite-time analysis of the multiarmed bandit problem

[J]. Machine Learning, 2002,47(2): 235-256.

[本文引用: 1]

THOMPSON W R .

On the likelihood that one unknown probability exceeds another in view of the evidence of two samples

[J]. Biometrika, 1933,25(3/4): 285-294.

[本文引用: 1]

BUBECK S , MUNOS R , STOLTZ G .

Pure exploration in multi-armed bandits problems

[M]// Lecture Notes in Computer Science. Heidelberg: Springer, 2009: 23-37.

[本文引用: 1]

AUDIBERT J Y , BUBECK S , MUNOS R .

Best arm identification in multi-armed bandits

[C]// Proceedings of the 23rd Annual Conference on Learning Theory.[S.l.:s.n.], 2010: 41-53.

[本文引用: 1]

KARNIN Z , KOREN T , SOMEKH O .

Almost optimal exploration in multiarmed bandits

[C]// Proceedings of the International Conference on Machine Learning. New York:ACM Press, 2013: 1238-1246.

[本文引用: 1]

GARIVIER A , KAUFMANN E .

Optimal best arm identification with fixed confidence

[C]// Proceedings of the 29th Annual Conference on Learning Theory.[S.l.:s.n.], 2016.

[本文引用: 1]

WU Y F , SHARIFF R , LATTIMORE T ,et al.

Conservative bandits

[C]// Proceedings of the 33rd International Conference on Machine Learning. New York:ACM Press, 2016.

[本文引用: 2]

AUER P , CESA-BIANCHI N ,, FREUND Y ,et al.

The nonstochastic multiarmed bandit problem

[J]. SIAM Journal on Computing, 2002,32(1): 48-77.

[本文引用: 1]

LI L H , CHU W , LANGFORD J ,et al.

A contextual-bandit approach to personalized news article recommendation

[C]// Proceedings of the 19th International Conference on World Wide Web. New York:ACM Press, 2010.

[本文引用: 2]

GAI Y , KRISHNAMACHARI B , JAIN R .

Learning multiuser channel allocations in cognitive radio networks:a combinatorial multi-armed bandit formulation

[C]// Proceedings of 2010 IEEE Symposium on New Frontiers in Dynamic Spectrum. Piscataway:IEEE Press, 2010: 1-9.

[本文引用: 1]

CHEN W , HU W , LI F ,et al.

Combinatorial multi-armed bandit with general reward functions

[C]// Proceedings of the 30th International Conference on Neural Information Processing Systems.[S.l.:s.n.], 2016.

[本文引用: 7]

WANG Q S , CHEN W .

Improving regret bounds for combinatorial semi-bandits with probabilistically triggered arms and its applications

[C]// Proceedings of the 31st International Conference on Neural Information Processing Systems. New York:ACM Press, 2017: 1161-1171.

[本文引用: 6]

CHEN W , WANG Y J , YUAN Y .

combinatorial multi-armed bandit:general framework and applications

[C]// Proceedings of the 30th International Conference on Machine Learning.[S.l.:s.n.], 2013: 151-159.

[本文引用: 4]

GAI Y , KRISHNAMACHARI B , JAIN R .

Combinatorial network optimization with unknown variables:multi-armed bandits with linear rewards and individual observations

[J]. IEEE/ACM Transactions on Networking, 2012,20(5): 1466-1478.

[本文引用: 3]

CHEN W , WANG Y J , YUAN Y ,et al.

Combinatorial multi-armed bandit and its extension to probabilistically triggered arms

[J]. Journal of Machine Learning Research, 2016,17(1): 1746-1778.

[本文引用: 2]

ABBASI-YADKORI Y , PÁL D , SZEPESVÁRI C .

Improved algorithms for linear stochastic bandits

[C]// Proceedings of the 24th International Conference on Neural Information Processing Systems. New York:ACM Press, 2011: 2312-2320.

[本文引用: 1]

DANI V , HAYES T P , KAKADE S M .

Stochastic linear optimization under bandit feedback

[Z]. 2008.

[本文引用: 1]

RUSMEVICHIENTONG P , TSITSIKLIS J N .

Linearly parameterized bandits

[J]. Mathematics of Operations Research, 2010,35(2): 395-411.

[本文引用: 1]

KVETON B , WEN Z , ASHKAN A ,et al.

Matroid bandits:fast combinatorial optimization with learning

[C]// Proceedings of the 30th Conference on Uncertainty in Artificial Intelligence.[S.l.:s.n.], 2014.

[本文引用: 2]

CHEN S , LIN T , KING I ,et al.

Combinatorial pure exploration of multiarmed bandits

[C]// Proceedings of the 28th Conference on Neural Information Processing Systems.[S.l.:s.n.], 2014: 379-387.

[本文引用: 1]

GABILLON V , LAZARIC A , GHAVAMZADEH M ,et al.

Improved learning complexity in combinatorial pure exploration bandits

[C]// Proceedings of the 19th International Conference on Artificial Intelligence and Statistics.[S.l.:s.n.], 2016.

[本文引用: 1]

KUROKI Y , XU L Y , MIYAUCHI A ,et al.

Polynomial-time algorithms for multiplearm identification with full-bandit feedback

[J]. Neural Computation, 2020,32(9): 1733-1773.

[本文引用: 1]

REJWAN I , MANSOUR Y .

Top-k combinatorial bandits with full-bandit feedback

[C]// Proceedings of the 31st International Conference on Algorithmic Learning Theory.[S.l.:s.n.], 2020.

[本文引用: 1]

HUANG W R , OK J , LI L ,et al.

Combinatorial pure exploration with continuous and separable reward functions and its applications

[C]// Proceedings of the 27th International Joint Conference on Artificial Intelligence. New York:ACM Press, 2018.

[本文引用: 1]

DU Y H , KUROKI Y , CHEN W .

Combinatorial pure exploration with fullbandit or partial linear feedback

[J]. arXiv preprint,2020,arXiv:2006.07905.

[本文引用: 1]

CHEN W , DU Y H , HUANG L B ,et al.

Combinatorial pure exploration for dueling bandit

[C]// Proceedings of the 37th International Conference on Machine Learning.[S.l.:s.n.], 2020.

[本文引用: 1]

COMBES R , TALEBI M S , PROUTIERE A ,et al.

Combinatorial bandits revisited

[C]// Proceedings of the 28th International Conference on Neural Information Processing Systems. New York:ACM Press, 2015: 2116-2124.

[本文引用: 2]

GARIVIER A , CAPPÉ O ,, .

The KL-UCB algorithm for bounded stochastic bandits and beyond

[C]// Proceedings of the 24th Annual Conference on Learning Theory.[S.l.:s.n.], 2011.

[本文引用: 2]

CUVELIER T , COMBES R , GOURDIN E .

Statistically efficient,polynomial-time algorithms for combinatorial semibandits

[J]. Proceedings of the ACM on Measurement and Analysis of Computing Systems, 2021,5(1): 1-31.

[本文引用: 1]

QIN L J , CHEN S Y , ZHU X Y .

Contextual combinatorial bandit and its application on diversified online recommendation

[C]// Proceedings of the 2014 SIAM International Conference on Data Mining. Philadelphia:Society for Industrial and Applied Mathematics, 2014.

[本文引用: 2]

CHEN L X , XU J , LU Z .

Contextual combinatorial multi-armed bandits with volatile arms and submodular reward

[C]// Proceedings of the 32nd International Conference on Neural Information Processing Systems. New York:ACM Press, 2018: 3251-3260.

[本文引用: 1]

ZUO J H , LIU X T , JOE-WONG C , ,et al.

Online competitive influence maximization

[J]. arXiv preprint,2020,arXiv:2006.13411.

[本文引用: 2]

KOMIYAMA J , HONDA J , NAKAGAWA H .

Optimal regret analysis of Thompson sampling in stochastic multi-armed bandit problem with multiple plays

[C]// Proceedings of the 32nd International Conference on International Conference on Machine Learning. New York:ACM Press, 2015: 1152-1161.

[本文引用: 1]

WANG S W , CHEN W .

Thompson sampling for combinatorial semi-bandits

[C]// Proceedings of the 35th International Conference on Machine Learning.[S.l.:s.n.], 2018.

[本文引用: 1]

WANG Q S , CHEN W .

Improving regret bounds for combinatorial semi-bandits with probabilistically triggered arms and its applications

[C]// Proceedings of the 31st International Conference on Neural Information Processing Systems. New York:ACM Press, 2017: 1161-1171.

[本文引用: 1]

HÜYÜK A , TEKIN C .

Analysis of Thompson sampling for combinatorial multi-armed bandit with probabilistically triggered arms

[C]// Proceedings of Machine Learning Research.[S.l.:s.n.], 2019.

[本文引用: 1]

HÜYÜK A , TEKIN C .

Thompson sampling for combinatorial network optimization in unknown environments

[J]. IEEE/ACM Transactions on Networking, 2020,28(6): 2836-2849.

[本文引用: 1]

WANG S W , CHEN W .

Thompson sampling for combinatorial semi-bandits

[C]// Proceedings of the 35th International Conference on Machine Learning.[S.l.:s.n.], 2018: 5114-5122.

[本文引用: 1]

ZHOU H Z , WANG L D , VARSHNEY L ,et al.

A near-optimal change-detection based algorithm for piecewise-stationary combinatorial semi-bandits

[J]. Proceedings of the AAAI Conference on Artificial Intelligence, 2020,34(4): 6933-6940.

[本文引用: 1]

CHEN W , WANG L W , ZHAO H Y ,et al.

Combinatorial semi-bandit in the non stationary environment

[J]. arXiv preprint,2020,arXiv:2002.03580.

[本文引用: 1]

ZHANG X J , LI S , LIU W W .

Contextual combinatorial conservative bandits

[J]. arXiv preprint,2019,arXiv:1911.11337.

[本文引用: 1]

CESA-BIANCHI N , LUGOSI G .

Combinatorial bandits

[J]. Journal of Computer and System Sciences, 2012,78(5): 1404-1422.

[本文引用: 1]

BUBECK S , CESA-BIANCHI N ,, KAKADE S M .

Towards minimax policies for online linear optimization with bandit feedback

[J]. Journal of Machine Learning Research, 2012,23.

[本文引用: 1]

SAKAUE S , ISHIHATA M , MINATO S I .

Practical adversarial combinatorial bandit algorithm via compression of decision sets

[J]. arXiv preprint,2017,arXiv:1707.08300.

[本文引用: 1]

LIN T , ABRAHAO B , KLEINBERG R ,et al.

Combinatorial partial monitoring game with linear feedback and its applications

[C]// Proceedings of the 31st International Conference on Machine Learning.[S.l.:s.n.], 2014.

[本文引用: 1]

CHAUDHURI S , TEWARI A .

Phased exploration with greedy exploitation in stochastic combinatorial partial monitoring games

[J]. arXiv preprint,2016,arXiv:1608.06403.

[本文引用: 1]

CHEN X Y , ZHENG K , ZHOU Z X ,et al.

(Locally) Differentially private combinatorial semi-bandits

[C]// Proceedings of the 37th International Conference on Machine Learning.[S.l.:s.n.], 2020.

[本文引用: 1]

CHEN Y W , HOFMANN K.Online learning to rank:absolute vs .

relative

[C]// Proceedings of the 24th International Conference on World Wide Web. New York:ACM Press, 2015.

[本文引用: 1]

KVETON B , SZEPESVARI C , WEN Z ,et al.

Cascading bandits:learning to rank in the cascade model

[C]// Proceedings of the 32nd International Conference on Machine Learning. New York:ACM Press, 2015: 767-776.

[本文引用: 1]

KVETON B , WEN Z , ASHKAN A ,et al.

Combinatorial cascading bandits

[J]. Advances in Neural Information Processing Systems, 2015,28: 1450-1458.

[本文引用: 1]

LI S , WANG B X , ZHANG S Y ,et al.

Contextual combinatorial cascading bandits

[C]// Proceedings of the 33rd International Conference on International Conference on Machine Learning. New York:ACM Press, 2016: 1245-1253.

[本文引用: 1]

KATARIYA S , KVETON B , SZEPESVÁRI C ,, et al .

DCM bandits:learning to rank with multiple clicks

[C]// Proceedings of the 33rd International Conference on International Conference on Machine Learning. New York:ACM Press, 2016: 1215-1224.

[本文引用: 1]

CAO J Y , SUN W , SHEN Z J M ,et al.

Fatigue-aware bandits for dependent click models

[J]. Proceedings of the AAAI Conference on Artificial Intelligence, 2020,34(4): 3341-3348.

[本文引用: 1]

KVETON B , LI C , LATTIMORE T ,et al.

BubbleRank:safe online learning to rerank via implicit click feedback

[C]// Proceedings of the 35th Uncertainty in Artificial Intelligence Conference.[S.l.:s.n.], 2020.

[本文引用: 1]

ZOGHI M , TUNYS T , GHAVAMZADEH M ,et al.

Online learning to rank in stochastic click models

[C]// Proceedings of the 34th International Conference on Machine Learning.[S.l.:s.n.], 2017.

[本文引用: 1]

ZHU Z A , CHEN W Z , MINKA T ,et al.

A novel click model and its applications to online advertising

[C]// Proceedings of the 3rd ACM International Conference on Web Search and Data Mining. New York:ACM Press, 2010.

[本文引用: 1]

LI S , LATTIMORE T , SZEPESVARI C .

Online learning to rank with features

[C]// Proceedings of the 36th International Conference on Machine Learning.[S.l.:s.n.], 2019.

[本文引用: 1]

LATTIMORE T , KVETON B , LI S ,et al.

TopRank:a practical algorithm for online stochastic ranking

[C]// Proceedings of the 32nd International Conference on Neural Information Processing Systems.[S.l.:s.n.], 2018.

[本文引用: 1]

YUE Y S , GUESTRIN C .

Linear submodular bandits and their application to diversified retrieval

[C]// Proceedings of the 24th International Conference on Neural Information Processing Systems. New York:ACM Press, 2011: 2483-2491.

[本文引用: 3]

YU B S , FANG M , TAO D C .

Linear submodular bandits with a knapsack constraint

[C]// Proceedings of the 30th AAAI Conference on Artificial Intelligence. New York:ACM Press, 2016: 1380-1386.

[本文引用: 2]

CHEN L , KRAUSE A , KARBASI A .

Interactive submodular bandit

[C]// Proceedings of the 31st International Conference on Neural Information Processing Systems.[S.l.:s.n.], 2017.

[本文引用: 1]

TAKEMORI S , SATO M , SONODA T ,et al.

Submodular bandit problem under multiple constraints

[C]// Proceedings of the 36th Conference on Uncertainty in Artificial Intelligence.[S.l.:s.n.], 2020.

[本文引用: 1]

孔芳, 李奇之, 李帅 .

在线影响力最大化研究综述

[J]. 计算机科学, 2020,47(5): 7-13.

[本文引用: 1]

KONG F , LI Q Z , LI S .

Survey on online influence maximization

[J]. Computer Science, 2020,47(5): 7-13.

[本文引用: 1]

KEMPE D , KLEINBERG J , TARDOS É , .

Maximizing the spread of influence through a social network

[C]// Proceedings of the 9th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining.[S.l.:s.n.], 2003: 137-146.

[本文引用: 1]

WEN Z , KVETON B , VALKO M ,et al.

Online influence maximization under independent cascade model with semibandit feedback

[C]// Proceedings of the 31st International Conference on Neural Information Processing Systems.[S.l.:s.n.], 2017: 3026-3036.

[本文引用: 1]

WU Q Y , LI Z G , WANG H Z ,et al.

Factorization bandits for online influence maximization

[C]// Proceedings of the 25th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining. New York:ACM Press, 2019: 636-646.

[本文引用: 1]

VASWANI S , LAKSHMANAN L V S , SCHMIDT M .

Influence maximization with bandits

[J]. arXiv preprint,2015,arXiv:1503.00024.

[本文引用: 1]

LI S , KONG F , TANG K J ,et al.

Online influence maximization under linear threshold model

[J]. arXiv preprint,2020,arXiv:2011.06378.

[本文引用: 1]

VASWANI S , KVETON B , WEN Z ,et al.

Model-independent online learning for influence maximization

[C]// Proceedings of the 34th International Conference on Machine Learning. New York:ACM Press, 2017: 3530-3539.

[本文引用: 1]

/