FlyAI小助手

  • 3

    获得赞
  • 85873

    发布的文章
  • 0

    答辩的项目

Randomized Greedy Learning for Non-monotone Stochastic Submodular Maximization Under Full-bandit Feedback

全带反馈下非单调随机子模极大化的随机贪婪学习

作者: Fares Fourati,Vaneet Aggarwal,Christopher John Quinn,Mohamed-Slim Alouini

作者邀请

论文作者还没有讲解视频

邀请直播讲解

您已邀请成功, 目前已有 $vue{users_count} 人邀请!

再次邀请

We investigate the problem of unconstrained combinatorial multi-armed bandits with full-bandit feedback and stochastic rewards for submodular maximization. Previous works investigate the same problem assuming a submodular and monotone reward function. In this work, we study a more general problem, i.e., when the reward function is not necessarily monotone, and the submodularity is assumed only in expectation. We propose Randomized Greedy Learning (RGL) algorithm and theoretically prove that it achieves a $\frac{1}{2}$-regret upper bound of $\tilde{\mathcal{O}}(n T^{\frac{2}{3}})$ for horizon $T$ and number of arms $n$. We also show in experiments that RGL empirically outperforms other full-bandit variants in submodular and non-submodular settings.

我们研究了无约束组合多臂强盗问题 具有全强盗反馈和子模最大化的随机奖励。 以前的工作在假设子模和单调的情况下研究了相同的问题 奖励功能。在这项工作中,我们研究了一个更一般的问题,即当 奖励函数不一定是单调的,并且假定为子模 只是在期待中。提出了随机贪婪学习(RGL)算法,并对RGL算法进行了改进 从理论上证明了它达到了$\FRAC{1}{2}$-遗憾上界 $\tilde{\mathcal{O}}(n T^{\frac{2}{3}})$表示地平线$T$和臂数 $n$。我们还在实验中表明,RGL在经验上优于其他 子模块和非子模块设置中的全盗版变体。

文件下载

论文代码

关联比赛

本作品采用 知识共享署名-非商业性使用-相同方式共享 4.0 国际许可协议进行许可,转载请附上原文出处链接和本声明。
本文链接地址:https://flyai.com/paper_detail/16369
讨论
500字
表情
发送
删除确认
是否删除该条评论?
取消 删除