DPLL algorithm for solving the Boolean satisfiability problem (SAT) can be represented in the form of a procedure that, using heuristics $A$ and $B$, select the variable $x$ from the input formula $\varphi$ and the value $b$ and runs recursively on the formulas $\varphi[x := b]$ and $\varphi[x := 1 - b]$. Exponential lower bounds on the running time of DPLL algorithms on unsatisfiable formulas follow from the lower bounds for tree-like resolution proofs. Lower bounds on satisfiable formulas are also known for some classes of DPLL algorithms such as "myopic" and "drunken" algorithms. All lower bounds are made for the classes of DPLL algorithms that limit heuristics access to the formula. In this paper we consider DPLL algorithms with heuristics that have unlimited access to the formula but use small memory. We show that for any pair of heuristics with small memory there exists a family of satisfiable formulas $\Phi_n$ such that a DPLL algorithm that uses these heuristics runs in exponential time on the formulas $\Phi_n$.


翻译:DPLL 解决布利安可食性问题( SAT) 的 DPLL 算法可以表现为一种程序, 程序的形式是, 使用树类解析证据的下限, 从输入公式中选择变量 $A$和 $B$, 从输入公式中选择变量 $x$x$, 和 $B$, 并反复运行公式中的 DPLL DPL 算法 [x: = b] 美元 和 $\ varphi [x: = 1 - b]$. 。 在本文中, DPLLL 算法运行时间的下限可以代表无法满足的公式, 但使用少量的记忆。 对于具有小记忆的超值公式中的超值公式, DPLLV 和 drungkn 运算法的下限范围都由DPLLV 格式组成。 我们向任何具有小记忆的超值的超值公式, DPLLLLL 将使用这种动态公式的 。

0
下载
关闭预览

相关内容

SAT是研究者关注命题可满足性问题的理论与应用的第一次年度会议。除了简单命题可满足性外,它还包括布尔优化(如MaxSAT和伪布尔(PB)约束)、量化布尔公式(QBF)、可满足性模理论(SMT)和约束规划(CP),用于与布尔级推理有明确联系的问题。官网链接:http://sat2019.tecnico.ulisboa.pt/
【Google】梯度下降,48页ppt
专知会员服务
81+阅读 · 2020年12月5日
【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
49+阅读 · 2020年7月4日
因果图,Causal Graphs,52页ppt
专知会员服务
250+阅读 · 2020年4月19日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
159+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
181+阅读 · 2019年10月11日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
已删除
AI科技评论
4+阅读 · 2018年8月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
0+阅读 · 2021年3月19日
Arxiv
0+阅读 · 2021年3月17日
Arxiv
0+阅读 · 2021年3月16日
Arxiv
0+阅读 · 2021年3月16日
Optimization for deep learning: theory and algorithms
Arxiv
106+阅读 · 2019年12月19日
VIP会员
相关主题
相关VIP内容
相关资讯
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
已删除
AI科技评论
4+阅读 · 2018年8月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Top
微信扫码咨询专知VIP会员