题目: Differentiation and Weighted Model Integration

摘要:

随机梯度下降(SGD),特别是与自动微分相结合一直是深度学习的主要工作,并帮助该领域上升到机器学习最突出的位置。基于梯度的方法在概率推理领域也得到了应用。然而,迄今为止,概率推理领域的微分优化仅针对离散或连续随机变量的问题。在这篇笔记中,我们展示了如何执行基于梯度的优化离散连续概率模型,表示为加权模型积分问题,通过自动微分。这为(深度)离散-连续模型的推理、学习和优化提供了一个新的强大工具。

邀请嘉宾:

Pedro Zuidberg Dos Martires现在是鲁汶大学DTAI实验室Luc De Raedt主管的博士生。研究关注概率编程,更具体地说是概率逻辑编程。在ReGROUND项目中,还研究了概率逻辑编程在机器人领域的应用。

成为VIP会员查看完整内容
3

相关内容

梯度下降法是一个最优化算法,通常也称为最速下降法。最速下降法是求解无约束优化问题最简单和最古老的方法之一,虽然现在已经不具有实用性,但是许多有效算法都是以它为基础进行改进和修正而得到的。最速下降法是用负梯度方向为搜索方向的,最速下降法越接近目标值,步长越小,前进越慢。可以用于求解非线性方程组
面试时让你手推公式不在害怕 | 梯度下降
计算机视觉life
14+阅读 · 2019年3月27日
VIP会员
微信扫码咨询专知VIP会员