当前位置: 首页 > news >正文

【论文阅读】注意力机制与二维 TSP 问题

前置知识

注意力机制

见 这篇

二维 TSP 问题

给定二维平面上 nnn 个点的坐标 S={xi}i=1nS=\{x_i\}_{i=1}^nS={xi}i=1n,其中 xi∈[0,1]2x_i\in [0,1]^2xi[0,1]2,要找到一个 1∼n1\sim n1n 的排列 π\piπ ,使得目标函数
L(π∣s)=∥xπ1−xπn∥2+∑i=1n−1∥xπi−xπi+1∥2L(\pi|s)=\Vert x_{\pi_1}-x_{\pi_n} \Vert_2+\sum_{i=1}^{n-1}\Vert x_{\pi_{i}}-x_{\pi_{i+1}}\Vert_2L(πs)=xπ1xπn2+i=1n1xπixπi+12
尽可能小。

Pointer Networks

论文链接

随意选择 π1\pi_1π1 ,然后依次预测 π2,π3,...,πn\pi_2,\pi_3,...,\pi_nπ2,π3,...,πn

预测方式利用了注意力机制(加性模型):
uji=vTtanh⁡(W1ej+W2di)u_j^i=v^T\tanh(W_1e_j+W_2d_i)uji=vTtanh(W1ej+W2di)
其中 v,W1,W2v,W_1,W_2v,W1,W2 是可学习的参数,eje_jej 是(节点 jjj 的)encoder 隐状态,did_idi 是(已选 i−1i-1i1 个点的图的) decoder 隐状态。然后,直接将 softmax 后的 uiu^iui 作为输出:
P(πi∣π1:i−1,P)=softmax(ui)P(\pi_i|\pi_{1:i-1},\mathcal{P})=\text{softmax}(u^i)P(πiπ1:i1,P)=softmax(ui)

encoder 和 decoder 的实现使用了单层 LSTM,训练使用 SGD。

网络结构

效果如下:
训练结果

传统的 RNN 的输出是固定词汇表上的分布,因此不能应对 nnn 比训练集大的情况。而 Pointer Networks 的输出是输入序列上的分布,因此可以应对任意大小的 nnn

Attention, Learn to Solve Routing Problems!

论文链接

引入强化学习,学习策略函数 pθ(π∣s)=∏t=1npθ(πt∣s,π1:t−1)p_{\theta}(\pi|s)=\prod_{t=1}^np_{\theta}(\pi_t|s,\pi_{1:t-1})pθ(πs)=t=1npθ(πts,π1:t1)

encoder 和 decoder 套用 Transformer 结构。

http://www.lryc.cn/news/38426.html

相关文章:

  • [深入理解SSD系列 闪存实战2.1.7] NAND FLASH基本编程(写)操作及原理_NAND FLASH Program Operation 源码实现
  • PMP项目管理项目资源管理
  • 程序的编译和链接
  • Win11的两个实用技巧系列之无法联网怎么办、耳机没声音的多种解决办法
  • 【微信小程序】-- 自定义组件 - 数据监听器 - 案例 (三十五)
  • Linux - 第7节 - 进程间通信
  • # 数据完整性算法在shell及python中的实践
  • QEMU启动x86-Linux内核
  • C/C++每日一练(20230311)
  • 哪个牌子的洗地机耐用?耐用的洗地机推荐
  • 搭建一个中心化的定时服务
  • 【CSS】快速入门笔记
  • 第161篇 笔记-去中心化的含义
  • 「计算机组成原理」数据的表示和运算(二)
  • 建立自己的博客
  • Docker 安装mysql Mac 环境下
  • 《C++代码分析》第三回:类成员函数覆盖父类函数的调用(分析this指针的变化)
  • Altium designer--软件简介及安装教程(Altium designer16)
  • Windows系统下基于开源软件的多物理场仿真
  • 【STL】list剖析及模拟实现
  • Go打包附件内容到执行文件
  • Spring的配置属性
  • 132.《render-props, Hoc,自定义hooks 详解》
  • 通过Session共享数据验证码进行用户登录
  • C++STL详解(六)——stack和queue
  • javaEE 初阶 — CSS 的 基本语法 与 引入方式
  • QEMU启动ARM32 Linux内核
  • than的用法合集
  • Unet 基于TCGA颅脑肿瘤MRI分割(高阶API分割模型)
  • [NIPS 2017] Improved Training of Wasserstein GANs (WGAN-GP)