分类
百万富翁交易员如何行动

二进制机器人WS评论

图2: 训练过程

jack_孟

第二个参数可取值为下面为可选值:
0 隐藏一个窗口并激活另一个窗口。
1 激活并显示窗口。如果窗口处于最小化或最大化状态,则系统将其还原到原始大小和位置。第一次显示该窗口时,应用程序应指定此标志。
2 激活窗口并将其显示为最小化窗口。
3 激活窗口并将其显示为最大化窗口。
4 按最近的窗口大小和位置显示窗口。活动窗口保持活动状态。
5 激活窗口并按当前的大小和位置显示它。
6 最小化指定的窗口,并按照 Z 顺序激活下一个顶部窗口。
7 将窗口显示为最小化窗口。活动窗口保持活动状态。
8 将窗口显示为当前状态。活动窗口保持活动状态。
9 激活并显示窗口。如果窗口处于最小化或最大化状态,则系统将其还原到原始大小和位置。还原最小化窗口时,应用程序应指定此标志。
10 根据启动应用程序的程序状态来设置显示状态。

dim wsh
set wsh=wscript.createobject("wscript.shell")
wsh.run "notepad.exe c:\test.vbs",1,ture '指定文件打开程序
wsh.run "c:\test.doc",1,ture '使用系统默认程序打开文件
set wsh=nothing

WebSocket 前端使用

前端不弃 于 2019-02-28 16:15:26 发布 9383 收藏 58

h5提供了WebSocket网络协议,可以实现浏览器与服务器的双向数据传输

WebSocket(url,protocol)
url:WebSocket API URL,URL之前需要添加ws://或者wss://(类似http://、https://)
protocol:与服务端定义的协议名称相同,协议的参数例如XMPP(Extensible Messaging and Presence Protocol)、SOAP(Simple 二进制机器人WS评论 Object Access Protocol)或者自定义协议。

send(message) 通过已建立的websocket连接发送数据
close(code(numerical),reason(string)) 关闭打开的websocket连接

-WebSocket API是纯事件驱动,建立连接之后,可自动发送状态改变的数据和通知
onopen 当建立websocket连接时触发,只触发一次
onerror 当连接出现错误时触发-因为当触发了onerror之后连接就会触发关闭事件。
onmessage 当服务端发送数据时触发,可多次触发,页面数据展示处理模块-实现轮询
onclose 当websocket连接关闭时触发,只触发一次

readyState: 二进制机器人WS评论 WebSocket连接状态
0 正在与服务端建立WebSocket连接,还没有连接成功
1 连接成功并打开,可以发送消息
2 进行关闭连接的操作,且尚未关闭
3 连接已关闭或不能打开

bufferedAmount:检查传输数据的大小,当客户端传输大量数据时使用避免网络饱和

protocol:在构造函数中使用,protocol参数让服务端知道客户端使用的WebSocket协议。而WebSocket对象的这个属性就是指的最终服务端确定下来的协议名称,可以为空

websocket

`

【细粒度】WS-DAN

本文是论文《See Better Before Looking Closer: Weakly Supervised Data Augmentation Network for Fine-Grained Visual Classification》的读书笔记. 论文已经在ArXiv上公布.

WS-DAN(Weakly Supervised Data 二进制机器人WS评论 Augmentation Network)是一种用在细粒度分类任务中的模型, 在多个公开数据集上都达到了非常不错的效果; 该模型的创新点包括:

  • 双线性注意力池化机制(Bilinear Attention Pooling, 下文简称BAP)
  • 类center loss的注意力监督机制
  • 基于注意力的数据增强策略
  • BAP
  • Attention Regularization
  • Attention-guided Data Augmentation
  • Object Localization and Refinement

BAP(Bilinear Attention Pooling)

BAP是WS-DAN中最基础的模块, 是后续操作的原材料. BAP结构如图1所示

图1: BAP示意图

backbone网络首先产生feature maps和attention maps; 每个attention map都指向物体的特定部位; feature maps和attention maps的element-wise乘积产生局部feature maps, 并通过卷积或者池化来提取局部特征; 所得局部特征可以组成特征矩阵. 具体而言设有 N 个feature maps和 M 个attention maps, 由第 k 个attention map A_ 和feature map 二进制机器人WS评论 F 进行element-wise乘积生成第 k 个part feature map F_ = A_\odot F , 其中 \odot 表示element-wise乘法. 以此类推, 一个feature map和 M 二进制机器人WS评论 个attention maps进行element-wise乘法, 得到 M 个part feature maps. 这 M 个part feature maps经全局池化(GMP 或GAP), 得到 M 维向量,其中第 k 个元素为 f_ = g\left( F_ 二进制机器人WS评论 \right) , 将这些 M 维向量拼接, 生成 N \times M 维向量. 这些向量组成物体的特征 P

Attention Regularization

c_ \leftarrow c_ + \beta\left( f_ - c_ \right) \\ Attention-guided Data Augmentation

图2: 训练过程

在随机数据增强方法中,背景噪声等干扰因素会影响最终效果. 本文所介绍的数据增强方法则通过BAP来生成attention maps, 这可以更好地过滤掉背景噪声. 对于训练数据,WS-DAN随机选出一张attention map A_ 来指导数据增强过程. A_ 做归一化处理.

A_^ = \frac \\ 通过 A_^ 可获得crop mask. 当 A_^\left( i, j \right) 大于阈值 \theta_\in\left[0, 1\right) 时, C_(i,j)=1 ; 反之 C_(i,j)=0 ; 找出一最小的bounding box来覆盖 C_ 中所有的 1 , 通过bounding box来crop训练数据,并放大至原图大小, 细节信息会更清晰. 该过程称为attention crop. 如果当 A_^\left( i, j \right) 小于阈值 \theta_\in\left[0, 1\right) 时, D_(i,j)=1 , 否则 D_(i,j)=0 , 该过程称为attention drop. Attention drop操作可缓解多个attention map关注物体同一部位的问题.

Object Localization and Refinement

图3: 测试过程

前面介绍的Attention-guided Data Augmentation可以更准确地预测物体位置. 在测试阶段,backbone模型输出粗粒度识别结果以及attention maps. 在此基础上, WS-DAN可以预测整个物体的位置并且可预测细粒度识别结果. 在测试阶段使用的attention map是 M 个attention map的平均值 A_ = \frac \sum_^> \\ 最终的预测结果是由粗粒度识别结果和细粒度识别结果取平均所得.

【细粒度】WS-DAN

本文是论文《See Better Before Looking Closer: Weakly Supervised Data Augmentation Network for Fine-Grained Visual Classification》的读书笔记. 论文已经在ArXiv上公布.

WS-DAN(Weakly Supervised Data Augmentation Network)是一种用在细粒度分类任务中的模型, 在多个公开数据集上都达到了非常不错的效果; 该模型的创新点包括:

  • 双线性注意力池化机制(Bilinear Attention Pooling, 下文简称BAP)
  • 类center loss的注意力监督机制
  • 基于注意力的数据增强策略
  • BAP
  • Attention Regularization
  • Attention-guided Data Augmentation
  • Object Localization and Refinement

BAP(Bilinear Attention Pooling)

BAP是WS-DAN中最基础的模块, 是后续操作的原材料. BAP结构如图1所示

二进制机器人WS评论 图1: BAP示意图

backbone网络首先产生feature maps和attention maps; 每个attention map都指向物体的特定部位; feature maps和attention maps的element-wise乘积产生局部feature maps, 并通过卷积或者池化来提取局部特征; 所得局部特征可以组成特征矩阵. 具体而言设有 N 个feature maps和 M 个attention maps, 由第 k 个attention map A_ 和feature map F 进行element-wise乘积生成第 k 个part feature map F_ = A_\odot F , 其中 \odot 表示element-wise乘法. 以此类推, 一个feature map和 M 个attention maps进行element-wise乘法, 得到 M 个part feature maps. 这 M 个part feature maps经全局池化(GMP 二进制机器人WS评论 或GAP), 得到 M 维向量,其中第 k 个元素为 f_ = g\left( F_ \right) , 将这些 M 维向量拼接, 生成 N \times M 维向量. 这些向量组成物体的特征 P

Attention Regularization

c_ \leftarrow c_ + \beta\left( f_ - c_ \right) \\ Attention-guided Data Augmentation

图2: 训练过程

在随机数据增强方法中,背景噪声等干扰因素会影响最终效果. 本文所介绍的数据增强方法则通过BAP来生成attention maps, 这可以更好地过滤掉背景噪声. 对于训练数据,WS-DAN随机选出一张attention map A_ 二进制机器人WS评论 来指导数据增强过程. A_ 做归一化处理.

A_^ = \frac 二进制机器人WS评论 \\ 通过 A_^ 可获得crop mask. 当 A_^\left( i, j \right) 大于阈值 \theta_\in\left[0, 1\right) 时, C_(i,二进制机器人WS评论 j)=1 ; 反之 C_(i,j)=0 ; 找出一最小的bounding box来覆盖 C_ 中所有的 1 , 通过bounding box来crop训练数据,并放大至原图大小, 细节信息会更清晰. 该过程称为attention crop. 如果当 A_^\left( i, j \right) 小于阈值 \theta_\in\left[0, 1\right) 时, D_(i,j)=1 , 否则 D_(i,j)=0 , 该过程称为attention drop. Attention drop操作可缓解多个attention map关注物体同一部位的问题.

Object Localization and Refinement

图3: 测试过程

前面介绍的Attention-guided Data Augmentation可以更准确地预测物体位置. 在测试阶段,backbone模型输出粗粒度识别结果以及attention maps. 在此基础上, WS-DAN可以预测整个物体的位置并且可预测细粒度识别结果. 在测试阶段使用的attention map是 M 个attention map的平均值 A_ = \frac \sum_^> \\ 最终的预测结果是由粗粒度识别结果和细粒度识别结果取平均所得.