示例选择的多示例学习

更新时间:2023-12-04 19:50:02 阅读量: 教育文库 文档下载

说明:文章内容仅供预览,部分内容可能不全。下载后的文档,内容与下面显示的完全一致。下载之前请确认下面内容是否您想要的,是否完整无缺。

MILIS: Multiple Instance Learning with Instance Selection

Fu, Z.; Robles-Kelly, A.; Zhou, J.;

Pattern Analysis and Machine Intelligence, IEEE Transactions on Volume: PP , Issue: 99

Digital Object Identifier: 10.1109/TPAMI.2010.155 Publication Year: 2010 , Page(s): 1 - 1

IEEE Early Access

Abstract | Full Text: PDF (1453 KB)

这篇文章讲的是多示例学习。 所谓的多示例就是指,每个样本是很多

的集合(

)。

有多个实例(

){

}组成,一个样本实际上

作者所设计的方法用下面这个图可以全部概括出来了:

B. Initial Instance Selection

D.

A. Bag-Level Feature

Representation

C. Classification

A. Bag-Level Feature Representation

首先,我们介绍所谓的Feature Mapping,就是用

},把一个bag

映射成一个矢量:

这样做的缺点是用所有的作者说:不用,太多了,映射成的矢量维数太高了,算起来太麻烦。 ,用我的{ },只

{

,

每个Bag只取一个instance作为IP,放在IPs里来映射个: 于是乎:

这样一个B_i就变成了一个n维矢量,我们用一个SVM来分类就可以了。 这篇文章的问题就是: 1.如何为每个

选择一个

放在

中?

2.如何训练一个合适的SVM来分类?

B. Initial Instance Selection

为了回答上面第一个问题,作者先初步地选择一些

在multiple instance learning中有个特点,就是positive bag吧,里面的instance 有positive 也有negative的,而

,所以,关键问

题是如何把哪些是positive的找出来。

如果你是小虾,肯定会想,建立一个positive instance的概率模型,然后算算看每个instance的概率,把概率最大的那些选出来。蠢呀!你训练样本中哪些是positive instance都不知道,怎么建立概率模型? 作者的聪明之处在于:先建立

这里用的是

技术

然后把些概率最小,不就最可能是正样本;然后概率最大的,不就最可能是负样本吗? 1. 对每个

,我们

,作为

2. 而对每个

这样就初步地选出了IPs。 这一步,用的是逆向思维。

C. Classification 有了把

表达成

矢量之后,我们训

,我们就挑

,作为IP。

练一个SVM来分类:

好了,到这里,让我们再仔细看看上面那幅图:

原来是迭代的:

1.选择

,形成新的矢量;

2. 用新的矢量训练SVM

好了,现在问题是,训练好了

SVM,如何选择一个更好的

集合呢?

D. Instance Update 如何没每个这里,

就是

选一个

呢?换言之,在

的示例

中,究竟该选择哪个?

中选出来到那个的序号:

一共有n个

,我们把所有

放在一起,作为

。这就

是我们要求的结果了。

现在是,在迭代中,如何根据(t)中的SVM系数定下一次的

呢?

,以及

,来确

很简单,如果你还懂点迭代的思想的话,就是让

中除

行了: 之外按兵不动,光求一个能让代价函数最小的

和就

因为对于每个个计算要从

(一共n个)都要做一次项中找一个最小的。

是独立的,互相的更新并不干扰,而上面那个式子中

,可不可以不用对每一个

借鉴上个

的结果来算?

的计算方法:

都,而这

但是,作者注意到:其实各个的

算一遍,而是

沿着这个思路,作者提出了低复杂度的

本文来源:https://www.bwwdw.com/article/kfbt.html

Top