Imbalanced Deep Learning by Minority Class Incremental Rectification

Imbalanced Deep Learning by Minority Class Incremental Rectification

Qi Dong, etc.

Intro

目前的问题有可能是算法带来的inductive bias。

在cost-sensitive问题上,最近有一些进展,比如Focal Loss。不需要expert。

Scalable Imbalanced Deep Learning

这里我们提出了incremental minority class discrimination learning,通过构造一个Class Rectification Loss (CRL) regularization。

Limitation of Cross-Entropy Classification Loss

cross entropy是说

$$ p(y{i,j}=a{i,j} | xi ) = \frac{\exp{(W_j^T x{i,j})}}{\sumk \exp{(W_k^T x{i,j})}}

$$

然后会吧把所有mini-batch的求个平均,然后再在所有class之间求平均。这里一个问题就是假设所有的instance和所有的class都一样重要。

但是因为class是highly imbalanced,所以得到的solution会是suboptimal。

但这里我是这么认为:不论balanced还是imbalanced,只要是可分的,那么最终converge的结果应该都一样;只不过converge的速度会受到影响。

Minority Class Hard Sample Mining

这个策略是从decision boundary的另外一边借用一部分majority class samples。

results matching ""

    No results matching ""