假设 一个人工智慧演算法被用于判断人脸的性别。若此演算法已训练至70%的准确率。能否通过:输入一个未知人脸,判断性别。将输出结果和人脸作为训练数据,训练神经网路以更高的权重输出这个结果的方式,来提高演算法准确率。 本人也知道这个想法很荒谬。(本人高三党,突发奇想,求解答)


迁移学习

了解一下


「输入一个未知人脸,判断性别」,怎么知道对不对?


不荒谬, 我现在就在做这种事...

但你这个操作方法有问题, 不能直接增加权重, 你这样只会在过拟合的路上越走越远...

我前段时间我在做动漫图片检测与识别.

正常方法是直接用标注集训练, 然后不断反馈强化正确率

但是有个致命的问题, 不存在我要的这种标注数据集...

我开局只有一个电脑, 数据全靠造.

然后我就先撸了个爬虫, 让它自己去抓图.

然后自己先截一些人脸出来, 再直接随机截图生成不是人脸的东西.

构造一个二分类检测器, 用的残差架构, 随便训练一下.

接下来把这个训练完的检测器用于目标检测, 就是 R-CNN 两步走的战略...

然后 R-CNN 能自己把爬虫爬到的图片里的人脸检测出来截图了!

完美..........

可惜这样不行........

最大的问题在于, 存在误检, 假阳性(False Positive)只会不断地加深过拟合.

所以我作为人类, 这个顶级分类器的意见也是很重要的.

我要做的就是把假阳性重新扔进错误分类里然后下一轮重新强化学习

漏检这我也没办法了, 我又不能把图都下下来自己截, 一天上万张我怎么看.....

只能调阈值, 前期调高点, 因为分类器真的烂, 后期可以降低点, 得到更多的数据.

然后就是爬虫爬, 爬虫爬完检测检, 检测检完我复查, 我复查完修分类

然后就是一个正向反馈循环了, 噢耶, 人肉学习演算法......

人工智慧人工智慧, 多少人工多少智能.......


BP神经网路就是这种,以输出的信号做为反馈信号。

你说很多想法,可能已经有人实现了,总结成了网路图。

强化学习就是这种可以边工作边学习的功能,但需要一个强大的电脑,因为实时学习需要消耗很多计算资源,这一点计算机远不如各种动物。

在很多个人电脑和手机上,如果用这种实时的强化学习来计算视频,现在的晶元算力严重不足,在伺服器上可以用强大的显卡加速。未来估计深度学习要进一步发展,需要在晶元上加强了,苹果和华为都在7nm的手机晶元上有神经网路晶元,但对通用的智能计算来说并不好用,未来可能会有更加通用性能直逼显卡的神经网路晶元问世。

所以AI晶元是人工智慧产业竞争的关键。


第一次输出的结果都不一定对,加强这个不一定对的结果为啥能提高准确性?


半监督学习里的self-training了解一下?

这个办法我试过,一开始挑选一些置信度非常高的,并且经过人工筛查的样本,放入到训练集里去,但经过几轮之后,训练集基本就不变化了。因为本来分类器就能做对的样本,就只是把这些样本强化(过拟合)了而已,做不对的还是做不对,没有办法进一步提高模型的泛化能力。


这个想法还是很有趣的。将未标签的数据输入到一个确定的网路中得到soft target,然后是可以利用soft target来做一些事情。

比如Distillation就是设计更简单的网路结构来回归这些soft targets,以实现简单网路模拟复杂深度网路的特性。

还有就是上面提到的tansfer learning,也包括secure learning一大类都会涉及到soft targets的概念。

另外今天看到一篇文章中提到了fine tune,feature extraction,以及unforgettable learning中对历史网路结构与参数的讨论和想法也与你说的这个前提有关。

不过简单的加大权重训练就不太对了,因为soft targets并不是ground truth,不能像期待监督学习一样期待它能有很好的表现。

高三党有这个idea已经很棒了。

另外,cv Ai真的已经到了普及教育的阶段了嘛??


增强学习了解下。

把你说的人脸识别系统整个看成一个简单的增强学习系统。你之前做人脸分类的分类器看做是生成策略的模型(每种策略对应到选择一个人脸分类,这样人脸分类问题就变成了策略选择问题),然后生成的「策略「跟真实的label的比对作为评价函数,这样就可以用叫做policy gradient的增强学习演算法来通过不断输出结果来优化系统。


目前都是反馈优化的方式,只不过具体的反馈方式不同,比如SGD,ADAM以及最新的一些迭代反馈方法。

全监督,半监督和无监督学习的反馈数据来源不同,比如标记样本,GAN小样本同步对抗生成,强化的环境反馈奖励函数等等。

基本思想就是通过对输出准确率和有效性的修正来反馈调节网路参数或模型结构实现的。


大部分回答让我看到怀疑人生,真的做过机器学习么。。

题主牛b,早生三十年,你就是机器学习大牛了。boost干的就是这个事情,典型演算法adaboost gbdt,许多数据比赛中的王者。深入一点说,本质上是构造一系列的可加模型,训练时候依据前面模型的结果对样本加权来训练后面模型,最后根据所有模型结果来对每个模型加权获得最终预测结果。


谢邀。

不荒谬,这有个术语,弱监督学习


当然是可以的

可以看一下大连理工卢湖川教授团队的RFCN等文章,都是通过预测结果,并将结果再做处理输入到网路中。


看了一圈。

难道这些评论里搞深度学习的都不知道 adboost xgboost?

在传统机器学习中集成学习就是这个思路。

每次拟合上一模型的残差或者加重预测错误的输入权重。构建n个基模型共同组成一个新的模型。


高三的小兄弟不懂事啊,这不用假设,阿尔法狗大战李世石那年就已经有演算法识别率高达90%,能别问这种没营养的问题了不


伪标签了解一下:

https://www.analyticsvidhya.com/blog/2017/09/pseudo-labelling-semi-supervised-learning-technique


推荐阅读:
相关文章