• 深度|Google Brain研究工程师:为什么随机性对于深度...

    随机噪声使得神经网络在单输入的情况下产生多输出的结果;随机噪音限制了信息在网络中的流向,促使网络学习数据中有意义的主要信息;随机噪声在梯度下降的时候提供了“探索能量”,使得网络可以寻找到更好的优化结果...
    文章 2017-05-02 2031浏览量
  • 如何为你的回归问题选择最合适的机器学习算法?

    接下来,我们大致浏览几种常见的用于回归问题的机器学习算法,并根据它们的优点和缺点总结什么情况下可以使用。线性和多项式回归 首先是简单的情况,单一变量的线性回归是用于表示单一输入自变量和因变量之间的...
    文章 2018-09-10 2174浏览量
  • CNN超参数优化和可视化技巧详解

    有研究指出,在深度神经网络的超参数调整中,随机搜索方法比网格搜索的效率更高,具体可参考文末中的“随机搜索在超参数优化中的应用”。当然,可根据神经网络的理论经验,进行超参数的手动调整在一些场景下也是可行...
    文章 2018-01-09 2142浏览量
  • 机器学习中用来防止过拟合的方法有哪些?

    既然训练复杂神经网络比较慢,那我们就可以只使用简单的神经网络(层数、神经元数限制等)。通过训练一系列简单的神经网络,加权平均其输出。3.3 Dropout 这是一个很高效的方法。在训练时,每次随机(如 50%概率)...
    文章 2017-08-02 1365浏览量
  • 神经网络权重初始化问题

    之前看Andrew大神的视频有介绍到神经网络权重需要随机初始化而不是全初始化为0的问题,其真正深层次的含义没有弄明白,所以结合一些资料(cs231n课程)希望能让自己之后再想到这个问题的时候能够快速地明白过来。...
    文章 2017-09-01 863浏览量
  • 【深度】“信息瓶颈”理论揭示深度学习本质,Hinton说...

    在一种情况下,研究人员使用小型神经网络,使用随机梯度下降和BP,经过训练后,能够用1或0(也即“是狗”或“不是狗”)标记输入数据,并给其282个神经连接随机初始强度,然后跟踪了网络在接收3000个样本输入数据...
    文章 2017-09-22 4584浏览量
  • 用深度学习每次得到的结果都不一样,怎么办?

    神经网络特意用随机性来保证,能通过有效学习得到问题的近似函数。采用随机性的原因是:用它的机器学习算法,要比不用它的效果更好。在神经网络中,最常见的利用随机性的方式是网络权值的随机初始化,尽管在其他地方...
    文章 2017-08-03 4206浏览量
  • 神经网络 11 大常见陷阱及应对方法

    本文作者列举了搭建神经网络时可能遇到的11个常见问题,包括预处理数据、正则化、学习率、激活函数、网络权重设置等,并提供解决方法和原因解释,是深度学习实践的有用资料。如果你的神经网络不工作,该怎么办?作者...
    文章 2017-09-07 14593浏览量
  • 人工智能研究应从三个问题重新考虑

    所以我这里讲的第二个问题什么东西呢?就是说在所谓的内脑计算,就是或者更广一点就是人工智能系统的时候,一定要说清楚,我要这人工智能系统做什么事情?假定我说我就要开发一个人工智能系统,而不是说人工智能系统...
    文章 2017-09-06 880浏览量
  • 人工智能研究应从三个问题重新考虑

    所以我这里讲的第二个问题什么东西呢?就是说在所谓的内脑计算,就是或者更广一点就是人工智能系统的时候,一定要说清楚,我要这人工智能系统做什么事情?假定我说我就要开发一个人工智能系统,而不是说人工智能系统...
    文章 2017-08-02 1677浏览量
  • 神经网络 11 大常见陷阱及应对方法

    作者在这里列了建神经网络时所有可能做错的事情,以及他自己的解决经验。忘记规范化数据 忘记检查结果 忘记预处理数据 忘记使用正则化 使用的batch太大 使用了不正确的学习率 在最后层使用了错误的激活函数 你的...
    文章 2017-08-01 1675浏览量
  • 辨别真假数据科学家必备手册:深度学习45个基础问题...

    给定上述关于神经网络的描述,什么情况神经网络模型被称为深度学习模型?加入更多层,使神经网络的深度增加 有维度更高的数据 当这是一个图形识别的问题时 以上都不正确 答案:(A) 更多层意味着网络更深。没有...
    文章 2017-05-23 3036浏览量
  • 不止图像识别,Facebook谷歌正教机器人成为抽象画家

    2014年11月,谷歌研究院发表的一篇博文称,未来谷歌的图形识别引擎不仅仅能够识别照片的对象,还能够对整个物理场景进行简短而准确的描述,也就是“图像识别神经网络”(简称“神经元网络”)。对该技术进行研究的...
    文章 2017-05-02 1102浏览量
  • 带你走进神经网络的“前世今生”

    根据梯度下降的原则来得出参数结果,但问题是对于隐层来说,虽然我们可以计算其模型输出,但是却不知道它的期望输出是什么,也就没有办法去高效训练一个多层神经网络。这也是困扰了当时学术界很长时间的一个问题,...
    文章 2018-03-21 5363浏览量
  • 浅谈神经网络中的梯度爆炸问题

    比如随机梯度下降(Stochastic gradient descent,SGD)、小批量梯度下降(Mini Batch Gradient Descent)等,但对于梯度下降算法而言,难免需要考虑梯度下降算法中遇到的梯度弥散以及梯度爆炸等问题,本文主要讲解...
    文章 2017-12-18 7344浏览量
  • 浅谈神经网络中的梯度爆炸问题

    比如随机梯度下降(Stochastic gradient descent,SGD)、小批量梯度下降(Mini Batch Gradient Descent)等,但对于梯度下降算法而言,难免需要考虑梯度下降算法中遇到的梯度弥散以及梯度爆炸等问题,本文主要讲解...
    文章 2017-12-27 1643浏览量
  • 看最新进展深入了解深度学习

    众所周知,MNIST上的CNN(卷积神经网络)和PTB上的RNN(循环神经网络)就是这种情况,但是这项研究将这一说法扩展到更高级的数据集(CIFAR10 and CIFAR100)上以训练更大型的网络(DenseNets and ResNets)。为了找到这个...
    文章 2018-08-31 1373浏览量
  • 顶尖人工智能无法识别这些简单图像

    当然,人类精心制作这些图像来愚弄 AI 也说明了一个问题,即神经网络的规模和复杂性已经超出人类的理解范畴—哪怕我们知道 AI 能识别图像,但对它们如何识别图像却并不知晓。类似的研究其目的正是想通过逆向工程的...
    文章 2017-05-02 1400浏览量
  • 调试神经网络让人抓狂?这有16条锦囊妙计送给你

    神经网络问题 首先尝试简单的模型 我看到太多人一上来就尝试ResNet-50、VGG19等标准的大型网络,结果发现他们的问题其实只要几层网络就能解决。所以如果不是有什么恋大的情结,麻烦你从小型网络开始着手。增加的东西...
    文章 2018-01-16 1050浏览量
  • 当你的深度学习模型走进死胡同,问问自己这5个问题

    这将迫使你开始随机初始化神经网络,也就意味着可能经过好几天的训练,你还不知道自己的模型效果如何。你的模型可能还面临着一个问题:数据集太小了或者质量太差了,即使通过旋转、变形等手段扩充之后,也还是达不到...
    文章 2018-01-16 939浏览量
  • 一文读懂神经网络(附PPT、视频)

    根据梯度下降的原则来得出参数结果,但问题是对于隐层来说,虽然我们可以计算其模型输出,但是却不知道它的期望输出是什么,也就没有办法去高效训练一个多层神经网络。这也是困扰了当时学术界很长时间的一个问题,...
    文章 2018-03-26 3391浏览量
  • 独家|一文读懂神经网络(附解读&案例)

    对于神经网络来说,局部最小值是一个非常棘手的问题,因为神经网络的公式并不能保证我们能达到全局最小值。陷入局部最小值意味着我们仅对参数进行了局部优化,但在损失函数表面的某个点可能存在更优解。神经网络损失...
    文章 2019-08-28 1782浏览量
  • 使用python创建自己的第一个神经网络模型吧!

    如果我们将数千个这些人工神经网络集合在一起会发生什么情况呢?我们可以100%模仿人类思维吗?答案是肯定的,但是目前实现起来是比较困难的,只能说是十分相近。对此感兴趣的读者可以阅读与深度学习相关的资料。作者...
    文章 2018-10-03 7013浏览量
  • 一读即懂的神经网络图解指南

    了解神经网络内部结构有什么用?如果你对神经网络内部结构有所了解,就能在遇到问题的时候知道如何做出调整,并且能够定制相应的策略来完成对算法的测试。调试机器学习模型是一项复杂的任务。模型在初期可能并不奏效...
    文章 2019-08-05 830浏览量
  • 独家|一文读懂人工神经网络学习原理

    神经网络随机初始化权重 我们将第一组输入值发送给神经网络,使其传播通过网络并得到输出值。我们将输出值和期望的输出值进行比较,并使用成本函数计算误差。我们将误差传播回网络,并根据这些信息设置权重。...
    文章 2018-02-06 3215浏览量
  • 我搭的神经网络不 work 该怎么办!看看这 11 条新手最...

    当期望的输出值是 255,神经网络开始训练时情况会极不稳定,因为实际产生的值为-1 或者 1,对大多数用来训练神经网络的优化算法来说,这和 255 相比都有巨大的误差。这将会产生巨大的梯度,你的训练误差很可能会爆表...
    文章 2017-10-24 869浏览量
  • 我搭的神经网络不work该怎么办!看看这11条新手最容易...

    当期望的输出值是255,神经网络开始训练时情况会极不稳定,因为实际产生的值为-1或者1,对大多数用来训练神经网络的优化算法来说,这和255相比都有巨大的误差。这将会产生巨大的梯度,你的训练误差很可能会爆表。...
    文章 2018-01-08 940浏览量
  • 27种神经网络简明图解:模型那么多,我该怎么选?

    SVM不是所有情况下都被叫做神经网络。神经图灵机(NTM) 神经网络像是黑箱——我们可以训练它们,得到结果,增强它们,但实际的决定路径大多数我们都是不可见的。神经图灵机(NTM)就是在尝试解决这个问题——它是...
    文章 2018-01-23 12265浏览量
  • 关于神经网络,这里有你想要了解的一切!

    1986年,Rumelhart,Hinton和Williams宣布了反向传播算法的发展,它们可以解决XOR等问题,于是又开启了神经网络时代。在同一年,出版了由Rumelhart和McClelland编辑的《Parallel Distributed Processing:...
    文章 2018-05-28 3045浏览量
  • 吴恩达深度学习课程笔记-Classes 1

    尽管对于任何给定的问题很难去提前预测到底需要多深的神经网络,所以先去尝试逻辑回归,尝试一层然后两层隐含层,然后把隐含层的数量看做是另一个可以自由选择大小的超参数,然后再保留交叉验证数据上评估,或者用你...
    文章 2020-04-07 1083浏览量
1 2 3 4 ... 41 >

云产品推荐

视频直播 大数据计算服务 MaxCompute 国内短信套餐包 开发者问答 阿里云建站 新零售智能客服 万网 小程序开发制作 视频内容分析 视频集锦 代理记账服务 阿里云AIoT 阿里云科技驱动中小企业数字化
http://www.vxiaotou.com