• 零基础入门神经网络:从原理、主要类型到行业应用

    而且,多层神经网络的预测精度很大程度上依赖于神经网络结构,预处理的数据,以及该神经网络解决问题类型。卷积神经网络 卷积神经网络,这个名字是来源于“卷积”运算符。它的主要目的,在于从输入的图像中提取...
    文章 2018-01-01 1115浏览量
  • 用深度学习每次得到的结果都不一样,怎么办?

    神经网络特意用随机性来保证,能通过有效学习得到问题的近似函数。采用随机性的原因是:用它的机器学习算法,要比不用它的效果更好。在神经网络中,最常见的利用随机性的方式是网络权值的随机初始化,尽管在其他地方...
    文章 2017-08-03 4206浏览量
  • 神经网络权重初始化问题

    之前看Andrew大神的视频有介绍到神经网络权重需要随机初始化而不是全初始化为0的问题,其真正深层次的含义没有弄明白,所以结合一些资料(cs231n课程)希望能让自己之后再想到这个问题的时候能够快速地明白过来。...
    文章 2017-09-01 863浏览量
  • 机器学习中用来防止过拟合的方法有哪些?

    既然训练复杂神经网络比较慢,那我们就可以只使用简单的神经网络(层数、神经元数限制等)。通过训练一系列简单的神经网络,加权平均其输出。3.3 Dropout 这是一个很高效的方法。在训练时,每次随机(如 50%概率)...
    文章 2017-08-02 1365浏览量
  • 北大计算机系黄铁军CCF-ADL讲习班上篇:从计算机发展...

    目前自动计算机、编程语言、计算规模理论已经弄清楚了,而神经网络、自我改进、抽象、随机性和创造性等问题还不明晰。他们当时就在考虑,一群神经元如何形成概念,我们今天的深度学习也形不成概念,还有第五个问题,...
    文章 2017-11-09 1389浏览量
  • 这些深度学习术语,你了解多少?...

    消失梯度问题通常出现在非常深的神经网络中,通常是递归神经网络,因为它使用了使梯度趋于很小的激活函数(在0到1的范围内)。而这些小梯度在反向传播期间成倍增加,所以它们倾向于在整个层中“消失”,从而阻止网络...
    文章 2018-10-26 1517浏览量
  • 独家|一文读懂神经网络(附解读&案例)

    对于神经网络来说,局部最小值是一个非常棘手的问题,因为神经网络的公式并不能保证我们能达到全局最小值。陷入局部最小值意味着我们仅对参数进行了局部优化,但在损失函数表面的某个点可能存在更优解。神经网络损失...
    文章 2019-08-28 1782浏览量
  • 这份深度学习课程笔记获吴恩达点赞

    左上:神经网络的参数化容量随层数增加而指数式地增长,即某些深度神经网络解决问题,浅层神经网络需要相对的指数量级的计算才能解决。左下:CNN 的深度网络可以将底层的简单特征逐层组合成越来越复杂的特征,...
    文章 2018-03-12 3264浏览量
  • 干货|算法工程师入门第一期——罗恒讲深度学习

    很快,Minsky和Papert的《感知器》里面证明了上面的感知器不能解决异或等一大类问题,这本书因此也造成了神经网络研究的第一次低潮。有趣的是,其实也就是在《感知器》里面,作者指出如果在网络中能够增加一些额外的...
    文章 2017-08-01 1633浏览量
  • 认知推理:从图表示学习和图神经网络的最新理论看AI的...

    但是这样又出现了新的问题:我们现在怎么来做 GNN 或者图神经网络呢?毕竟在图神经网络中要结合网络化的信息,如刚才提到的网络表示学习结合的是一个上下文信息,用上下文信息做这种网络表示学习,怎么真的把这种...
    文章 2020-04-14 1487浏览量
  • 关于神经网络,这里有你想要了解的一切!

    1986年,Rumelhart,Hinton和Williams宣布了反向传播算法的发展,它们可以解决XOR等问题,于是又开启了神经网络时代。在同一年,出版了由Rumelhart和McClelland编辑的《Parallel Distributed Processing:...
    文章 2018-05-28 3045浏览量
  • 深度学习教程|深度学习的实用层面

    4.Dropout 正则化在神经网络中,另外一种很有效的正则化方式叫做Dropout(随机失活),它是指在神经网络的隐藏层为每个神经元结点设置一个随机关闭的概率,保留下来的神经元形成一个结点较少、规模较小的网络用于训练...
    文章 2022-04-21 85浏览量
  • 干货|模型表现不好怎么办?37条妙计助你扭转局势

    你选的优化器应该不会妨碍神经网络的训练,除非你选的超参数特别有问题。但是,适合某一任务的优化器有助于在最短的时间内完成最多的训练。看看介绍算法的论文,里面应该说名该使用什么优化器。如果没有说的话,我...
    文章 2017-08-01 1121浏览量
  • 如何调试神经网络(深度神经网络)?

    神经网络不再学习的时候该怎么做?当你不再碰到NaN的时候,很可能就会遇到这样一种情况,你的网络平滑的训练的几千次,但是loss却在前几百个回合后不再减小。如果你是初次构建代码库的话,超过2000次的等待很难给...
    文章 2017-08-01 1199浏览量
  • 鉴定AlexNet、ZFNet、VGG、GoogLeNet等热门卷积神经...

    它是2012年ImageNet视觉识别挑战赛的冠军模型主体贡献提出了一种卷积层加全连接层的卷积神经网络结构(...解决神经网络参数多而容易过拟合的缺点)使用加入动量的小批量梯度下降算法加速了训练过程的收敛(降低计算量...
    文章 2022-09-22 57浏览量
  • 中国人工智能学会通讯——迎接深度学习的“大”挑战...

    摘要:本部分主要介绍了近年人工智能所取得的应用成果、什么是深度神经网络以及它所带来的挑战等问题。为什么要讲这个题目呢?深度学习这几年改变了很多行业的状态,今天上午张老师应该也讲了很多关于神经网络的话题...
    文章 2017-09-01 1081浏览量
  • Facebook这个神经网络用自然语言表示数学式,秒解微分...

    Facebook的神经网络也可以计算积分和求解微分方程啦&xff01;尽管其他的神经网络还没有超越简单的加减法和乘除法。这是怎么回事呢&xff1f;让我们来一探究竟&xff01;近日&xff0c;Facebook AI Research的研究人员Guillaume ...
    文章 2022-01-07 93浏览量
  • 数学建模十大算法

    此方法使用随机数(或更常见的伪随机数)来解决很多计算问题的方 法。由于传统的经验方法由于不能逼近真实的物理过程,很难得到满意的结果,而蒙特卡罗方法由于能够真 实地模拟实际物理过程,故解决问题与实际非常...
    文章 2014-11-11 2995浏览量
  • 周志华《Machine Learning》学习笔记(6)-神经网络

    上篇主要讨论了决策树算法。首先从决策树的基本概念出发&xff0c;引出决策树基于树形结构进行决策&xff0c;进一步介绍了构造决策树的递归流程以及其递归终止条件&xff0c;...那要怎么有效地训练多隐层神经网络...
    文章 2022-12-08 22浏览量
  • 深度学习笔记之神经网络、激活函数、目标函数和深度的...

    AI技术研究的兴起,伴随着两种最直观的思维技巧,即遗传算法与神经网络,这是对生物学研究最直观的技术抽象。深度学习的前身就是神经网络,这个80年代灵光乍现的技术,在那一波人工智能的大潮驱使下,带着人们对于...
    文章 2017-11-07 2581浏览量
  • 从零开始教你训练神经网络(附公式&学习资源)

    现代神经网络已经发现了解决这个问题的方法,但是我们在这里还是在这个限制下设计神经网络。现在我们定义一下神经网络神经网络也是一个数学函数,它就是很多相互连接的神经元,这里的连接指的是一个神经元的输出被...
    文章 2017-12-18 3012浏览量
  • 神经网络和数学之间的联系在哪里?看完你就明白

    好,我们现在顺利的将一个神经网络解决的事情转变为一个多元函数的最优化上面来了。现在的问题怎么修改 w,来使得 C 越来越往最小值靠近呢。常见的方法我们可以采取梯度下降法(为什么梯度下降法中梯度的反方向...
    文章 2017-08-23 1619浏览量
  • DeepMind:深度学习原理初探

    在深入深度学习的实现过程之前,文章先介绍了机器学习和人工神经网络的概念。机器学习的一个非常通常的任务是这样的:给出了一个目标的信息,从而能够知道它属于哪个种类。在深度学习的过程中,程序想要决定在目前...
    文章 2017-05-02 962浏览量
  • PyTorch入门教程

    在本节中,我们将通过实现一个简单的神经网络解决二进制分类问题。现在,试着在PyTorch中以超级简单的方式发现差异(在下面的代码中用粗体表示差异)。与其它深度学习库比较 通过这个基准测试脚本中可以看出,...
    文章 2018-03-01 6649浏览量
  • 第7章 使用Keras开发神经网络

    训练神经网络的意义是:找到最好的一组权重,解决问题。我们需要定义损失函数和优化算法,以及需要收集的数据。我们使用binary_crossentropy,错误的对数作为损失函数;adam作为优化算法,因为这东西好用。想深入...
    文章 2018-06-01 1478浏览量
  • 为什么要用深度学习?

    深层神经网络在自然问题上更具优势,因为它和生物学习一样,是找回使熵增加的“物理关系”(知识,并非完全一样),将变体()转化回因素()附带物理关系的形式,从源头消除熵(假设每个因素只有两种可能状态)。...
    文章 2017-08-01 3823浏览量
  • 深度学习教程|AI应用实践策略(下)

    7.多任务学习除了我们前面讲到的构建神经网络解决二分类或者多分类任务,神经网络还可以完成多任务学习(Multi-Task Learning),它指的是使用单个神经网络模型,利用共享表示采用并行训练同时学习多个任务。...
    文章 2022-04-21 155浏览量
  • 周志华KDD China技术峰会现场演讲:深度学习并不是在...

    比如说对神经网络这样的模型,我们怎么样提升它的复杂度呢?很明显的就有两个办法,一个办法,是把网络加宽,另外一个办法,是把它加深。但是如果从提升复杂度的角度来说,加深会更有用。因为你加宽的话其实是增加了...
    文章 2017-08-01 1454浏览量
  • 手把手,74行代码实现手写数字识别

    上文已经图解的方式介绍了机器学习解决问题的一般思路,但是具体到神经网络将是如何训练呢?其实最快的方式是直接阅读代码。我们将代码的结构用下图展示出来,运用其内置函数名表示基本过程,发现与我们上文分析的...
    文章 2017-05-02 2401浏览量
  • 27种神经网络简明图解:模型那么多,我该怎么选?

    神经网络竟有那么多种?这篇文章将逐一介绍下面这张图片中的27种神经网络类型,并尝试解释如何使用它们。准备好了吗?让我们开始吧!神经网络的种类越来越多,可以说是在呈指数级地增长。我们需要一个一目了然的图表...
    文章 2018-01-23 12265浏览量
1 2 3 4 ... 18 >

云产品推荐

视频直播 大数据计算服务 MaxCompute 国内短信套餐包 开发者问答 阿里云建站 新零售智能客服 万网 小程序开发制作 视频内容分析 视频集锦 代理记账服务 阿里云AIoT 阿里云科技驱动中小企业数字化
http://www.vxiaotou.com