• 北大计算机系黄铁军CCF-ADL讲习班上篇:从计算机发展...

    目前自动计算机、编程语言、计算规模理论已经弄清楚了,而神经网络、自我改进、抽象、随机性和创造性等问题还不明晰。他们当时就在考虑,一群神经元如何形成概念,我们今天的深度学习也形不成概念,还有第五个问题,...
    文章 2017-11-09 1391浏览量
  • 这份深度学习课程笔记获吴恩达点赞

    左上:神经网络的参数化容量随层数增加而指数式地增长,即某些深度神经网络解决问题,浅层神经网络需要相对的指数量级的计算才能解决。左下:CNN 的深度网络可以将底层的简单特征逐层组合成越来越复杂的特征,...
    文章 2018-03-12 3266浏览量
  • 这些深度学习术语,你了解多少?...

    消失梯度问题通常出现在非常深的神经网络中,通常是递归神经网络,因为它使用了使梯度趋于很小的激活函数(在0到1的范围内)。而这些小梯度在反向传播期间成倍增加,所以它们倾向于在整个层中“消失”,从而阻止网络...
    文章 2018-10-26 1517浏览量
  • 如何调试神经网络(深度神经网络)?

    神经网络不再学习的时候该怎么做?当你不再碰到NaN的时候,很可能就会遇到这样一种情况,你的网络平滑的训练的几千次,但是loss却在前几百个回合后不再减小。如果你是初次构建代码库的话,超过2000次的等待很难给...
    文章 2017-08-01 1200浏览量
  • 深度学习教程|深度学习的实用层面

    4.Dropout 正则化在神经网络中,另外一种很有效的正则化方式叫做Dropout(随机失活),它是指在神经网络的隐藏层为每个神经元结点设置一个随机关闭的概率,保留下来的神经元形成一个结点较少、规模较小的网络用于训练...
    文章 2022-04-21 87浏览量
  • 独家|一文读懂神经网络(附解读&案例)

    这就是深度学习领域(深度指神经网络的多个层次)出现和发展的原因,深度学习在机器学习和大多数涉及数据分类和预测的领域占据着当代研究文献的主导地位。总结 本文讨论了神经网络的动机和背景,并概述了怎样训练...
    文章 2019-08-28 1788浏览量
  • 干货|算法工程师入门第一期——罗恒讲深度学习

    很快,Minsky和Papert的《感知器》里面证明了上面的感知器不能解决异或等一大类问题,这本书因此也造成了神经网络研究的第一次低潮。有趣的是,其实也就是在《感知器》里面,作者指出如果在网络中能够增加一些额外的...
    文章 2017-08-01 1636浏览量
  • 干货|模型表现不好怎么办?37条妙计助你扭转局势

    我的损失函数经常有些细小的错误,导致神经网络的运行出现细微的偏差。19.确认损失输入 如果你使用自己框架下的损失函数,一定要注意,输入给它的数据得符合其预期。例如,在 PyTorch 里我会混淆 NLLLoss 和 ...
    文章 2017-08-01 1124浏览量
  • 认知推理:从图表示学习和图神经网络的最新理论看AI的...

    但是这样又出现了新的问题:我们现在怎么来做 GNN 或者图神经网络呢?毕竟在图神经网络中要结合网络化的信息,如刚才提到的网络表示学习结合的是一个上下文信息,用上下文信息做这种网络表示学习,怎么真的把这种...
    文章 2020-04-14 1495浏览量
  • 数学建模十大算法

    此方法使用随机数(或更常见的伪随机数)来解决很多计算问题的方 法。由于传统的经验方法由于不能逼近真实的物理过程,很难得到满意的结果,而蒙特卡罗方法由于能够真 实地模拟实际物理过程,故解决问题与实际非常...
    文章 2014-11-11 2996浏览量
  • 深度学习教程|AI应用实践策略(下)

    7.多任务学习除了我们前面讲到的构建神经网络解决二分类或者多分类任务,神经网络还可以完成多任务学习(Multi-Task Learning),它指的是使用单个神经网络模型,利用共享表示采用并行训练同时学习多个任务。...
    文章 2022-04-21 158浏览量
  • 中国人工智能学会通讯——迎接深度学习的“大”挑战...

    摘要:本部分主要介绍了近年人工智能所取得的应用成果、什么是深度神经网络以及它所带来的挑战等问题。为什么要讲这个题目呢?深度学习这几年改变了很多行业的状态,今天上午张老师应该也讲了很多关于神经网络的话题...
    文章 2017-09-01 1083浏览量
  • 深度学习笔记之神经网络、激活函数、目标函数和深度的...

    AI技术研究的兴起,伴随着两种最直观的思维技巧,即遗传算法与神经网络,这是对生物学研究最直观的技术抽象。深度学习的前身就是神经网络,这个80年代灵光乍现的技术,在那一波人工智能的大潮驱使下,带着人们对于...
    文章 2017-11-07 2588浏览量
  • 神经网络和数学之间的联系在哪里?看完你就明白

    我的疑惑就是为什么不可以直接求偏导,而必须出现 BP 算法之后才使得神经网络如此的适用呢?下面给出我的思考和理解(欢迎交流~) 1.为什么不可以直接求导数?在神经网络中,由于激活函数的存在,很多时候我们在最后...
    文章 2017-08-23 1620浏览量
  • 27种神经网络简明图解:模型那么多,我该怎么选?

    神经网络竟有那么多种?这篇文章将逐一介绍下面这张图片中的27种神经网络类型,并尝试解释如何使用它们。准备好了吗?让我们开始吧!神经网络的种类越来越多,可以说是在呈指数级地增长。我们需要一个一目了然的图表...
    文章 2018-01-23 12293浏览量
  • 为什么要用深度学习?

    深层神经网络在自然问题上更具优势,因为它和生物学习一样,是找回使熵增加的“物理关系”(知识,并非完全一样),将变体()转化回因素()附带物理关系的形式,从源头消除熵(假设每个因素只有两种可能状态)。...
    文章 2017-08-01 3827浏览量
  • 深度|Nature:我们能打开人工智能的“黑箱”吗?

    经过大量测试软件对不同视觉刺激的反应后,Pomerleau 才发现问题所在:神经网络一直把长满草的路边当做向导,因此突然出现的大桥迷惑了它。二十五年后,破解黑箱问题的难度急剧增加,也更为紧迫。这项技术本身的复杂...
    文章 2017-08-01 1350浏览量
  • 深度学习必备手册(上)

    深度学习的概念源于人工神经网络的研究,如果追溯深度学习的概念还是要回到2006年Hinton那篇论文,基于深信度网(DNB)提出非监督贪心逐层训练算法,未解决深层结构相关的优化难题出现的论文。其实,对于我们人类而...
    文章 2017-10-04 37287浏览量
  • GMIS 2017|NIPS最佳论文作者之一吴翼:价值迭代网络

    训练好的神经网络可以在训练中出现过的地图上表现完美&xff0c;但是在没有见过的测试地图上&xff0c;它并不能很好的完成任务。那么为什么反应式网络不能很好的泛化呢&xff1f;我们之前讨论的任务都需要连续做出一些决策。...
    文章 2021-11-28 92浏览量
  • ACL2016最佳论文:CNN/日常邮件阅读理解任务的彻底...

    Hermann等人通过生成一个超过百万的实例(将CNN和日常邮件消息与他们自己总结的重点进行配对)来寻求解决方案,结果显示神经网络可以通过训练,提高在该任务方面的性能。本文中,我们对这项新的阅读理解任务进行了...
    文章 2017-08-01 946浏览量
  • 工程师如何给女友买包?问问阿里“百事通”

    解决门控卷积神经网络位置信息丢失的问题,我们在输入矩阵中引入位置向量,以保证卷积过程中模型对于位置信息的敏感性。同时,我们将词性信息(POS tag)引入输入矩阵,词性信息中所包含的句法和词法信息能够更好...
    文章 2019-12-28 1420浏览量
  • 为什么深度学习没有取代传统的计算机视觉?

    了解这可以帮助你了解你的神经网络做了什么,因此可以更好地设计和调整你尝试解决的任务。然后还有一件事叫做预处理。这是经常对你提供的模型的数据进行准备以进行训练。这些预处理步骤主要通过传统的计算机视觉技术...
    文章 2018-03-15 6075浏览量
  • 如何通过梯度上升实现可视化卷积核?

    如果你有精力,还可以自己动手指定dropout的神经元,查看自己的卷积神经网络为什么会过度拟合,可以怎么修剪网络。这是一个很有趣的过程,也是一个考验人类耐心的过程。CNN真的理解视觉吗 卷积神经网络CNN的两个主要...
    文章 2018-01-03 1453浏览量
  • 神经网络的初始化方法总结|又名“如何选择合适的初始...

    请参阅 Pierre Ouannes 的文章《如何初始化深度神经网络&xff1f;Xavier 和 Kaiming 初始化》。6.Pre-trained使用预训练的权重作为初始化&xff0c;相比于其它初始化&xff0c;收敛速度更快&xff0c;起点更好。除了以上的初始...
    文章 2022-04-24 159浏览量
  • 李飞飞发布的谷歌AutoML真的能让AI民主化么?

    迁移学习的基本原则是利用神经网络架构,对相似的问题进行经验推广:例如,许多图像具有各种各样的底层特征(例如角落,圆圈,狗脸或轮子)。而神经架构搜索的基本原则恰恰相反,其认为,每个数据集都拥有一个让其...
    文章 2018-07-27 1382浏览量
  • 一个java工程师眼里的人工智能

    G.E.Hinton和T.J.Sejnowski借助统计物理学的概念和方法提出了一种随机神经网络模型—玻尔兹曼(Blotzmann)机。1986年,贝尔实验室宣布制成神经网络芯片不久,美国的David.E.Rnmelhart和James L.McCelland及其领导的...
    文章 2017-04-28 17190浏览量
  • 深度学习必备手册(下)

    如果你可以接受大多数种类的问题都可以约化成函数,那么这句话就是说,神经网络可以在理论上解决任何问题。11.深度学习:随机值不可思议的有效性 摘要:随机性在深度学习中有多么重要?这篇文章或许能给你答案。12....
    文章 2017-10-04 12590浏览量
  • 深度学习要多深,才能了解你的心?...

    大规模id特征实时深度神经网络模型,可以处理上亿维度的id类输入特征,并通过复杂神经网络结构对不同域的特征(用户,宝贝,query)进行特征组合,解决了单一线性模型无法处理特征交叉的问题,同时也避免了人工构造高...
    文章 2017-06-21 4007浏览量
  • 深度学习模型训练痛点及解决方法

    神经网络中,因为参数众多,经常出现参数比输入样本数据还多的情况,这就导致很容易出现模型只记住了训练集特征的情况。我们有两个思路来解决这个问题。一是增大样本量,另外就是减少特征量。2.3.1 输入增强,增大...
    文章 2018-05-31 7845浏览量
  • 和 Geoffery Hinton 面对面聊聊

    主持人:那么,当你发现神经网络能很好地解决语音识别问题以后,你是什么时候开始尝试用它解决其他的问题的?Hinton:嗯这之后我们就开始在各种问题上尝试这个方法。最早用神经网络做语音识别的是 George Dahl,他又...
    文章 2019-05-15 704浏览量
1 2 3 4 ... 12 >

云产品推荐

视频直播 大数据计算服务 MaxCompute 国内短信套餐包 开发者问答 阿里云建站 新零售智能客服 万网 小程序开发制作 视频内容分析 视频集锦 代理记账服务 阿里云AIoT 阿里云科技驱动中小企业数字化
http://www.vxiaotou.com