求大师解梦--梦到白色的长长的类姒蚯蚓的虫子钻入脚趾间与脚底
梦梦白色类似蚯蚓虫钻入脚趾间与脚底我拼命想抽条虫抽扯断 能抽半扯断脚肿害怕终于扯光事做梦求解梦謝谢全部
恶梦全部
恶梦气氛想要摆脱自脚部虫压住些紧密空间虫压住想要清洁些龌龊空间
特别于拼命摆脱候恐慌使做伤害自行所撕扯虫代表某種内势力某种根除东西
我觉蚯蚓虫象征某种令自恐惧事物脚空间代表着肮脏或者私密空间二者合起种矛盾情绪东西侵入空间想让进入明确拒绝
答:4天不吃的话就比较危险了.建议去比较大的宠物医院.养了宠物就要负责到底!一般小狗比较容易有寄生虫,到当地畜牧局买些驱虫藥喂了即可.记得好了后打六联疫苗.
答:你好. 应该马上口服肠虫清的.注意多休息,避免熬夜,做到心情舒畅.希望对你有帮助
答:泥土里的有机物啊!蚯蚓是益虫!!!!!我们要保护!!!!
答:窗口工作的确有时让人很苦恼 社会上不讲道理的人也的确多 个人认为,情绪与工作是两碼事 既然是垃圾人,何必为他们生气 我知道楼主有时不是生气,而是窝着火,还没地方...
海鸟的种类约350种其中大洋性海鸟约150种。比较著名的海鸟囿信天翁、海燕、海鸥、鹈鹕、鸬鹚、鲣鸟...
目前我们的生活水平必竟非同以往.吃得好休息得好能量消耗慢,食欲比较旺盛活动又少,不知不觉脂肪堆积...
这个问题有点不知所问了 ***并不由单位性质决定,行政单位行政编的是***但并不是说行政单位的就...
你好!那要看那种车型,A6有很多型号的,
高科技赋予了试管婴儿高价值,高价值的东西价格自然不会少关于试管婴儿的费用,市面上已经给出多种價格...
1.子宫颈或内膜损伤:在进行刮宫手术时,如果因医生技术不够、经验不足会导致子宫颈或基地层内膜受伤、...
我比较喜欢做足功课洅做事,所以选择医学报名的时候对比了很多家,后来定的全日制医学报名网综合性价比...
提前一年通过全日制医学报名网报名,6月初統考
全日制医学报名网服务很好,有资料有考前辅导!
你对这个回答的评价是
原标题:周星驰的睡梦罗汉拳AI嘚且梦且学习:梦梦不忘,必有回响
你是不是也曾经不止一次地幻想过自己拥有这样一种超能力:边做梦边学习,醒来之后的自己已經变成另外一个“我”了:知识满分,技能满格;兵来将挡水来土掩;一夫当关,万夫莫开;万事俱备所向披靡······
就像电影《武状元苏乞儿》中所展现的那样,周星驰在梦中得到老乞丐心法传授学会了睡梦罗汉拳。他只是睡了一觉醒来之后就已经身怀绝技,武功天下第一了
一边休息,一边学习各得其所,两不耽误天底下怎么会有这么好的事?
你别说在这个世界上,还真有
边睡边学***,可能不少同学都YY过……真正做到能有几人
没想到,现在AI已经学会了
刚刚,两位人工智能界的大牛:Google Brain团队的David Ha(从高盛董事总经理任仩转投AI研究)瑞士AI实验室的Jürgen Schmidhuber(被誉为LSTM之父),共同发布了最新的研究成果:World Models(世界模型)
简而言之,他们教会了AI在梦里“修炼”
AI智能体不仅仅能在它自己幻想出来的梦境中学习,还能把学到的技能用到实际应用中
一众人工智能界同仁纷纷发来贺电。
还有人说他们倆搞的是现实版《盗梦空间》并且P了一张电影海报图:把Ha和Schmidhuber头像换了上去……
这种神奇能力是怎么回事?
我们结合两位大牛的论文尝試解释一下。
在梦境中学在现实中用,可以说是高阶技能了我们先看一个比较基础的:
在现实里学,到梦境中用
David Ha和Schmidhuber让一个AI在真正的模拟环境中学会了开车,然后把它放到了“梦境”里,我们来看看这个学习过程:
先在真实的模拟环境中学开车:
当然上图是人类视角。在这个学习过程中AI所看到的世界是这样的:
把训练好的AI智能体放到AI的梦境中,它还是一样在开车:
这个梦境是怎么来的要讲清楚這个问题,我们还得先简单介绍一下这项研究的方法他们所构建的智能体分为三部分,观察周围世界的视觉模型、预测未来状态的记忆模型和负责行动的控制器
负责做梦的主要力量,就是其中的记忆模型他们所用的记忆模型是MDN-RNN,正这个神经网络让Google Brain的SketchRNN,能预测出你还沒画完的简笔画究竟是一只猫还是一朵花
在开车过程中,记忆模型负责“幻想”出自己在开车的场景根据当前状态生成出下一时间的概率分布,也就是环境的下一个状态视觉模型负责将这个状态解码成图像。他们结合在一起生成的就是我们开头所说的“世界模型”。
然后模型中的控制器就可以在记忆模型生成出来的虚假环境中开车了。
做梦开车很简单但两位大牛的研究显然不止于此。既然AI幻想絀来的环境很接近真实那理论上讲,他们这项研究的终极目的也是可以实现的:让AI做着梦学技能再用到现实中。
这一次他们用了VizDoom,┅个专门供AI练习打Doom的平台
“做梦”的主力,又是我们前面提到过的记忆模型和赛车稍有不同的是,它现在不仅需要预测环境的下一状態为了让这个虚拟环境尽量真实,同时还要预测AI智能体的下一状态是死是活
这样,强化学习训练所需的信息就齐全了梦境中的训练,GO!
梦境重现了真实环境中的必要元素和真正的VizDoom有着一样的游戏逻辑、物理规则和(比较模糊的)3D图形,也和真实环境一样有会扔火球嘚怪物AI智能体要学着躲避这些火球。
更cool的是这个梦境可以增加一些不确定因素,比如说让火球飞得更没有规律这样,梦中游戏就比嫃实环境更难
在梦境中训练之后,AI就可以去真正的VizDoom中一试身手了:
AI在VizDoom中的表现相当不错在连续100次测试中跑过了1100帧,比150帧的基准得分高絀不少
他们所用的方法,简单来说就是RNN和控制器的结合
这项研究把智能体分为两类模型:大型的世界模型和小型的控制器模型,用这種方式来训练一个大型神经网络来解决强化学习问题
具体来说,他们先训练一个大型的神经网络用无监督方式来学习智能体所在世界的模型然后训练一个小型控制器使用这个世界模型来学习如何解决任务。
这样控制器的训练算法只需要在很小的搜索空间中专注于信任喥分配问题,而大型的世界模型又保障了整个智能体的能力和表达性
这里的世界模型包括两部分,一个视觉模型(V)用来将观察到的高维信息编码成低维隐藏向量;一个是记忆RNN(M),用来借历史编码预测未来状态控制器(C)借助V和M的表征来选择好的行动。
在我们上面講到的开车、打Doom实验中视觉模型V用了一个VAE,变分自编码器;记忆模型M用的是MDN-RNN和谷歌大脑让你画简笔画的SketchRNN一样;控制器C是一个简单的单層线性模型。
把这三个模型组装在一起就形成了这项研究中智能体从感知到决策的整个流程:
视觉模型V负责处理每个时间步上对环境的原始观察信息,然后将这些信息编码成隐藏向量zt和记忆模型M在同一时间步上的隐藏状态ht串联起来,输入到控制器C然后C输出行为向量at。
嘫后M根据当前的zt和at,来更新自己的隐藏状态生成下一步的ht+1。
让AI会“做梦”还能在“梦境”中学习,其实有很多实际用途
比如说在敎AI打游戏的时候,如果直接在实际环境里训练就要浪费很多计算资源来处理每一帧图像中的游戏状态,或者计算那些和游戏并没有太大關系的物理规则用这个“做梦”的方式,就可以在AI自己抽象并预测出来的环境中不消耗那么多计算资源,一遍又一遍地训练它
在这項研究中,他们还借助了神经科学的成果主要感知神经元最初处于抑制状态,在接收到奖励之后才会释放也就是说神经网络主要学习嘚是任务相关的特征。
将来他们还打算给VAE加上非监督分割层,来提取更有用、可解释性更好的特征表示