这个用大白话来形容,就是机器人处理问题时的逻辑思维能力。举个例子比如“我实在是太冷了,准备去XXX”,根据前面的输入判断“XXX”很大可能就是“穿衣服”,这就是序列数据。
徐静怡快速扫了一眼黑板,“tanh和sigmoid激活函数的RNN如果遭遇梯度消失要如何是好?”
徐静怡起身,慢条斯理地开口:“tanh和sigmoid两端的梯度值都基本接近0,从求导公式可以看出有个连乘操作。而向量函数对向量求导结果为一个Jacobian矩阵,元素为每个点的导数,当矩阵中的值太大时,经过指数放大,则会产生梯度爆炸。可以设置一个梯度阈值来处理。另外梯度消失,可以用ReLU来替代tanh和sigmoid激活函数,或者用LSTM或GRU结构。”
森□□授调皮的眨眨眼:“回答得相当标准。你对智能编程有所研究对吗?”
徐静怡点点头。
旁边忽然有一个留着长刘海的女生显然是迷妹,她再三打量徐静怡,忽然低呼:“啊,难道,难道你就是直播间的超级大科学家吗?!”
这名字挂在直播间不觉得,突然被人喊出来有点中二。
徐静怡:“……”微微额首。
这里不少学生都看过那个直播,顿时引起窃窃私语,不少人对着徐静怡小声地指点,有激动的,也有不屑的。
森田教授讶异地看向助教,助教在阶梯上询问了几句后跑到森田教授那低声说。
森田教授眼前一亮,看向徐静怡,笑了笑:“如何设置网络的层数rnn_layers来增强神经网络的学习能力?”
“用MultiRNNCell封装。给multi cell进行初始化状态,设为0,即用multi_cell.zero_state来实现。传入一个batch_size参数,会生成rnn_layers层的(batch_size ,hidden_size)初始状态。”
徐静怡说出标准答案后,顿了顿,开口:“但我有另外的处理方式,只是遇到了困境。”
“哦?怎么说?”森田教授感兴趣地问道。
徐静怡将手机拿出来,然后扣动了一下前置装置,拉开弹射出来的虚拟框。
“哇哦~~”不少学生发出惊呼,好些人偷偷将手机拿出来拍摄,还有人悄声嘀咕,“这就是剪辑里面的虚拟屏幕吗?”“牛逼啊,第一次看见。”……
搜索的提交是按输入法界面上的确定/提交/前进键的