跳至正文
智慧树网课答案
超星尔雅通识课作业答案最新100分
菜单和挂件
用户注册
用户登录
我的订单
答案搜索
萌面人APP下载
标签:使用修正的线性单元(ReLU)作为非线性激活函数;在训练的时候使用Dropout技术有选择地忽视单个神经元,以避免模型过拟合;覆盖进行较大池化,避免平均池化的平均化效果;使用GPUNVIDIAGTX减少训练时间
搜索
人工智能原理与方法 知到智慧树答案满分完整版章节测试
点我阅读全文
上一页
1
1
…
1
下一页
登录
订单
帮助
搜索