English
全部
搜索
图片
视频
短视频
地图
资讯
更多
购物
航班
旅游
笔记本
报告不当内容
请选择下列任一选项。
无关
低俗内容
成人
儿童性侵犯
时长
全部
短(小于 5 分钟)
中(5-20 分钟)
长(大于 20 分钟)
日期
全部
过去 24 小时
过去一周
过去一个月
去年
清晰度
全部
低于 360p
360p 或更高
480p 或更高
720p 或更高
1080p 或更高
源
全部
Dailymotion
Vimeo
Metacafe
Hulu
VEVO
Myspace
MTV
CBS
Fox
CNN
MSN
价格
全部
免费
付费
清除筛选条件
安全搜索:
中等
严格
中等(默认)
关闭
筛选器
builtin.com
ReLU Activation Function Explained | Built In
The rectified linear unit (ReLU) or rectifier activation function introduces the property of nonlinearity to a deep learning model and solves the vanishing gradients issue. It interprets the positive part of its argument. It is one of the most popular activation functions in deep learning.
2024年2月26日
ReLU Function Explained
12:04
MSN
MSN
Learn With Jay
2 个月之前
10:32
ReLU Activation Function Explained | The Secret Behind Deep Learning
YouTube
MySirG
已浏览 210 次
1 个月前
27:43
The Function That Saved Deep Learning
YouTube
ReLU
已浏览 314 次
1 个月前
热门视频
20 activation functions in Python for deep neural networks – ELU, ReLU, Leaky-ReLU, Sigmoid, Cosine
MSN
Deep Learning with Yacine
1 个月前
1:33
Types of Activation function in Neural Network -Part 2 | ReLU #ai #education #shorts @krishnaik06
YouTube
Perceptron
已浏览 4 次
2 个月之前
1:17
Activation Functions (Why ReLU Wins Everything)
YouTube
2 Minute AI
已浏览 85 次
3 个月之前
ReLU Vs Sigmoid
Bot Verification
machinelearningknowledge.ai
2021年3月10日
Question 2: Sigmoid vs ReLU(a) Write the formula for the Sigmo... | Filo
askfilo.com
5 个月之前
6:02
超强动画可视化讲解:神经网络模型中激活函数的选择!带你一口气学完sigmoid、tanh、relu、softmax、leakyrelu等激活函数!_哔哩哔哩_bilibili
bilibili
神经网络不太神经
已浏览 2603 次
2 个月之前
20 activation functions in Python for deep neural networks – ELU, ReL
…
1 个月前
MSN
Deep Learning with Yacine
1:33
Types of Activation function in Neural Network -Part 2 | ReLU #ai
…
已浏览 4 次
2 个月之前
YouTube
Perceptron
1:17
Activation Functions (Why ReLU Wins Everything)
已浏览 85 次
3 个月之前
YouTube
2 Minute AI
1:31
Biological intuition behind ReLU activation function.
已浏览 1 次
2 个月之前
YouTube
amos
27:43
The Function That Saved Deep Learning
已浏览 314 次
1 个月前
YouTube
ReLU
3:47
What Is The Role Of A ReLU Activation Function?
已浏览 2 次
3 个月之前
YouTube
AI and Machine Learning Explained
What is activation function?
已浏览 2149 次
2023年5月28日
YouTube
Hitanshu Soni
forward and backward propagation using relu function
已浏览 410 次
2024年4月20日
YouTube
Omar Mustafa
Learn ReLU using PyTorch in 5 minutes
已浏览 195 次
2023年9月11日
YouTube
Jsil Tech
Activation Functions in a Neural Network | Sigmoid,Tanh,ReLU,Lea
…
已浏览 6406 次
2021年2月5日
YouTube
NerdML
ReLU Activation Function Explained | Neural Networks & Deep Learning
已浏览 2 次
6 个月之前
YouTube
System Links Official
1:21
一分钟带你认识常见激活函数(tanh、ReLU)
已浏览 1.4万 次
2021年12月21日
bilibili
蛋卷蛋卷呀
32:35
36、CNN卷积神经网络之ReLU激励层
已浏览 241 次
2019年6月21日
YouTube
东方耀
1:52
【FPGA教程案例55】深度学习案例2——基于FPGA的CNN卷积神经网
…
已浏览 29 次
4 个月之前
YouTube
fpga.matlab
2:49
ReLU Activation Function
已浏览 179 次
2019年10月4日
bilibili
knnstack
3:20
6.2ReLU函数详解
已浏览 431 次
2023年10月4日
bilibili
白话先生NIT
0:11
【变化的n】神经网络梯度可视化 之 relu激活函数
已浏览 1153 次
2021年11月27日
bilibili
txsn
12:18
Tutorial 10- Rectified Linear Unit(relu) and Leaky Relu
已浏览 357 次
2019年9月30日
bilibili
从零开始的人工智能
24:25
深度学习论文解读:ReLU函数
已浏览 6523 次
2020年9月7日
bilibili
覃秉丰讲AI
10:05
Activation Functions - EXPLAINED!
已浏览 15.4万 次
2020年3月19日
YouTube
CodeEmporium
13:05
LU factorization
已浏览 1.9万 次
2019年2月23日
YouTube
Dr Peyam
8:28
1.2.5-ReLu函数简介
已浏览 2284 次
2001年2月5日
bilibili
数分小为老师
7:59
FL STUDIO | Quantizing Notes, Audio & Automation
已浏览 12万 次
2021年1月24日
YouTube
FL Studio
15:45
L44 | Arithmetic Coding | Lossless Compression Algorithm || Digital I
…
已浏览 10.5万 次
2020年9月26日
YouTube
Dr. Sapna Katiyar
23:19
Quantization of the energy
已浏览 2.9万 次
2017年7月31日
YouTube
MIT OpenCourseWare
9:29
5. Quantization - Digital Audio Fundamentals
已浏览 9.7万 次
2020年9月9日
YouTube
Akash Murthy
10:04
LECT-29: Quantization Process & Quantization noise
已浏览 2.7万 次
2018年7月12日
YouTube
EPOV CHANNEL
13:46
Quantum Hall Effect - Landau levels
已浏览 1.2万 次
2020年10月23日
YouTube
Artem Mishchenko
10:19
Activation Functions - Artificial Neural Network - Machine Learnin
…
已浏览 5.2万 次
2020年4月25日
YouTube
Pankaj Kumar Porwal
观看更多视频
更多类似内容
反馈