17 min⚡️22 min17 min14 min11 min10 min8 min 37 sec6 min 53 sec
0.8×
1×
1.2×
1.5×
1.7×
2×
2.5×
17 min⚡️22 min17 min14 min11 min10 min8 min 37 sec6 min 53 sec
joy
1
love
2
wow
3
yay
4
up
5
down
6
More reactions
7
2 Comments
Gisliany Alves
May 20, 2021
Ivan, como você mesmo mencionou, a camada de pooling geralmente é usada pra reduzir as dimensões hxw. Nesse caso em que o padding foi igual a "same", qual foi a função ou contribuição dessa camada de pooling para a rede neural?
Reply
Ivanovitch Silva
May 9, 2021
A Inception nesse caso teve um aumento da profundidade de 192 para 256, e reduzindo a demanda computacional. O slide está correto, apenas um pequeno erro no video.