热点
关于我们
xx
xx
"
激活函数
" 相关文章
RCR-AF: Enhancing Model Generalization via Rademacher Complexity Reduction Activation Function
cs.AI updates on arXiv.org
2025-07-31T04:48:07.000000Z
第八篇:深度学习基础:神经网络与训练过程
掘金 人工智能
2025-07-30T08:12:17.000000Z
Toward Improving fNIRS Classification: A Study on Activation Functions in Deep Neural Architectures
cs.AI updates on arXiv.org
2025-07-16T04:28:52.000000Z
SoftReMish: A Novel Activation Function for Enhanced Convolutional Neural Networks for Visual Recognition Performance
cs.AI updates on arXiv.org
2025-07-09T04:01:56.000000Z
激活函数为何能增强神经网络的非线性表达能力?
掘金 人工智能
2025-06-22T09:42:00.000000Z
经典ReLU回归!重大缺陷「死亡ReLU问题」已被解决
掘金 人工智能
2025-06-03T08:58:06.000000Z
常见的激活函数汇总
掘金 人工智能
2025-05-16T03:03:03.000000Z
【漫话机器学习系列】233.激活阈(Threshold Activation)
掘金 人工智能
2025-04-28T05:42:54.000000Z
【深度学习】神经网络为何非激活函数不可?
机器学习初学者
2024-12-25T06:40:36.000000Z
Understanding the Agnostic Learning Paradigm for Neural Activations
MarkTechPost@AI
2024-12-01T08:20:03.000000Z
中国科学院团队用数学研究深度学习,助力理解神经网络深度的有效性
MIT 科技评论 - 本周热榜
2024-10-28T02:45:33.000000Z