原文:
多任务学习漫谈:以损失之名
UC Berkeley 马毅:深度学习的第一性原理
长沙7喜 阅49 转4
SIFT算法详解
mscdj 阅56413 转716
Surf算法学习心得(一)——算法原理
千海之贝 阅57989 转517
机器学习的正则化是什么意思?
辉zao71139f1db 阅1465 转5
比较全面的L1和L2正则化的解释
x_box361 阅55
机器学习算法入门:Logistic回归学习笔记
Greatguy瑞 阅528
机器学习高频知识点-L1和L2正则化的区别
gfergfer 阅8
什么是元学习算法?
taotao_2016 阅972 转4
深度学习为什么需要那么多的数据?
czxiaoyi 阅750 转2
深度学习 理论基础二 梯度下降法和反向传播
雪柳花明 阅172
图像矩的概念
仰望书虫 阅1120 转11
让机器学习“如何学习”!从零开始读懂MAML!
汉无为 阅567 转8
逻辑回归(logistics regression)
cus621 阅486 转2
【AI初识境】深度学习中常用的损失函数有哪些?
有三AI 阅215 转2
深度学习Multi
zqd111188 阅106
TracIn — 一种估计训练数据影响的简单方法
雨夜的博客 阅30
softmax损失函数
Clay*more 阅2265
Boosting算法进化史
印度阿三17 阅410
教程|从零开始,了解元学习
xpxys99 阅782
尺度函数与小波函数
学海无涯GL 阅11854 转105
基于形状先验活动轮廓的焊接图像熔池分割方法
GXF360 阅150 转2
反比例函数面积不变性探究
我要折腾 阅66 转13
一文讲透反比例函数面积的不变性
本明书馆 阅75 转5
计算机视觉之一:特征检测
quasiceo 阅1436 转8
探索多样性的视觉特征表示方法:从传统到深度学习
坚定不移2 阅2
首页
留言交流
联系我们
回顶部