人工智能

AUC 到底在统计上代表什么?你怎么计算它,在线上业务里你如何解释“这次 AUC 提升”的含义。.docx
50 阅读
Transformer 里因果注意力的 Q K V 各从哪来?Mask 具体怎么实现。
73 阅读
为什么你在项目里会选 ResNet?从梯度传播、表示能力、参数 算力、迁移性几个维度讲讲你的工程化理由。
84 阅读
挑一次你觉得最有价值的“特征 损失”前向推导,完整讲讲从想法到落地的过程和收益。
63 阅读
你怎么看“多头注意力 + 强化学习”的组合?它的价值在哪,工程上会碰到什么难点。
60 阅读
YOLOv8 的结构你怎么拆解?训练与部署各自踩过哪些坑,你是怎么解决的。
61 阅读
Scaled DotProduct Attention 为啥要除以 √dk?如果不除会出什么数值或训练问题。
73 阅读
当负样本比例剧变时,AUC 可能怎么走?你会如何保证指标的稳定和可比
85 阅读
Paraformer 有什么优势、适用边界是什么?跟传统 CTC/Transducer 比,差别和取舍点在哪。
75 阅读
为什么要做 Label Smoothing.docx为什么要做 Label Smoothing?它怎么做,什么边界条件才适合,过度用会有什么坑。
51 阅读
L1 和 L2 正则你怎么选?它们各自的效果与风险是什么,工程里你是怎么权衡的。
78 阅读
样本量不够的时候你会怎么补?数据增强、半/自监督、迁移学习、先验约束、合成数据——你实际用过哪些,效果如何。
59 阅读
常见的数据归一化 标准化方式你怎么选?不同方案的差异点与适用场景讲清楚。
64 阅读
Topk 和 Topp 采样你怎么理解?两者差异在哪,哪些场景更可控?最好结合你做过的生成 推荐任务说。
86 阅读
模型上线之后,评估闭环怎么搭?灰度 AB 怎么跑?监控告警你怎么做,哪些指标最关键。.docx
66 阅读
NLP中你做的数据增强里,哪几种最稳?给出量化对比和背后的原因。
76 阅读
你做 CTR CVR CTCVR 联合建模时,ESMM ESMM2 是怎么推导与工程落地的?线上到底带来了什么收益。.docx
54 阅读
把 BN 讲透:原理是什么;训练期和推理期用的统计量有何不同;跟 LN、GN 比,分别什么时候用、怎么取舍。.docx
68 阅读
偏差和方差你怎么把握?结合你遇到的真实线上案例,怎么判断是高偏差还是高方差,各怎么治。.docx
82 阅读
Dropout 训练和推理阶段分别怎么用.docxDropout 训练和推理阶段分别怎么用、为什么这么用?跟 BN LN 放一起会有哪些相互影响,怎么摆放更稳。 给出一句话总结和详细解.docx
58 阅读
你实际用过哪些学习率策略?为什么要 warmup?拿一条你做过的收敛曲线说它起了什么作用,什么时候会失效。.docx
59 阅读
回归任务最后一层该怎么选激活?线性、Softplus、截断、还是直接做分布建模?按不同业务约束说说你的选择依据。.docx
71 阅读
为什么树模型一般不需要对特征进行标准化处理
82 阅读
为什么一般预测模型要对特征进行标准化处理
86 阅读