当前位置:

人工智能

在 RAG 应用中为了优化检索精度,其中的数据清洗和预处理怎么做
71 阅读
什么自查询?为什么在 RAG 中需要自查询
138 阅读
在 RAG 中,索引流程中的文档解析你们怎么做的
74 阅读
A2A 协议的工作流程是怎样的
102 阅读
如何进行 RAG 调优后的效果评估?请给出真实应用场景中采用的效果评估标准与方法
107 阅读
什么是 RAG?RAG 的主要流程是什么
106 阅读
什么混合检索?在基于大模型的应用开发中,混合检索主要解决什么问题
87 阅读
什么查询扩展?为什么在 RAG 应用中需要查询扩展
104 阅读
什么是 RAG 中的分块?为什么需要分块
101 阅读
RAG 的完整流程是怎么样的
108 阅读
A2A 协议有哪五大设计原则
95 阅读
AUC 到底在统计上代表什么?你怎么计算它,在线上业务里你如何解释“这次 AUC 提升”的含义。.docx
127 阅读
Transformer 里因果注意力的 Q K V 各从哪来?Mask 具体怎么实现。
178 阅读
为什么你在项目里会选 ResNet?从梯度传播、表示能力、参数 算力、迁移性几个维度讲讲你的工程化理由。
205 阅读
挑一次你觉得最有价值的“特征 损失”前向推导,完整讲讲从想法到落地的过程和收益。
166 阅读
你怎么看“多头注意力 + 强化学习”的组合?它的价值在哪,工程上会碰到什么难点。
153 阅读
YOLOv8 的结构你怎么拆解?训练与部署各自踩过哪些坑,你是怎么解决的。
156 阅读
Scaled DotProduct Attention 为啥要除以 √dk?如果不除会出什么数值或训练问题。
190 阅读
当负样本比例剧变时,AUC 可能怎么走?你会如何保证指标的稳定和可比
205 阅读
Paraformer 有什么优势、适用边界是什么?跟传统 CTC/Transducer 比,差别和取舍点在哪。
200 阅读
为什么要做 Label Smoothing.docx为什么要做 Label Smoothing?它怎么做,什么边界条件才适合,过度用会有什么坑。
128 阅读
L1 和 L2 正则你怎么选?它们各自的效果与风险是什么,工程里你是怎么权衡的。
214 阅读
样本量不够的时候你会怎么补?数据增强、半/自监督、迁移学习、先验约束、合成数据——你实际用过哪些,效果如何。
143 阅读
常见的数据归一化 标准化方式你怎么选?不同方案的差异点与适用场景讲清楚。
167 阅读