11.24.2025 rejected by SAC 2026
- 流程没有创新点
- 近似不够精确, 对于 Classification 矩阵; 同时应该实验验证可行性
- task 多一些, 如 summarization, generative tasks, multilingual
- greedy 的近似比?
- embedding 应该随着训练/微调进行变化, 不能使用 forzen BERT embedding
- experimental setup 应该说清楚 SentenceOD, RPVopt 都是什么; 同时给出超参数
- 对于 classification tasks, 没有比 random sampling 更好的表现
- 应该更多分析 end-to-end cost, memory usage, FLOPs 等
- 使用更大的模型
- linear approximation 不够好
请你讲解 LoRA 的原理, 为什么这样的近似能够很好地作用在微调中; 以及能否用这种方法来近似我之前研究的 A optimal design 中 A\otimes B 的kronecker 结构? 具体地, 我希望对于大矩阵 A 进行近似, 使计算加快, 同时能与原目标 tr[(\sum_i A_i\otimes B_i)^{-1}] 相差不太远, 即有界/近似比