热点
关于我们
xx
xx
"
PEFT
" 相关文章
Calibrating and Rotating: A Unified Framework for Weight Conditioning in PEFT
cs.AI updates on arXiv.org
2025-11-05T05:17:05.000000Z
中科院SNELLA:视觉模型微调新范式,性能超越SOTA,内存占用降低近40%
我爱计算机视觉
2025-10-29T09:05:02.000000Z
中科院SNELLA:视觉模型微调新范式,性能超越SOTA,内存占用降低近40%
我爱计算机视觉
2025-10-29T09:05:02.000000Z
Beyond QA Pairs: Assessing Parameter-Efficient Fine-Tuning for Fact Embedding in LLMs
cs.AI updates on arXiv.org
2025-10-28T04:14:38.000000Z
[程序员] [大模型微调] 一文掌握 5 种大模型微调的方法
V2EX
2025-10-23T12:46:29.000000Z
[程序员] [大模型微调] 一文掌握 5 种大模型微调的方法
V2EX
2025-10-23T10:22:11.000000Z
[程序员] [大模型微调] 一文掌握 5 种大模型微调的方法
V2EX
2025-10-23T08:24:28.000000Z
NeuroAda: Activating Each Neuron's Potential for Parameter-Efficient Fine-Tuning
cs.AI updates on arXiv.org
2025-10-23T04:14:27.000000Z
Parameter-Efficient Fine-Tuning for Low-Resource Languages: A Comparative Study of LLMs for Bengali Hate Speech Detection
cs.AI updates on arXiv.org
2025-10-21T04:27:39.000000Z
7种大模型微调的方法全解,看这篇文章就够了!
掘金 人工智能
2025-10-10T08:39:07.000000Z
7种大模型微调的方法全解,看这篇文章就够了!
掘金 人工智能
2025-10-10T08:39:07.000000Z
7种大模型微调的方法全解,看这篇文章就够了!
掘金 人工智能
2025-10-10T08:39:07.000000Z
QuIC: Quantum-Inspired Compound Adapters for Parameter Efficient Fine-Tuning
cs.AI updates on arXiv.org
2025-10-07T04:19:03.000000Z
ChatGPT架构师,刚发布了最新研究成果
量子位
2025-10-01T11:27:42.000000Z
LoRA到底能否媲美全参?Thinking Machines用实验曲线划出「无悔区」
PaperWeekly
2025-10-01T11:22:39.000000Z
Thinking Machines曝LoRA终极指南:10倍学习率,媲美全参微调
新智元
2025-10-01T09:20:55.000000Z
Thinking Machines曝LoRA终极指南:10倍学习率,媲美全参微调
新智元
2025-09-30T18:02:37.000000Z
Thinking Machines又发高质量博客:力推LoRA,不输全量微调
机器之心
2025-09-30T16:08:39.000000Z
LoRA到底能否媲美全参?Thinking Machines用实验曲线划出「无悔区」
PaperWeekly
2025-09-30T15:51:38.000000Z
Train LLMs using QLoRA on Amazon SageMaker
philschmid RSS feed
2025-09-30T11:12:18.000000Z