摘要:本文记录了我从零开始,使用 ModelScope SWIFT 框架对 Qwen2.5-1.5B 模型进行 LoRA 微调的全过程。通过构建垂直领域的简历抽取数据集,解决了通用大模型在结构化输出(JSON)时指令遵循能力弱的问题,最终实现了 Loss < 0.001 的高精度微调,并完成了模型的
首页
欢迎来到我的个人博客!这里记录着我的想法、学习和生活。
文章发布热力图
一
三
五
少
多
最近在推特和技术群里,总看到大神们在 VS Code 终端里敲个 claude 命令,就能自动改代码、跑测试、修 Bug,操作行云流水。 起初我以为是 Cline 或者 Cursor,后来才知道,这是 Anthropic 官方推出的命令行工具——Claude Code (CLI)。 今天心血来潮折腾
前言 最近接到了一个数据标注需求:需要对大量的音频进行标注。要求输出的 JSON 格式非常复杂,包含对话轮次、角色(A/B)、情感强度、语调、转写文本等。 起初我尝试手动听写 + Excel 记录,效率低到令人发指。后来折腾了一套 Label Studio + OpenAI Whisper 的自动化
🚩 Phase 1: MVP 原型验证 (V1.0) 时间:2026-01-13 目标:跑通“爬取 -> 向量化 -> 问答”的全流程,验证最小可行性。 🛠️ 核心实现 后端架构:搭建 FastAPI 服务,打通
第一步:安装 ShellCrash(Clash 的命令行管理脚本) 这是目前在 Linux 服务器上最傻瓜式的安装方式。 登录 SSH 终端。 执行安装脚本(复制粘贴回车): export url='https://fastly.jsdelivr.net/gh/juew
1 / 1