官方提供的 UI 界面做得还算不错,不过测试时基本没用上,因为更关注的是代码层面的实现。 .env 配置文件的参数非常丰富,需要根据实际使用的工具链做适配。为了调用本地模型,我这里用Ollama 做了相应调整。 虽然 .env 文件里有参数可以配置 input 文件夹 ...
你是否曾想过让强大的开源大模型更懂你的专业领域,或者更能模仿你的写作风格?微调就是实现这一目标的钥匙。过去,微调是资源雄厚的大公司的专利,动辄需要数十张GPU和复杂的分布式训练知识。 但现在,感谢 Ollama 和 Python 生态的强大工具,这一切变得 ...
你是否曾想过让强大的开源大模型(LLM)更懂你的专业领域,或者更能模仿你的写作风格?微调(Fine-Tuning)就是实现这一目标的钥匙。过去,微调是资源雄厚的大公司的专利,动辄需要数十张GPU和复杂的分布式训练知识。 但现在,感谢 Ollama 和 Python 生态的强大 ...
作为一名对 AI 和机器学习充满热情的人,我花了不少时间研究怎么让强大的语言模型更好地完成特定任务。今天,我想分享一份详细的指南,教你如何用 Python 微调 LLM(大型语言模型),然后用 Ollama 这个工具在本地运行微调后的模型。这份指南基于我看到的 ...
Ollama 使本地在 AMD GPU 上运行 Meta 的 Llama 3.2 模型变得更加容易,支持 Linux 和 Windows 系统。 借助 Ollama,在 AMD 系统上本地运行大型语言模型(LLM)变得更加便捷。本指南将重点介绍 Meta 于 2024 年 9 月 25 日发布的最新 Llama 3.2 模型。Meta 的 Llama 3.2 提供 1B、3B、11B 和 ...
本周刊由 Python猫 出品,精心筛选国内外的 250+ 信息源,为你挑选最值得分享的文章、教程、开源项目、软件工具、播客和视频、热门话题等内容。愿景:帮助所有读者精进 Python 技术,并增长职业和副业的收入。 关注 ...
一些您可能无法访问的结果已被隐去。
显示无法访问的结果