本指南旨在帮助初学者在Linux或诸如AutoDL等云平台上设置和使用开源的大型语言模型(LLMs),提供逐步的环境配置、模型部署和微调的指引,适用于LLaMA、ChatGLM和InternLM等模型。内容涵盖从基础安装到高级技术,如LoRA和分布式微调,同时支持与LangChain等工具的集成以及在线演示的部署。这一指南的主要优势在于,使强大的人工智能模型变得易于访问和使用,面向学生、研究人员及任何希望尝试或定制LLMs以用于自身项目的人士。
#jupyter_notebook #chatglm #chatglm3 #gemma_2b_it #glm_4 #internlm2 #llama3 #llm #lora #minicpm #q_wen #qwen #qwen1_5 #qwen2 #Git202506101130
https://github.com/datawhalechina/self-llm