Micro LLAMA是精简的教学版LLAMA 3模型实现,能帮助学习者理解大型语言模型架构。整个项目仅约180行代码,便于理解和学习。Micro LLAMA用的是LLAMA 3中最小的8B参数模型,模型本身需15GB存储空间,运行时约需30GB内存。代码默认在CPU上运行,需注意内存消耗。Micro LLAMA基于micro_llama.py
文件提供模型代码,基于micro_llama.ipynb
笔记本引导用户探索。Micro LLAMA适合对深度学习和模型架构感兴趣的研究者和学生。


Micro LLAMA是精简的教学版LLAMA 3模型实现,能帮助学习者理解大型语言模型架构。整个项目仅约180行代码,便于理解和学习。Micro LLAMA用的是LLAMA 3中最小的8B参数模型,模型本身需15GB存储空间,运行时约需30GB内存。代码默认在CPU上运行,需注意内存消耗。Micro LLAMA基于micro_llama.py
文件提供模型代码,基于micro_llama.ipynb
笔记本引导用户探索。Micro LLAMA适合对深度学习和模型架构感兴趣的研究者和学生。
全部评论
留言在赶来的路上...
发表评论