在Mac M1笔记本上跑大语言模型llama3的4个步骤?(install、pull、run、ask)

2024-04-27 1445阅读

要点

  • Ollama一个功能强大的本地大语言模型LLM运行工具,支持很多模型,并且操作极其简单
  • 快速回忆步骤:
    下载ollama工具:https://ollama.com/download
    下载模型:ollama pull llama3 #根据libs列表直接指定名字
    运行模型:ollama run llama3
    测试:直接问他问题(可以关闭网络)
    

    步骤

    Step1. 下载ollama(根据平台选择)

    https://ollama.com/download

    在Mac M1笔记本上跑大语言模型llama3的4个步骤?(install、pull、run、ask)

    下载后将软件安装,解压后拷贝到应用程序:

    在Mac M1笔记本上跑大语言模型llama3的4个步骤?(install、pull、run、ask)

    安装用户态命令:(点击install)

    在Mac M1笔记本上跑大语言模型llama3的4个步骤?(install、pull、run、ask)

    Step2:下载模型文件

    支持的模型列表:https://ollama.com/library

    比如llama3:

    在Mac M1笔记本上跑大语言模型llama3的4个步骤?(install、pull、run、ask)

    安装步骤:命令行直接安装

    ollama pull llama3
    

    实操:

    在Mac M1笔记本上跑大语言模型llama3的4个步骤?(install、pull、run、ask)

    这里需要耗费一些时间,具体根据网络和模型大小确定,模型大小参考:

    ModelParametersSizeDownload
    Llama 38B4.7GBollama run llama3
    Llama 370B40GBollama run llama3:70b
    Mistral7B4.1GBollama run mistral
    Dolphin Phi2.7B1.6GBollama run dolphin-phi
    Phi-22.7B1.7GBollama run phi
    Neural Chat7B4.1GBollama run neural-chat
    Starling7B4.1GBollama run starling-lm
    Code Llama7B3.8GBollama run codellama
    Llama 2 Uncensored7B3.8GBollama run llama2-uncensored
    Llama 2 13B13B7.3GBollama run llama2:13b
    Llama 2 70B70B39GBollama run llama2:70b
    Orca Mini3B1.9GBollama run orca-mini
    LLaVA7B4.5GBollama run llava
    Gemma2B1.4GBollama run gemma:2b
    Gemma7B4.8GBollama run gemma:7b
    Solar10.7B6.1GBollama run solar

    官方的参考资源:

    8 GB 内存跑 7B models

    16 GB to run the 13B models

    32 GB to run the 33B models

    比如M1有16G内存,可以跑7B的模型。

    Step:运行模型

    ollama run llama3
    

    实操:(在M1的笔记本大概是s级别的,其他比如intel笔记本可能需要十几秒,M3等笔记本应该非常快)

    并且测试的时候可以尝试关闭网络。

    比如让他回答一个 gcc编译的问题:

    在Mac M1笔记本上跑大语言模型llama3的4个步骤?(install、pull、run、ask)

    再来一个:“python如何使用list,举一个实际的例子”

    在Mac M1笔记本上跑大语言模型llama3的4个步骤?(install、pull、run、ask)

    Step:退出聊天

    Ctrl + d 或者 /bye退出聊天

    其他

    • ollama的github:https://github.com/ollama/ollama
    • ollama在mac本地是以类似git的方式存储的,存储的模型都是以blobs的形式,和git底层原理类似。

      在Mac M1笔记本上跑大语言模型llama3的4个步骤?(install、pull、run、ask)- ollama在mac上模型存储的地址: ~/.ollama/models/blobs/

    • 在models/manifests中存储了配置信息,比如llama的blob是哪个等信息
    • 运行以后会自动启动RESTful的接口,也就是可以通过局域网访问,端口是11434,比如:

      在Mac M1笔记本上跑大语言模型llama3的4个步骤?(install、pull、run、ask)

    • 可以通过curl使用restful方式访问:比如:
      curl http://localhost:11434/api/generate -d '{
        "model": "llama3",
        "prompt":"Why is the sky blue?"
      }'
      
      • 端侧的模型也具有记忆能力,还能反馈错误并且修改正
      • 查看当前使用的模型等信息 /show info

        在Mac M1笔记本上跑大语言模型llama3的4个步骤?(install、pull、run、ask)

        最后

        实操下来,因为ollma非常简单,只需要3个步骤就能使用模型,更多模型只需要一个pull就搞定。一台稍微不错的笔记本+网络,就能把各种大模型都用起来,快速上手吧。

VPS购买请点击我

免责声明:我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自自研大数据AI进行生成,内容摘自(百度百科,百度知道,头条百科,中国民法典,刑法,牛津词典,新华词典,汉语词典,国家院校,科普平台)等数据,内容仅供学习参考,不准确地方联系删除处理! 图片声明:本站部分配图来自人工智能系统AI生成,觅知网授权图片,PxHere摄影无版权图库和百度,360,搜狗等多加搜索引擎自动关键词搜索配图,如有侵权的图片,请第一时间联系我们,邮箱:ciyunidc@ciyunshuju.com。本站只作为美观性配图使用,无任何非法侵犯第三方意图,一切解释权归图片著作权方,本站不承担任何责任。如有恶意碰瓷者,必当奉陪到底严惩不贷!

目录[+]