Ollama&llama

Olllama

直接下载ollama程序,安装后可在cmd里直接运行大模型;

llama 3

meta 开源的最新llama大模型;

下载运行

1 ollama

ollama run llama3

2 github

下载仓库,需要linux环境,windows可使用wsl;

  1. 接受许可协议。获取下载链接
  2. 仓库运行download.sh

    3.quickstart
3 huggingface

meta

接受协议,访问模型文件,(不知道是不是affiliation填none被拒绝了)

补充

1.windows访问wsl文件

复制代码
\\wsl$ 

查看文件

  1. wsl访问windows

lwsl文件系统mnt已挂载windows盘符,不过需要在linux 里(terminal)访问,使用cp复制等。

  1. 使用ip网络传输文件

    #wsl terminal
    #查看IP地址
    ip addr

    复制windows文件至wsl

    scp [-r] file/dir hostname@ip_addr:/home/

    windows terminal

    scp [-r] hostname@ip_addr:/home/ D:\rev

  2. wsl nvidia cuda
    似乎默认能直接访问gpu,但cuda还需安装nvidia-cuda-toolkit

5.模型后缀

Instruct is fine-tuned for chat/dialogue use cases.

Example: ollama run llama3 / ollama run llama3:70b
Pre-trained is the base model.

Example: ollama run llama3:text / ollama run llama3:70b-text

相关推荐
zhengdao99061 天前
【论文笔记】Llama 3 技术报告
论文阅读·llama
橘子在努力2 天前
【橘子大模型】关于PromptTemplate
python·ai·llama
Chaos_Wang_3 天前
NLP高频面试题(三十)——LLama系列模型介绍,包括LLama LLama2和LLama3
人工智能·自然语言处理·llama
艾鹤3 天前
ollama安装与使用
人工智能·llama
清易4 天前
windows大模型llamafactory微调
llama
漠北尘-Gavin4 天前
【Python3.12.9安装llama-cpp-python遇到编译报错问题解决】
python·llama
爱听歌的周童鞋5 天前
理解llama.cpp如何进行LLM推理
llm·llama·llama.cpp·inference
溯源0065 天前
vscode调试python(transformers库的llama为例)
vscode·python·llama
Flying`6 天前
LLaMA-Factory微调实操记录
llama
张飞飞飞飞飞6 天前
通过Llama-Factory对Deepseek-r1:1.5b进行微调
llama