Skip to content


Ollama 未授权访问漏洞,攻击者可以下载或删除私有模型文件

Ollama 是一个开源的大语言模型(LLM)运行环境和工具集,旨在帮助开发者轻松部署、管理和使用模型(如 DeepSeek 等)。

Ollama 存在未授权访问漏洞,攻击者可以直接访问敏感接口进行读取、下载或删除私有模型文件,或滥用模型推理资源等高危操作。

攻击者只需访问服务端口(默认 11434)即可调用敏感功能接口,进而读取、下载或删除私有模型文件,或滥用模型推理资源等。

直接请求api路径即可,这里查看都有哪些模型

curl http://127.0.0.1:11434/api/tags 这个接口列出 Ollama 提供的 LLM 模型。

该接口对应的处理函数是ListHandler,可以看到,未进行任何权限,直接返回模型。

func (s \*Server) ListHandler(c \*gin.Context) {  
ms, err :\\= Manifests(true)  
if err != nil {  
c.JSON(http.StatusInternalServerError, gin.H{"error": err.Error()})  
return  
}  
​  
models :\\= \[\]api.ListModelResponse{}  
for n, m :\\= range ms {  
var cf ConfigV2  
​  
if m.Config.Digest != "" {  
f, err :\\= m.Config.Open()  
if err != nil {  
slog.Warn("bad manifest filepath", "name", n, "error", err)  
continue  
}  
defer f.Close()  
​  
if err :\\= json.NewDecoder(f).Decode(&cf); err != nil {  
slog.Warn("bad manifest config", "name", n, "error", err)  
continue  
}  
}  
​  
// tag should never be masked  
models \\= append(models, api.ListModelResponse{  
Model: n.DisplayShortest(),  
Name: n.DisplayShortest(),  
Size: m.Size(),  
Digest: m.digest,  
ModifiedAt: m.fi.ModTime(),  
Details: api.ModelDetails{  
Format: cf.ModelFormat,  
Family: cf.ModelFamily,  
Families: cf.ModelFamilies,  
ParameterSize: cf.ModelType,  
QuantizationLevel: cf.FileType,  
},  
})  
}  
​  
slices.SortStableFunc(models, func(i, j api.ListModelResponse) int {  
// most recently modified first  
return cmp.Compare(j.ModifiedAt.Unix(), i.ModifiedAt.Unix())  
})  
​  
c.JSON(http.StatusOK, api.ListResponse{Models: models})  
}  

大模型拉取函数,没有进行任何权限验证。 也可以删除指定模型。

修复建议

方法一

最好的修复方法肯定是修改代码逻辑,给 Ollama API 添加认证的需求。当然这需要原作者的配合。

方法二

对web服务器配置进行修改,这里拿nginx进行举例:

对访问接口的请求,添加一个简单的密码验证。

server {
listen 11434;
​
location / {
auth_basic "Restricted Content";
auth_basic_user_file /etc/nginx/.htpasswd;
​
proxy_pass http://192.168.1.100:11434;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
}
}

漏洞分析

https://forum.butian.net/index.php/article/670

Posted in AI, 安全通告.

Tagged with , .


linux 本地部署ollama和docker版openwebui+deepseek

windows 本地部署ollama+deepseek 可见前面文章.

linux 安装ollama

这里使用virtualbox 安装了rocky9.3

cat /etc/redhat-release Rocky Linux release 9.3 (Blue Onyx)

一健安装

curl -fsSL https://ollama.com/install.sh | sh 自动化安装,但可能下载不了 注意:应该至少有8GB的可用内存来运行7B模型,16GB的可用内存来运行13B模型,以及32GB的内存来运行33B模型。

手动安装

https://github.com/ollama/ollama/blob/main/docs/linux.md sudo rm -rf /usr/lib/ollama

1.8g左右 curl -L https://ollama.com/download/ollama-linux-amd64.tgz -o ollama-linux-amd64.tgz sudo tar -C /usr -xzf ollama-linux-amd64.tgz

Start Ollama: ollama serve

In another terminal, verify that Ollama is running:

验证安装:

ollama -v ollama version is 0.5.1

添加用户限配置

useradd -r -s /bin/false -U -m -d /usr/share/ollama ollama usermod -a -G ollama $(whoami)

修改ollama的运行端口

对于每个环境变量,在[Service]部分下添加一行Environment.

Environment="OLLAMA_HOST=0.0.0.0:11434"
Environment="OLLAMA_ORIGINS=*"
Environment="OLLAMA_DEBUG=1"
Environment="OLLAMA_FLASH_ATTENTION=1"

Ollama 提供了多种环境变量以供配置:

OLLAMA_DEBUG:是否开启调试模式,默认为 false。
OLLAMA_FLASH_ATTENTION:是否闪烁注意力,默认为 true。
OLLAMA_HOST:0.0.0.0:11434 修改默认端口 11434 端口
OLLAMA_KEEP_ALIVE:设置模型加载到内存中保持 24 个小时(默认情况下,模型在卸载之前会在内存中保留 5 分钟)
OLLAMA_LLM_LIBRARY:LLM 库,默认为空。
OLLAMA_MAX_LOADED_MODELS:设置同时加载多个模型,默认为 1。
OLLAMA_MAX_QUEUE:最大队列数,默认为空。
OLLAMA_MAX_VRAM:最大虚拟内存,默认为空。
OLLAMA_MODELS:/mnt/data/.ollama/models 模型默认下载路径,默认为空。
OLLAMA_NOHISTORY:是否保存历史记录,默认为 false。
OLLAMA_NOPRUNE:是否启用剪枝,默认为 false。
OLLAMA_NUM_PARALLEL:设置用户并发请求,默认为 1。
OLLAMA_ORIGINS:允许的来源,默认为空。
OLLAMA_RUNNERS_DIR:运行器目录,默认为空。
OLLAMA_SCHED_SPREAD:调度分布,默认为空。
OLLAMA_TMPDIR:临时文件目录,默认为空。

Linux 的 tmp 目录设置为 noexec 如果你的系统将 Ollama 存储临时可执行文件的 tmp 目录设置为了 “noexec”,你可以通过设置 OLLAMA_TMPDIR 来指定一个用户可写的替代位置。例如 OLLAMA_TMPDIR=/usr/share/ollama/

配置为系统服务

cat <<EOF | tee /etc/systemd/system/ollama.service >/dev/null
[Unit]
Description=Ollama Service
After=network-online.target

[Service]
Environment="OLLAMA_HOST=0.0.0.0:11434"
Environment="OLLAMA_ORIGINS=*"
Environment="OLLAMA_DEBUG=1"
Environment="OLLAMA_FLASH_ATTENTION=1"
ExecStart=\$BINDIR/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=\$PATH"

[Install]
WantedBy=default.target
EOF

重新加载 systemd 并重启 Ollama

systemctl daemon-reload #重载服务 systemctl enable ollama #开机启动 systemctl start ollama #启动服务 systemctl restart ollama #重启服务 systemctl status ollama #查看服务状态

运行模型

一旦您下载了模型,就可以使用 Ollama 的 run 命令来运行它们。

拉取模型

ollama pull llama3.2:3b ollama pull qwen2:1.5b ollama pull deepseek-r1:1.5b 1.5b的运行速度比较快,也不卡,但比较笨,如果追求性能,可以尝试7b及以上的.

运行千问模型

ollama run qwen2:1.5b

>>> hello world
Hello! It's nice to meet you. Is there anything else you would like assistance with?
Use Ctrl + d or /bye to exit.
>>>

运行deepseek推理模型

ollama run deepseek-r1:7b

修改模型的存储目录

默认情况下,ollama模型的存储目录如下:

macOS: `~/.ollama/models` 
Linux: `/usr/share/ollama/.ollama/models`  
Windows: `C:\Users\<username>\.ollama\models`

如需修改,vi /etc/systemd/system/ollama.service 在[Service]下面加入一行新的Environment,新一行:

Environment="OLLAMA_MODELS=/path/to/ollama/models" 

mkdir -p /data/ollama/ chown -R ollama:ollama /data/ollama chmod 0777 /data/ollama

mv /usr/share/ollama/.ollama/models /data/ollama/

重启服务

systemctl daemon-reload systemctl restart ollama.service

查看日志

journalctl -u ollama | grep -i ‘prompt=’
/set verbose #设置以查看token速度

测试

curl http://localhost:11434 Ollama is running

配制web ui

安装docker

yum install docker docker version

Emulate Docker CLI using podman. Create /etc/containers/nodocker to quiet msg.
Client:       Podman Engine
Version:      5.2.2
API Version:  5.2.2
Go Version:   go1.22.7 (Red Hat 1.22.7-2.el9_5)
Built:        Tue Nov 12 20:34:59 2024
OS/Arch:      linux/amd64

Open-WebUI

Open WebUI是一个可扩展、功能丰富、用户友好的自托管 WebUI,旨在完全离线操作。它支持各种LLM运行程序,包括 Ollama 和 OpenAI 兼容的 API。Open WebUI 适配了 Ollama 接口,提供了 web 的方式来访问 Ollama API。

拉取 Open WebUI 镜像

通过以下命令,从 Open WebUI 官方 GitHub Container Registry (GHCR) 仓库拉取镜像

docker pull ghcr.io/open-webui/open-webui:main 如果速度慢可以使用国内镜像再改名 docker pull ghcr.nju.edu.cn/open-webui/open-webui:main docker tag ghcr.nju.edu.cn/open-webui/open-webui:main ghcr.io/open-webui/open-webui:main

或者使用自已的代理加速服务器 export https_proxy=’192.168.244.1:8080′

查看默认配制 cat /etc/containers/registries.conf

先创建一个用于 Open WebUI 容器本地存储的本地目录

mkdir /opt/openwebui

通过以下命令启动容器, 映射本地3000 端口到容器内8080, 并挂载本地目录 /opt/openwebui 到容器的 /app/backend/data

docker run -d -p 3000:8080 –add-host=host.docker.internal:host-gateway -v /opt/openwebui:/app/backend/data –name openwebui ghcr.io/open-webui/open-webui:main

设为自动启动

docker update –restart always openwebui

手动启动

docker start openwebui

查看服务

netstat -lntp

Active Internet connections (only servers)
Proto Recv-Q Send-Q Local Address           Foreign Address         State       PID/Program name
tcp        0      0 0.0.0.0:3000            0.0.0.0:*               LISTEN      2303/conmon
tcp        0      0 0.0.0.0:22              0.0.0.0:*               LISTEN      1183/sshd: /usr/sbi
tcp6       0      0 :::11434                :::*                    LISTEN      1589/ollama
tcp6       0      0 :::22                   :::*                    LISTEN      1183/sshd: /usr/sbi

防火墙

firewall-cmd –get-default-zone firewall-cmd –zone=public –add-port=3000/tcp –permanent firewall-cmd –zone=public –add-port=11434/tcp –permanent

查看已经开启的防火墙端口 firewall-cmd –list-ports firewall-cmd –get-services

重启防火墙修改才会生效 firewall-cmd –reload

在虚拟机设置nat,映射宿主机127.0.0.1:3000端口到虚拟机 192.158.244.9:3000端口. 在浏览器访问http://127.0.0.1:3000 可以显示webui界面.

注册账号密码,创建管理员账号。 [email protected]/Pass1234

如果不习惯英文界面,可以设置成中文界面

现在,我们就可以用本地部署的 千问或deepseek-r1 模型进行聊天了。

Posted in AI.

Tagged with , , .


windows 部署本地ollama+deepseek+浏览器插件Page Assist+chatboxai

本地运行LLM的框架的选择

Ollama和vLLM作为当下流行的LLM部署工具,各具独特优势与适用场景。

Ollama

  1. 安装和配置 ■ 使用Docker容器部署,简化安装流程; ■ 支持多种操作系统(包括Windows、Mac和Linux),提供标准化的API接口。 ■支持从huggingface/modelscope等平台下载的模型文件。

  2. 性能 ■ 在GPU环境下,推理速度显著优于CPU,支持OneAPI接入提升性能; ■ 显存占用相对较低,例如Qwen2.5:7b模型仅需6GB显存。

  3. 资源占用 ■ 在调用时加载模型,显存占用较低,适合在资源有限的环境中运行; ■ 支持多种大模型,包括Qwen2.5等。

  4. 成本 ■ 本地部署,需要本地机器硬件支持,成本取决于硬件配置。

vLLM

  1. 安装和配置 ■ 需要安装Python环境和相关依赖,对技术要求较高(也支持Docker); ■ 支持从huggingface/modelscope等平台下载的模型文件。

  2. 性能 ■ 采用PagedAttention技术,提高内存利用率,支持高并发处理; ■ 在高用户负载下,vLLM官方给出的吞吐量比HuggingFace Transformers高出24倍,比Text Generation Inference高出3.5倍。

  3. 资源占用 ■ 模型加载常驻显存,显存占用相对较高,例如单卡16GB显存可能不足以运行Qwen2.5:7b模型; ■ 需要较高的计算资源,适合在高性能硬件环境中运行。

  4. 成本 ■ 本地部署,需要本地机器硬件支持,成本取决于硬件配置。

总结

在多机、多卡环境下,vLLM的性能优势可能更加明显

  • 技术基础和资源:如果有较强的技术基础和硬件资源,可以选择vLLM以获得更高的性能和吞吐量。如果希望快速搭建和管理知识库,且对硬件资源要求不高,可以选择Ollama;
  • 成本考虑:如果硬件资源有限,尤其是在只有CPU或者单卡的情况下,选择Ollama进行本地部署是一个不错的选择,能够满足大部分的场景需要。如果有一定的硬件资源,且需要MaxKB具备高性能的问答能力,可以选择vLLM,或者通过类似Xinference平台进行部署;
  • MaxKB应用场景:简单来说,对于需要高效实时响应和高并发处理的问答场景,vLLM更为适合。对于需要快速搭建和灵活管理知识库的应用场景,Ollama更为适合。

==================== 支持windows本地部署LLM的框架

Ollama Ollama:一个主打“本地化”体验的大模型推理框架 支持windows,macOS,linux https://ollama.com/download

LM Studio 支持windows,macOS,linux 下载模型时会遭遇失败,需要HF的代理 https://lmstudio.ai/

GPT4ALL GPT4All 是一个开源平台,旨在提供本地化的语言模型解决方案,使用户能够在本地计算机上运行和部署强大的语言模型。其主要功能包括支持聊天机器人、文本生成、问答系统和其他基于自然语言处理的应用。支持CPU和GPU的本地推理能力。 支持windows,macOS,linux https://www.nomic.ai/gpt4all

===========

Ollama 本地部署大模型

Ollama是一个开源的大型语言模型部署工具,它可以帮助用户快速在本地部署运行大模型。类似于Docker一样,仅仅用几行命令就可以运行一个大模型。 https://ollama.com/ 官网直接下载安装:Download Ollama 默认会安装在C盘,占用3G左右空间 C:\Users\c1g\AppData\Local\Programs

修改ollama安装目录

通常情况下,我们不希望安装到C盘,此时我们就可以通过使用命令的方式将Ollama安装到其他盘。

以管理员身份运行CMD,并定位到OllamaSetup.exe所在的目录(假设OllamaSetup.exe在D:\download目录下),然后执行如下命令: OllamaSetup.exe /DIR=”D:\software\Ollama”

环境配置

关于->高级系统设置->环境变量 配置Ollama模型文件地址 由于Ollama在下载模型时,会自动下载到C盘,因此需要设置下载目录。方法如下: 在环境变量中添加“OLLAMA_MODELS”,之后重启ollama,我把下载模型的目录设置在了”D:\ai\ollama”目录下。

1.下载地址 OLLAMA_MODELS D:\ai\ollama_models

2.监听地址和端口 OLLAMA_HOST 0.0.0.0:3001

3.跨域 OLLAMA_ORIGINS *

运行ollama后,桌面右下角就出出来一个羊驼图标,右键”view logs”,就可以看一些运行信息.

routes.go:1125: INFO server config env="map[CUDA_VISIBLE_DEVICES: GPU_DEVICE_ORDINAL: HIP_VISIBLE_DEVICES: HSA_OVERRIDE_GFX_VERSION: OLLAMA_DEBUG:false OLLAMA_FLASH_ATTENTION:false OLLAMA_HOST:http://0.0.0.0:3001 OLLAMA_INTEL_GPU:false 

Ollama使用帮助

使用win健+R,打开cmd命令 ollama -h

Usage:
  ollama [flags]
  ollama [command]

Available Commands:
  serve       Start ollama
  create      Create a model from a Modelfile
  show        Show information for a model
  run         Run a model
  pull        Pull a model from a registry
  push        Push a model to a registry
  list        List models
  ps          List running models
  cp          Copy a model
  rm          Remove a model
  help        Help about any command

Flags:
  -h, --help      help for ollama
  -v, --version   Show version information

Use "ollama [command] --help" for more information about a command.

Ollama 常用命令

ollama serve         #启动ollama  
ollama create        #从模型文件创建模型  
ollama show          #显示模型信息  
ollama run           #运行模型  
ollama pull          #从注册表中拉取模型  
ollama push          #将模型推送到注册表  
ollama list          #列出模型  
ollama cp            #复制模型  
ollama rm            #删除模型  
ollama help          #获取有关任何命令的帮助信息

启动ollama后查看 http://localhost:3001/ Ollama is running

开启windows防火墙 windows defender 新建入站规则,端口tcp:3001,允许连接 http://192.168.244.1:3001

模型仓库下载地址 https://ollama.com/library

模型介绍

在使用 Ollama 部署 DeepSeek R1 系列模型时,硬件需求主要取决于模型的大小(参数量)。模型越大,对计算资源(如 GPU 显存、CPU 和内存)的要求越高。以下是 DeepSeek R1 系列模型对硬件的要求概览:

GPU 需求
1.5B 和 7B 模型:可以在消费级 GPU 上运行,例如 NVIDIA GTX 1660、RTX 3060(8-12 GB 显存)。
8B 和 14B 模型:需要高端 GPU,例如 NVIDIA RTX 3090、A100(16-24 GB 显存)。
32B 和 70B 模型:需要专业级 GPU,例如 NVIDIA A100、H100(32 GB+ 显存)。
671B 模型:需要多 GPU 并行计算,例如多张 A100 或 H100。
CPU 和内存需求
1.5B 和 7B 模型:8-16 GB 内存,普通多核 CPU(如 Intel i5 或 Ryzen 5)。
8B 和 14B 模型:16-32 GB 内存,高性能多核 CPU(如 Intel i7 或 Ryzen 7)。
32B 和 70B 模型:64-128 GB 内存,服务器级 CPU(如 Intel Xeon 或 AMD EPYC)。
671B 模型:256 GB+ 内存,多路服务器级 CPU。

Llama Meta产品Llama 3.1 包含8B、70B 和405B三个规模,最大上下文提升到了128k,Llama目前开源领域中用户最多、性能最强的大型模型系列之一 Llama 3.1 8B 128k 4.7GB ollama pull llama3.1

llama3.3 70b 80G ollama pull llama3.3

Google Gemma2 谷歌明星开源模型Gemma 2 Gemma 2有90亿(9B)和270亿(27B)两种参数规模可用 Gemma2 9B 8k 5.4GB ollama pull gemma2:9b

Alibaba qwen2 阿里云发布开源模型通义千问2,Qwen2-7B比Llama3-8B快 Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B、Qwen2-57B-A14B 和 Qwen2-72B qwen2 7B 128K 4.4GB ollama pull qwen2:7b

qwen2.5 7B 4.7GB ollama pull qwen2.5

代码模型列表,以7B为主 deepseek coder 7B CodeGemma 7B StarCode2 7B Code Llama 7B

CodeGemma CodeGemma模型保留了基础Gemma模型的自然语言处理能力。 CodeGemma支持包括 Python、JavaScript、Java、Kotlin、C++、C#、Rust、Go 在内的多种编程语言。 专注于代码生成、理解、补全、数学推理和指令遵循等任务,性能优越,适用于多种场景,将为开发者带来全新编程体验。 CodeGemma7B 8K 5.0GB ollama pull codegemma:7b

deepseek-coder-v2 16b 8.9GB 没有更小的

starcoder2 starcoder2 7B 4.0GB starcoder2 3B 1.7GB

llama2-chinese Llama 2 对话中文微调参数模型 这个模型是基于 Meta Platform, Inc. 所发布的 Llama 2 Chat 开源模型来进行微调 llama2-chinese 7b 3.8GB

deepseek deepseek-v3 通用基础模型,堪比业内顶尖模型如GPT-4、Claude-3.5等 deepseek-r1 深度推理模型,专门用来解决那些需要复杂推理和深度思考的问题。它处理的任务更具挑战性,比如数理逻辑推理、编程代码分析等 deepseek 1.5b 1.1GB deepseek 7b 4.7GB deepseek 32b 20GB deepseek 671b 404GB ollama pull deepseek-r1:7b

部署模型示例

ollama run llama3.1 ollama run gemma2:9b ollama run qwen2:0.5b

运行的模型列表

ollama list

拉取deepseek-r1:7b模型

ollama pull deepseek-r1:7b

pulling manifest
pulling 96c415656d37... 100% ▕████████████████████████████████████████████████████████▏ 4.7 GB
pulling 369ca498f347... 100% ▕████████████████████████████████████████████████████████▏  387 B
pulling 6e4c38e1172f... 100% ▕████████████████████████████████████████████████████████▏ 1.1 KB
pulling f4d24e9138dd... 100% ▕████████████████████████████████████████████████████████▏  148 B
pulling 40fb844194b2...   0% ▕                                                        ▏    0 B/ 487 B
verifying sha256 digest
writing manifest
success

运行deepseek-r1:7b

ollama run deepseek-r1:7b

>>> Send a message (/? for help)
>>> hello
<think>

</think>

Hello! How can I assist you today? 😊

>>> 你好
<think>
Alright, the user greeted me with "你好," which means "hello" in Chinese. I should respond politely.

I want to make sure my reply is friendly and clear.

Maybe say something like, "你好!有什么我可以帮助你的吗?" which means "Hello! Is there anything I can help you
with?"

That sounds good! 😊
</think>

你好!有什么我可以帮助你的吗?

>>> Send a message (/? for help)

如果我们想退出对话,我们可以通过/bye命令退出

使用API访问模型

Ollama有一套用于运行和管理模型的 REST API。 Generate a response curl http://localhost:3001/api/generate -d ‘{ “model”: “llama3.1:latest”, “prompt”:”Why is the sky blue?” }’

curl http://localhost:3001/api/generate -d ‘{ “model”: “llama3.1:latest”, “prompt”: “写一首关于夏天的打油诗”, “format”: “json”, “stream”: false }’ 更多API可以参考: https://github.com/ollama/ollama/blob/main/docs/api.md

客户端交互工具

虽然我们可以通过CMD窗口进行对话,但是相对不那么直观,于是我们可以通过第三方Web UI来实现对话效果。 支持windows的客户端工具 可以使用

浏览器插件

支持多人的webui

docker安装UI

  • Dify
  • open-WebUI

Chrome插件-Chat with Ollama

我们通过谷歌浏览器官方插件地址搜索Chat with Ollama 安装完成后在Hostname输入本地地址:http://localhost:3001,选择Model,保存后可以开始对话

Chrome插件-Page Assist

我们通过谷歌浏览器官方插件地址搜索Page Assist 新增至 Chrome 在设署选项中->ollama设置->Ollama URL:http://127.0.0.1:3001 保存完后就可以看到上方有可用的模型,选择模型后就可以使用.

第三方网站chatboxai

直接访问 https://web.chatboxai.app/ 打开后界面中间会有一个弹出框,直接选择”local model”,或者点击左下角的settings.

先在DISPLAY中设置语言为”简体中文”,

在MODEL中设置API:http://127.0.0.1:3001,模型中选择已有模型”deepseek-r1:7b”.最后保存. 如果无法连接可以修改 WINDOWS 用户环境变量中

OLLAMA_HOST       0.0.0.0    --任何IP都可以访问
OLLAMA_ORIGINS    *

配置好环境变量后,重启下Ollama. 接下来我们就可以愉快的对话了.

Posted in AI.

Tagged with , , , .


硅基流动(SiliconCloud)API结合Chathub插件/Cherry Studio桌面免费访问deepseek API

deepseek

使用网页版时为经常遇到”服务器繁忙” Deepseek的API也已暂停赠送和充值服务。

其它的解决办法:

  • 本地部署
  • 使用第三方平台嵌入(如秘塔Ai,千帆大模型,纳米Ai等,硅基流动,火山引擎)

本地部署满血版【不现实】,对电脑要求太高! 32B版本 需要16核以上(如AMD Ryzen 9或Intel i9) 64GB+ 30GB+ 24GB+显存(如A100 40GB或双卡RTX 3090)

这里介绍使用硅基流动的三方平台

硅基流动 是一家专注于大规模AI计算的技术公司,由清华大学高性能计算研究所孙广宇教授团队创立。公司核心团队来自清华大学、MIT等顶尖高校,在高性能计算和AI系统方面有深厚的技术积累。

硅基流动的主要产品和服务包括:

  • SiliconLLM: 高性能LLM推理引擎,支持各种主流大语言模型的高效部署。
  • SiliconCloud: 一站式AI云计算平台,提供LLM训练推理等服务。
  • OneDiff: 开源的AI编译框架,可自动优化AI模型性能。

公司的核心优势在于深厚的系统优化技术,能够大幅提升AI模型的计算效率,帮助企业降低AI部署成本。目标市场主要面向有大规模AI计算需求的企业客户。

一句话介绍:是集成多家大模型的管理平台,是一个支持多种大模型的 api接口管理 & 分发系统,类似于 One-API

模型广场 [url]: https://cloud.siliconflow.cn/models 热门模型:

  • deepseek-ai/DeepSeek-R1
  • deepseek-ai/DeepSeek-V3
  • meta-llama/Llama-3.3-70B-Instruct
  • Qwen/QwQ-32B-Preview

免费使用:

  • deepseek-ai/DeepSeek-R1-Distill-Llama-8B
  • Qwen/Qwen2.5-7B-Instruct
  • stabilityai/stable-diffusion-xl-base-1.0
  • stabilityai/stable-diffusion-3-5-large

如果注册的时候如果填写我的邀请码,我和你都会拿到14块的免费额度,使用DeepSeek-R1也可以消耗它,够用好久了。(不能提现盈利哦)

官网链接:[url]: https://siliconflow.cn/zh-cn/

我的邀请链接:[url]: https://cloud.siliconflow.cn/i/LNzlifKw 我的邀请码:LNzlifKw 也可以扫描下面二维码:

SiliconCloud 邀请奖励持续进行,2000 万 Tokens 送不停!

  1. 邀请好友赚 2000 万 Tokens:每成功邀请一位新用户通过手机号码注册,您将获得 2000 万 Tokens;
  2. 注册即送 2000 万 Tokens:受邀好友作为新用户完成 SiliconCloud 账号注册,立刻获得 2000万 Tokens。 特别说明 平台 2000 万 Tokens 特指 Qwen2.5-14B-Instruct 模型单价下的数量,实际到账为 14 元平台配额; 奖励 Tokens 对应的平台配额资金仅限于 SiliconCloud 平台使用,不可提现;

注册后已经可以在web上选模型使用了

可以在活动中心,我的邀请链接中获得自已的邀请码。

成功登录后的页面大致长这样,最显眼的位置就是我们要找的DeepSeek-R1,其他模型的关注度都不如671B满血版的R1。

注册好账号之后登录,下图所示,在左边找到“API密钥”并点击进入,然后在右上角点“新建 API密钥”。

弹出来的对话框中输入密钥描述,如chatbox,然后点“新建密钥”。这个描述是方便你自己识别用的,所以名称可随便,比如家里电脑、chathub、VScode、cherry studio等都可以。

密钥创建好之后,或弹出密钥,我们复制,这个密钥,你也可以通过下图所示的方式复制已经创建好的密钥。我们先复制这个密钥,后面备用。

==========

在浏览器插件 ChatHub 中使用

使用浏览器插件是最方便的,也省去了登录的麻烦。

关于 ChatHub

ChatHub 是一个流行的大语言模型聚合插件,特点是可以同时和多个模型聊天,方便对比回答。ChatHub 在全球拥有数十万活跃用户。

安装 ChatHub

浏览器打开 ChatHub 官网,点击“新增至Chrome”按钮安装 ChatHub 浏览器插件: 安装后,将自动打开 ChatHub 设置页面.

在ChatHub中使用SiliconCloud模型

1、在 ChatHub 设置中找到“自定义机器人”模块,点击“添加”按钮 2、在弹窗中,依次:

输入机器人名称:SiliconCloud 选择 SiliconFlow 作为提供方: https://api.siliconflow.cn/ 输入 SiliconFlow 密钥 : 填写 SiliconFlow 支持的任何模型 : Qwen/Qwen2.5-7B-Instruct 3、点击“确认”后模型即配置成功 4、开始聊天

===========

使用Cherry Studio 桌面客户端调用硅基流动API的方法

Cherry Studio 是一款支持多模型服务的桌面客户端,内置了超过 30 个行业的智能助手,旨在帮助用户在多种场景下提升工作效率。它适用于 Windows、Mac 和 Linux 系统,无需复杂设置即可使用。 🚀 Cherry Studio 集成了主流的 LLM 云服务和 AI Web 服务,同时支持本地模型运行。 🌟 Cherry Studio 提供了诸如完整的 Markdown 渲染、智能体创建、翻译功能、文件上传和多模态对话等个性化功能,并具有友好的界面设计和灵活的主题选项,旨在为用户提供全面而高效的 AI 交互体验。

第一步:在官网下载cherry studio [url]: https://cherry-ai.com/ 开源下载 [url]: https://github.com/kangfenmao/cherry-studio/releases/latest

第二步:登录SiliconCloud(若未注册首次登录会自动注册账号) 第三步:在账户管理下选择API密钥,选择新建API密钥,密钥描述随意填写 第四步:复制密钥后续要用 第五步:打开cherry studio,选择左下角齿轮进入设置界面 第六步:在硅基流动界面中,粘贴API密钥,单击下绿色管理按钮 第七步:选择deep seek-ai/deep seek-R1 模型,这个目前最智能最厉害 第八步:在界面中最上方选择R1模型 完成上述操作后,就可以在对话框中愉快的和deep seek互动了!

Posted in AI.

Tagged with , , , , .


Windows Server远程桌面授权服务远程代码执行漏洞(CVE-2024-38077)

漏洞详情: 近期微软披露最新的远程代码执行超高危漏洞CVE-2024-38077, CVSS评分高达9.8 ,可导致开启了远程桌面许可服务的Windwos服务器完全沦陷。漏洞影响Windows Server 2000到Windows Server 2025所有版本,已存在近30年。该漏洞可稳定利用、可远控、可勒索、可蠕虫等,破坏力极大,攻击者无须任何权限即可实现远程代码执行。这一漏洞存在于Windows远程桌面许可管理服务(RDL)中,该服务被广泛部署于开启Windows远程桌面(3389端口)的服务器,用于管理远程桌面连接许可。攻击者无需任何前置条件,无需用户交互(零点击)便可直接获取服务器最高权限,执行任意操作。 一旦漏洞被恶意攻击者或APT组织利用,将快速蔓延,或波及全球所有使用微软服务器的用户。这是自“永恒之蓝”后,Windows首次出现影响全版本且能高稳定利用的认证前RCE漏洞。 目前网络已有POC流出,建议尽快通过官网公告更新安全补丁。

影响范围: 开启Windows Remote Desktop Licensing(RDL)Service 的Windows服务器

影响版本:
Windows Server 2000 – Windows Server 2025

利用条件: 1、用户认证:不需要用户认证 2、前置条件:开启了Windows Remote Desktop Licensing (RDL) 服务 3、触发方式:远程

综合评价:
利用难度:容易 威胁等级:严重

修复方式: 1.安装补丁https://msrc.microsoft.com/update-guide/vulnerability/CVE-2024-38077
2.对于无法安装补丁的情况,微软建议采取以下缓解措施:如非必要,关闭Remote Desktop Licensing服务。注意:此操作将影响远程桌面授权认证和分发,可能导致远程桌面出现问题影响正常业务或降低远程桌面安全性。同时,微软公告中提出:即便采取了上述缓解措施,微软仍强烈建议尽快修复漏洞以全面防护系统。

参考: https://baijiahao.baidu.com/s?id=1806872084343223859&wfr=spider&for=pc

Posted in 安全通告.

Tagged with , .


经典输入法绕过再现,搜狗输入法可绕过windows锁屏机制

win10等绕过成功 通过切换到搜狗输入法,使用”游戏中心”进行提权。

Posted in 安全通告.

Tagged with .


Windows Wi-Fi驱动程序远程代码执行漏洞(CVE-2024-30078) Windows所有支持版本受到威胁

一、 基本情况 Windows Wi-Fi 驱动程序是Windows系统的重要固件之一。

二、 漏洞描述 Windows Wi-Fi 驱动程序中存在输入验证不当漏洞,未经身份验证的攻击者可以向使用Wi-Fi网络适配器的相邻系统/设备发送恶意网络数据包,导致在无需用户交互的情况下实现远程代码执行。利用该漏洞需要靠近目标系统来发送和接收无线电传输。

三、 影响范围 受影响系统及版本

平台

受影响的微软驱动程序版本

Windows 10 Version 1809

32-bit Systems

x64-based Systems

ARM64-based Systems

10.0.0 – 10.0.17763.5936之前

Windows Server 2019

x64-based Systems

10.0.0 – 10.0.17763.5936之前

Windows Server 2019 (Server Core installation)

x64-based Systems

10.0.0 – 10.0.17763.5936之前

Windows Server 2022

x64-based Systems

10.0.0 -10.0.20348.2527之前

10.0.0 – 10.0.20348.2522之前

Windows 11 version 21H2

x64-based Systems

ARM64-based Systems

10.0.0 – 10.0.22000.3019之前

Windows 10 Version 21H2

32-bit Systems

ARM64-based Systems

(x64-based Systems)

10.0.0 – 10.0.19043.4529之前

Windows 11 version 22H2

ARM64-based Systems

x64-based Systems

10.0.0 – 10.0.22621.3737之前

Windows 10 Version 22H2

x64-based Systems

ARM64-based Systems

32-bit Systems

10.0.0 – 10.0.19043.4529之前

Windows 11 version 22H3

ARM64-based Systems

10.0.0 – 10.0.22631.3737之前

Windows 11 Version 23H2

x64-based Systems

10.0.0 – 10.0.22631.3737之前

Windows Server 2022、23H2 Edition (Server Core installation)

x64-based Systems

10.0.0 – 10.0.25398.950之前

Windows 10 Version 1507

32-bit Systems

x64-based Systems

10.0.0 – 10.0.10240.20680之前

Windows 10 Version 1607

32-bit Systems

x64-based Systems

10.0.0 – 10.0.14393.7070之前

Windows Server 2016

x64-based Systems

10.0.0 – 10.0.14393.7070之前

Windows Server 2016 (Server Core installation)

x64-based Systems

10.0.0 -10.0.14393.7070之前

Windows Server 2008 Service Pack 2

32-bit Systems

6.0.0 – 6.0.6003.22720之前

Windows Server 2008 Service Pack 2 (Server Core installation)

32-bit Systems

x64-based Systems

6.0.0 – 6.0.6003.22720之前

Windows Server 2008 Service Pack 2

x64-based Systems

6.0.0 – 6.0.6003.22720之前

Windows Server 2008 R2 Service Pack 1

x64-based Systems

6.1.0 – 6.1.7601.27170之前

Windows Server 2008 R2 Service Pack 1 (Server Core installation)

x64-based Systems

6.0.0 – 6.1.7601.27170之前

Windows Server 2012

x64-based Systems

6.2.0 – 6.2.9200.24919之前

Windows Server 2012 (Server Core installation)

x64-based Systems

6.2.0 – 6.2.9200.24919之前

Windows Server 2012 R2

x64-based Systems

6.3.0 – 6.3.9600.22023之前

Windows Server 2012 R2 (Server Core installation)

x64-based Systems

6.3.0 – 6.3.9600.22023之前

四、 修复建议 微软已在6月补丁日中发布了该漏洞的安全更新,建议受影响用户及时安装补丁修复该漏洞。可以自动更新或者在Microsoft官方下载相应补丁进行更新。

下载链接:

https://msrc.microsoft.com/update-guide/en-US/advisory/CVE-2024-30078

五、 参考链接 https://msrc.microsoft.com/update-guide/en-US/advisory/CVE-2024-30078

https://www.cve.org/CVERecord?id=CVE-2024-30078

Posted in 安全通告.

Tagged with , .


Splunk Enterprise Windows路径遍历漏洞(CVE-2024-36991)

Splunk Enterprise是一款专业的数据分析软件,能够对采样的数据以及统计图做出专业分析,支持跨平台使用,常用于金融、IT、财务等多个领域。

2024年7月2日,启明星辰集团VSRC监测到Splunk Enterprise中修复了一个路径遍历漏洞(CVE-2024-36991),该漏洞的CVSS评分为7.5。

Windows 上Splunk Enterprise 9.2.2、9.1.5 和 9.0.10之前版本中存在路径遍历漏洞,由于Python os.path.join函数在处理Windows路径时存在安全问题,未经身份验证的远程威胁者可对Splunk Enterprise(Windows上运行且已启用Splunk Web)中的/modules/messaging/端点执行路径遍历攻击,成功利用可能导致信息泄露。

此外,Splunk还修复了以下多个高危漏洞:

CVE-2024-36985:由于Splunk Enterprise中splunk_archiver应用程序中的copybuckets.py脚本,低权限威胁者可通过外部查找导致远程代码执行。

CVE-2024-36984:经过身份验证的威胁者可通过Windows上的 Splunk Enterprise 中的序列化会话Payload导致任意代码执行。

CVE-2024-36983:经过身份验证的威胁者可使用外部查找进行命令注入。

CVE-2024-36982:未经身份验证的远程威胁者可通过cluster/config REST 端点上触发空指针引用,导致 Splunk守护进程崩溃,造成拒绝服务。

影响范围 Splunk Enterprise 9.2版本:9.2.0 – 9.2.1

Splunk Enterprise 9.1版本:9.1.0 – 9.1.4

Splunk Enterprise 9.0版本:9.0.0 – 9.0.9

Splunk Cloud Platform 9.1.2312版本:9.1.2312.100 – 9.1.2312.108

Splunk Cloud Platform 9.1.2308版本< 9.1.2308.207

安全措施

目前该漏洞已经修复,受影响用户可升级到Splunk Enterprise 9.2.2、9.1.5、9.0.10 或更高版本;Splunk Cloud Platform 9.1.2312.109、9.1.2308.207或更高版本。

下载链接:

https://www.splunk.com/en_us/products/splunk-enterprise.html

临时措施 针对CVE-2024-36991: 该漏洞已知影响Windows上的 Splunk Enterprise。

此外,该漏洞会影响已启用Splunk Web 的实例,如果 Splunk Enterprise 实例未运行 Splunk Web则不易受该漏洞影响。如非必要,受影响用户可通过关闭 Splunk Web 作为一种缓解措施,详情可参考禁用不必要的 Splunk Enterprise 组件和web.conf配置规范文件。

参考链接 https://advisory.splunk.com/advisories/SVD-2024-0711

https://research.splunk.com/application/e7c2b064-524e-4d65-8002-efce808567aa/

https://advisory.splunk.com/advisories/SVD-2024-0704

https://advisory.splunk.com/advisories/SVD-2024-0702

Posted in 安全通告.

Tagged with , .


Windows版PHP命令注入漏洞(CVE-2024-5585)的风险提示

一、背景介绍

近日,技术支撑单位监测到PHP官方发布了一则Windows版本PHP命令注入漏洞CVE-2024-5585的公告,此漏洞是CVE-2024-1874补丁的绕过,目前该漏洞的细节和PoC已在互联网上公开。

1.1漏洞描述

CVE-2024-1874是Windows版本PHP中的一个命令注入漏洞,攻击者可以编写一段PHP恶意代码,在代码中调用proc_open()函数,通过$command参数进行命令注入,然后诱骗安装了Windows版本PHP的用户执行这段代码来利用此漏洞。即使在Windows上启用了bypass_shell选项,也可以通过proc_open()函数的$command参数进行命令注入。

CVE-2024-5585也是Windows版本PHP中的一个命令注入漏洞,其是CVE-2024-1874补丁的绕过。在CVE-2024-1874的PoC的第一个参数的文件名后加一个空格,即可绕过CVE-2024-1874的补丁进行命令注入。

1.2漏洞编号

CVE-2024-5585

1.3漏洞等级

高危

二、修复建议

2.1受影响版本

Windows PHP < 8.1.29

Windows PHP < 8.2.20

Windows PHP < 8.3.8

2.2修复建议:

目前官方已有可更新版本,建议受影响用户参考以下链接升级至最新版本:

https://www.php.net/downloads.php

Posted in 安全通告.

Tagged with , .


且用且珍惜,Docker国内镜像库全面失效

国内从 Docker Hub 拉取镜像有时会遇到困难

近日一些提供公有镜像仓库的组织,宣布因监管要求被下架.

近日不可使用镜像

上海交大 https://docker.mirrors.sjtug.sjtu.edu.cn 南京大学 https://docker.nju.edu.cn/

查看 GitHub 仓库:docker-practice/docker-registry-cn-mirror-test 的 Github Action 执行结果

其它已经不可用的 Docker 加速域名

中国科技大学(已限ip,不能用) https://docker.mirrors.ustc.edu.cn 百度云 Mirror:mirror.baidubce.com 网易: http://hub-mirror.c.163.com 腾讯云:mirror.ccs.tencentyun.com Azure 中国: dockerhub.azk8s.cn 七牛云:reg-mirror.qiniu.com 西北农林科技大学(仅在校内可用) https://dockerhub.mirrors.nwafu.edu.cn/

以下魔法还可以试试

阿里云个人镜像ACR

https://cr.console.aliyun.com/cn-hangzhou/instances/mirrors

第三方 public-image-mirror

https://github.com/DaoCloud/public-image-mirror

源站 替换为 cr.l5d.io l5d.m.daocloud.io docker.elastic.co elastic.m.daocloud.io docker.io docker.m.daocloud.io gcr.io gcr.m.daocloud.io ghcr.io ghcr.m.daocloud.io k8s.gcr.io k8s-gcr.m.daocloud.io registry.k8s.io k8s.m.daocloud.io mcr.microsoft.com mcr.m.daocloud.io nvcr.io nvcr.m.daocloud.io quay.io quay.m.daocloud.io registry.jujucharms.com jujucharms.m.daocloud.io rocks.canonical.com rocks-canonical.m.daocloud.io

第三方 docker-registry-mirrors

https://github.com/kubesre/docker-registry-mirrors https://dockerproxy.xyz/ 源站 替换为 cr.l5d.io l5d.kubesre.xyz docker.elastic.co elastic.kubesre.xyz docker.io docker.kubesre.xyz gcr.io gcr.kubesre.xyz ghcr.io ghcr.kubesre.xyz k8s.gcr.io k8s-gcr.kubesre.xyz registry.k8s.io k8s.kubesre.xyz mcr.microsoft.com mcr.kubesre.xyz nvcr.io nvcr.kubesre.xyz quay.io quay.kubesre.xyz registry.jujucharms.com jujucharms.kubesre.xyz

第三方 cloudflare-docker-proxy

https://github.com/ciiiii/cloudflare-docker-proxy 部署参考
https://developer.aliyun.com/article/1436840

Deploy Deploy to Cloudflare Workers

1.fork this project 2.modify the link of the above button to your fork url注意指的是访问https://deploy.workers.cloudflare.com/?url=https://github.com/ciiiii/cloudflare-docker-proxy 3.click the button, you will be redirected to the deploy page

Posted in 安装k8s/kubernetes, 容器.

Tagged with , , .