扫码下载
BTC $77,493.45 -1.02%
ETH $2,321.57 -2.95%
BNB $632.79 -1.41%
XRP $1.41 -2.69%
SOL $85.60 -3.05%
TRX $0.3281 -1.69%
DOGE $0.0958 -2.16%
ADA $0.2463 -3.63%
BCH $454.02 -2.81%
LINK $9.22 -3.12%
HYPE $41.09 +0.59%
AAVE $91.87 -1.39%
SUI $0.9379 -3.50%
XLM $0.1755 -2.28%
ZEC $317.11 -0.45%
BTC $77,493.45 -1.02%
ETH $2,321.57 -2.95%
BNB $632.79 -1.41%
XRP $1.41 -2.69%
SOL $85.60 -3.05%
TRX $0.3281 -1.69%
DOGE $0.0958 -2.16%
ADA $0.2463 -3.63%
BCH $454.02 -2.81%
LINK $9.22 -3.12%
HYPE $41.09 +0.59%
AAVE $91.87 -1.39%
SUI $0.9379 -3.50%
XLM $0.1755 -2.28%
ZEC $317.11 -0.45%

Vitalik 分享本地私有 LLM 方案,强调隐私与安全优先

2026-04-02 14:53:42
收藏

ChainCatcher 消息,Vitalik Buterin 发文分享其截至 2026 年 4 月的本地化、私有化 LLM 部署方案,核心目标是将隐私、安全与自主可控作为前提,尽量减少远程模型及外部服务接触个人数据的机会,并通过本地推理、文件本地存储及沙箱隔离等方式降低数据泄露、模型越狱及恶意内容利用风险。

在硬件方面,其测试了搭载 NVIDIA 5090 GPU 的笔记本、AMD Ryzen AI Max Pro 128 GB 统一内存设备及 DGX Spark 等方案,并使用 Qwen3.5 35B 与 122B 模型进行本地推理。

其中,5090 笔记本在 35B 模型下可达约 90 tokens/s,AMD 方案约 51 tokens/s,DGX Spark 约 60 tokens/s。Vitalik 表示,其更倾向于基于高性能笔记本构建本地 AI 环境,同时使用 llama-server、llama-swap 及 NixOS 等工具搭建整体工作流。

app_icon
ChainCatcher 与创新者共建Web3世界