首页
好物推荐
薅羊毛领红包
好看壁纸
更多
隐私政策
友情链接
时光机
搜索
1
使用 docker 快速安装 Home Assistant
6,571 阅读
2
Ipad mini2 降级到IOS10.3.3系统
5,313 阅读
3
华为手机开启ADB进行WIFI远程调试
4,388 阅读
4
Home Assistant集成OpenWrt
4,141 阅读
5
小米电视开机广告和乐播投屏广告Hosts屏蔽列表
4,064 阅读
无分类
智能家居
心得随想
文档教程
登录
Search
标签搜索
Linux
JS
教程
CSS
HTML
配置
NodeJS
Docker
解决方案
文档
Git
Java
技术培训
Hadoop
Mac
Windows
RiotJS
Python
VPS
Home Assistant
DONG HAO
累计撰写
159
篇文章
累计收到
78
条评论
首页
栏目
无分类
智能家居
心得随想
文档教程
页面
好物推荐
薅羊毛领红包
好看壁纸
隐私政策
友情链接
时光机
搜索到
1
篇与
大模型
的结果
2025-05-09
计算大模型需要的GPU内存
计算大模型需要的GPU内存一个大模型需要多大 GPU 内存才能跑起来的计算公式:M = ((P * 4B) / (32 / Q) ) * 1.2M: 所需的 GPU 显存,单位是 GB。P: 模型的参数数量。例如,7B 模型有 70 亿个参数。4B: 每个参数占用的字节数,这里假设每个参数占用 4 个字节(通常指 FP32 或 Float32 格式)。32: 4 个字节等于 32 位。Q: 加载模型时使用的位数。例如,16 位 (FP16/BF16),8 位 (INT8) 或 4 位 (INT4)。这通常称为量化。1.2: 表示额外开销的系数,通常为 20%。这考虑了除了模型权重之外还需要加载到 GPU 显存中的其他数据,例如优化器状态、梯度等。举个例子:使用 FP16 量化加载 Llama 70B 模型,计算过程就是 M = ( (70,000,000,000 4) / (32 / 16) ) 1.2 = 168 GB
2025年05月09日
22 阅读
0 评论
0 点赞