董昊的个人博客
首页 好物推荐 薅羊毛领红包 好看壁纸
更多
隐私政策 友情链接 时光机
1 使用 docker 快速安装 Home Assistant 6,571 阅读 2 Ipad mini2 降级到IOS10.3.3系统 5,313 阅读 3 华为手机开启ADB进行WIFI远程调试 4,388 阅读 4 Home Assistant集成OpenWrt 4,141 阅读 5 小米电视开机广告和乐播投屏广告Hosts屏蔽列表 4,064 阅读
无分类 智能家居 心得随想 文档教程
登录
标签搜索
  • Linux
  • JS
  • 教程
  • CSS
  • HTML
  • 配置
  • NodeJS
  • Docker
  • 解决方案
  • 文档
  • Git
  • Java
  • 技术培训
  • Hadoop
  • Mac
  • Windows
  • RiotJS
  • Python
  • VPS
  • Home Assistant
侧边栏壁纸
博主昵称
DONG HAO

  • 累计撰写 159 篇文章
  • 累计收到 78 条评论
  • 首页
  • 栏目
    • 无分类
    • 智能家居
    • 心得随想
    • 文档教程
  • 页面
    • 好物推荐
    • 薅羊毛领红包
    • 好看壁纸
    • 隐私政策
    • 友情链接
    • 时光机
搜索到 1 篇与 大模型 的结果
  • 计算大模型需要的GPU内存 2025-05-09
    计算大模型需要的GPU内存 计算大模型需要的GPU内存一个大模型需要多大 GPU 内存才能跑起来的计算公式:​​M = ((P * 4B) / (32 / Q) ) * 1.2​​M: 所需的 GPU 显存,单位是 GB。P: 模型的参数数量。例如,7B 模型有 70 亿个参数。4B: 每个参数占用的字节数,这里假设每个参数占用 4 个字节(通常指 FP32 或 Float32 格式)。32: 4 个字节等于 32 位。Q: 加载模型时使用的位数。例如,16 位 (FP16/BF16),8 位 (INT8) 或 4 位 (INT4)。这通常称为量化。1.2: 表示额外开销的系数,通常为 20%。这考虑了除了模型权重之外还需要加载到 GPU 显存中的其他数据,例如优化器状态、梯度等。‍举个例子:使用 FP16 量化加载 Llama 70B 模型,计算过程就是 M = ( (70,000,000,000 4) / (32 / 16) ) 1.2 = 168 GB‍
    • 2025年05月09日
    • 22 阅读
    • 0 评论
    • 0 点赞
博主栏壁纸
博主头像 DONG HAO

159 文章数
78 评论量
人生倒计时
热门文章
  1. 1 使用 docker 快速安装 Home Assistant
    使用 docker 快速安装 Home Assistant
    6571 阅读 - 05/08
  2. 2 Ipad mini2 降级到IOS10.3.3系统
    Ipad mini2 降级到IOS10.3.3系统
    5313 阅读 - 02/07
  3. 3 华为手机开启ADB进行WIFI远程调试
    华为手机开启ADB进行WIFI远程调试
    4388 阅读 - 11/09
最新回复
  • hqqxywbzew
    hqqxywbzew
    2025-03-06
    这篇文章不错!
  • qsvvrnqkhs
    qsvvrnqkhs
    2025-03-06
    这篇文章不错!
  • wmmjntgipj
    wmmjntgipj
    2025-03-04
    案例丰富且贴合主题,论证逻辑环环相扣。
标签云
本站服务器提供商 推广 VPS优惠 推广 VPS优惠 推广 VPS优惠 推广 VPS优惠 推广
舔狗日记
2013 - 2022 © MINWS
苏ICP备14034130号-1
已运行 00 天 00 时 00 分 00 秒
RSS MAP