首页
归档
逛逛与留言
关于
Search
1
执勿山爬山游记
102 阅读
2
AI的使用第二期
91 阅读
3
捏泥巴
87 阅读
4
备案了!记录下
82 阅读
5
博客捣鼓记
67 阅读
默认分类
生活随记
代码编程
看看风景
学习记录
登录
Search
标签搜索
日常
Shu
累计撰写
32
篇文章
累计收到
53
条评论
首页
栏目
默认分类
生活随记
代码编程
看看风景
学习记录
页面
归档
逛逛与留言
关于
搜索到
32
篇与
的结果
2025-06-20
【雷达学习】双基地MIMO-ESPRIT方法解互耦回忆
主要学习来源于这篇文章:《Joint DOD and DOA estimation of bistatic MIMO radar in the presence of unknown mutual coupling》大致思路是:先回忆了下 ULA 的 ESPRIT 方法;然后是 MIMO 下的 ESPRIT 方法然后是看文章看不懂,然后 AI 帮我解析,先读出大致的框架,然后丰富细节,最后对自己的理解进行确认,然后画出代码仿真的关键点下面在这个网盘下面提供 2 个 PDF 和一个代码方便之后回顾学习https://a.siyouyun.ren:30597/OutSaveFile2/RadarXG/ESPRIT_Double_mimomatlab 代码预览clc,clear all,close all; %% Parameters of the radar system M = 7; % number of Tx N = 7; % number of Rx d = 0.5; % inter-element space % theta = [15 -10 5]; % DOA % phi = [20 35 60]; theta = [-50 20 60]; % DOD % DOA phi = [20 40 60]; K = length(theta); % number of target % dopplor frequency shift L = 100; % number of sanpshot SNR = 30; % signal-to-noise ratio before matched filtering Geo_Rx = [0:N-1]; % geometry of Rx Geo_Tx = [0:M-1]; % geometry of Tx At = exp(-j*2*pi*d*Geo_Tx.'*sind(phi)); % transmitting direction matrix Ar = exp(-j*2*pi*d*Geo_Rx.'*sind(theta)); % receiving direction matrix item = 10; %% 设置互耦系数; mc_K = 2; mc_nb = mc_K+1; C_t = generateMCMmat(M,mc_nb); C_r = generateMCMmat(N,mc_nb); C = kron(C_t,C_r); %% 设置选择Pt和Pt矩阵 Pt = [zeros(M-2*mc_K,mc_K),eye(M-2*mc_K),zeros(M-2*mc_K,mc_K)]; Pr = [zeros(N-2*mc_K,mc_K),eye(N-2*mc_K),zeros(N-2*mc_K,mc_K)]; M1 = M-2*mc_K; N1 = N-2*mc_K; P = kron(Pr,Pt); % number of trials %% Selective matrices JM1 = [eye(M1-1),zeros(M1-1,1)]; JM2 = [zeros(M1-1,1),eye(M1-1)]; JN1 = [eye(N1-1),zeros(N1-1,1)]; JN2 = [zeros(N1-1,1),eye(N1-1)]; Jt1 = kron(JM1,eye(N1)); Jt2 = kron(JM2,eye(N1)); Jr1 = kron(eye(M1),JN1); Jr2 = kron(eye(M1),JN2); a_kronrao = zeros(M*N,K); for i=1:K a_kronrao(:,i) = kron(At(:,i),Ar(:,i)); end for item_num = 1:item disp(['SNR = ',num2str(SNR),' dB, ',num2str(item_num), ' # try : ']); %% Matched Filtering S = randn(K,L)+1i*randn(K,L); X_0 = C*a_kronrao * S; X = awgn(X_0,SNR,"measured","dB"); Y = P * X; %% Eigen decomposition %Rx = (X*X')/L; % Estimated covariance matrix Rx = (Y*Y')/L; [Es,D] = eigs(Rx,K,'LM'); % Signal subspace %% Rotational invariant property Vt = pinv(Jt2*Es)*Jt1*Es; %Vt = pinv(Jt1*Es)*Jt2*Es; [T,Phit] = eig(Vt); Phir = inv(T)*pinv(Jr2*Es)*Jr1*Es*T; %Phir = inv(T)*pinv(Jr1*Es)*Jr2*Es*T; E_theta = asind(angle(diag(Phir))/pi).'; E_phi = asind(angle(diag(Phit))/pi).'; plot(E_theta,E_phi,'k*');hold on; end H(1)=plot(E_theta,E_phi,'k*');hold on; H(2)=plot(theta,phi,'rx','markersize',28);grid on; xlabel('DOA'),ylabel('DOD'); legend([H(1),H(2)],'Esimated','Ture')闲聊没想到 matlab 还可以画出这样的图片,“赛博生命”,hhhhttps://mp.weixin.qq.com/s/GS-jSHnasVxrrIn5C2E3WQfigure('Position',[300,50,900,900], 'Color','k'); axes(gcf, 'NextPlot','add', 'Position',[0,0,1,1], 'Color','k'); axis([0, 400, 0, 400]) SHdl = scatter([], [], 2, 'filled','o','w', 'MarkerEdgeColor','none', 'MarkerFaceAlpha',.4); t = 0; i = 0:2e4; x = mod(i, 100); y = floor(i./100); k = x./4 - 12.5; e = y./9 + 5; o = vecnorm([k; e])./9; while true t = t + pi/90; q = x + 99 + tan(1./k) + o.*k.*(cos(e.*9)./4 + cos(y./2)).*sin(o.*4 - t); c = o.*e./30 - t./8; SHdl.XData = (q.*0.7.*sin(c)) + 9.*cos(y./19 + t) + 200; SHdl.YData = 200 + (q./2.*cos(c)); drawnow end
2025年06月20日
5 阅读
0 评论
0 点赞
2025-05-22
远程控制大战
这两天突发奇想再次捣鼓远程桌面,也是因为之前一直用 mstsc 微软的 RDP 远程桌面,感觉还是稍微有点卡, 之前也弄过解锁 60 FPS 什么的,但是还是感觉不明显,今天记录下各个远程软件和推荐;各个软件微软 RDP,网易 UU 远程,RustDesk(知名开源),向日葵,ToDesk,连连控,云玩加(个人开发者)前提要节对于一些国内厂商的远程,一般都提供他们自己的服务器进行进行搭桥或者连接,网易 UU 好像在网络好的时候可以 p2p 。例如向日葵,ToDesk 两个比较知名了,平时办公用用也还是可以的,但是也还是有些小问题,例如跨境连接等。所以,基于以上原因,对于我来说,先把两个外网的设备内网穿透桥接起来。用 皎月连 (需要打卡)或者 openp2p 这两个都可以;至于 zerotier 和 tailscale,前一个没弄好,后一个没用过;微软 RDP基于 皎月连 或者 openp2p 就可以通过 windows 的 mstsc 访问了,但好像貌似专业版系统,还要简单设置下一个知乎设置教程一个免密码登陆教程然后还有两个解锁 60 FPS 的教程,解锁60fps-1, 解锁2 怎么说了?之前平时一直是这么用的,感觉也还好,但是就是感觉(外网-手机热点)60 fps 还是没有这两天看了检查方法检测 60 fps 是否达到肉眼检测,😂,这个网站: https://frameratetest.org/zh/fps-test ,看看那两个竖着的黑杠杠动的是否流畅,还是可以看出分别,可以本机电脑开一个,远控电脑开一个,放在屏幕上对比了看,还是比较明显的,🤣推荐 RustDeskRustDesk 也是看的别人的教程,内网穿透后使用的,有两个软件要安装;被控端(服务端+客户端)安装;本机电脑(客户端安装),客户端下载链接, 服务端下载链接,这是两个 github 的链接,这是 github加速网站;看的这个教程:教程,主要就是下载好这几个软件,设置下 ip 和 key有几个小细节就是;可以吧下图的那个取消掉,网络好的话就是 p 2 p 直接连接,判断通过为全屏时左上角是✔就是 p 2 p,是刷新符号就是中继如果声音没有,可以看看 github 的 issue,我是把下图的禁用勾选了,就有声音了总体来说体验还是很不错的,速度上好像还比较快其他软件uu 远程有时候还可以,有时候可以 60 FPS然后是,连连控,还可以,可以稳定 60 FPS,稳定!!我都用的手机热点,还是可以,但是有些要开 vip云玩加,b 站上一个 up 开发的,还可以适配了手柄,还是开源免费的,fps 没确定,但是好像是自己弄了服务器,帮助记录下账号和两个机器握手,大概是这样小结就这些,推荐 RustDesk。但其实还有 Parsec(steamcommunity_302. exe 用的这个软件提供网络访问协助,Parsec 国内有些不好访问),但是我屋里电脑没弄那个显示器,Parsec 这个速度倒是可以,但是居然没自带虚拟显示器,ParsecVDisplay 这个 github 项目可以添加,但是今天还是下单了个 HDMI 欺骗器 5¥就这些了,RustDesk 还是可以的!
2025年05月22日
39 阅读
0 评论
0 点赞
2025-04-21
PDF翻译-ai加持下的梅开二度
之前 pdf 翻译,看了别人的开源项目,一般是先解析为 md 文件,再翻译,现在借助多模态 ai 强大的图片ocr 可以直接翻译主要思路,把 PDF 转为一张张图片,然后给 ai ,让其输出翻译好的 md 文本,工具如下:我用的豆包 1.5 的 vision 版本-大模型 api,提示词也可以自定义效果大概如下图:推荐火山引擎 api: https://console.volcengine.com/auth/login还有一个硅基流动的: https://siliconflow.cn/zh-cn/openrouter 好像也有些免费的蓝奏云工具下载链接,api 在 config.json 里面要自己填下:https://wwzw.lanzoup.com/i70mH2u34nve这是源代码: https://wwzw.lanzoup.com/i60jm2u34ydc
2025年04月21日
67 阅读
0 评论
0 点赞
2025-04-08
备案了!记录下
终于备案了!没想到,通过阿里云备案还挺方便的
2025年04月08日
82 阅读
2 评论
0 点赞
2025-03-21
AI的使用第二期
前言:前段时间写了个关于 ai 使用小结分享下, 创建时间 2025-03-21 22:00目录一、大模型的背景与来历:从神经网络到现代大语言模型二、基础平台三、对话:提问与提示词技巧四、信息搜集五、AI 编程六、使用技巧七、API 调用与知识库八、本地大模型部署九、多模态生成十、资源与社区十一、硬件性能与优化连接主义的萌芽(1940 s-1980 s) 神经网络的概念源于 1943 年神经生理学家 Warren McCulloch 和数学家 Walter Pitts 提出了第一个数学神经网络模型提出的“M-P 神经元模型”,但受限于算力和数据,长期停留在理论层面。1986 年,反向传播算法(Backpropagation:BP)的提出,使其利用数学中的链式法则计算梯度,使多层感知机(MLP)实现有效训练,奠定了现代深度神经网络的基础,但是由于受限于硬件和算法,早期模型难以解决复杂任务,90 年代后神经网络研究陷入低谷。第二次爆发:gpt 自然语言大模型2015 年,由 Sam Altman 等人创立的 OpenAI 以非营利组织的形式成立,初衷是确保通用人工智能 (AGI) 的发展安全且对全人类有益。在语言模型方面,OpenAI 采用了 google 在 17 年提出的 Transformer 创新架构。Transformer 利用自注意力机制,能够并行处理输入序列中的所有词,大大提高了训练效率和模型性能。GPT 系列(2018-2024):GPT-1(2018):基于 Transformer 解码器,首次采用无监督预训练+有监督微调策略,参数 1.17 亿。GPT-2(2019):参数增至 15 亿,提出“零样本学习”(Zero-Shot),验证模型规模与泛化能力的正相关。GPT-3(2020):参数达 1750 亿,引入“上下文学习”(In-Context Learning),通过 Few-Shot 提示解决多样化任务,标志大模型通用化。GPT-4/4 o(2023-2024):多模态支持(文本+图像+音频),引入强化学习与人类偏好对齐(RLHF),推理能力接近人类。这种"规模化"策略证明了大型语言模型能够表现出令人惊讶的能力,包括上下文学习、任务泛化和涌现能力。故事插曲:GPU 的关键作用与 NVIDIA 的崛起大模型训练依赖海量计算力,传统 CPU 无法满足需求。GPU (图形处理单元) 凭借其并行计算能力,成为深度学习的理想硬件。单个现代 GPU 可以同时处理数千个线程,比 CPU 快数十到数百倍。NVIDIA 公司的创始人黄仁勋有着传奇色彩的故事。他 1963 年生于台湾,后移民美国。NVIDIA 最初专注于为电脑游戏提供高质量的图形处理解决方案。有趣的是,NVIDIA 的 GPU 最初完全是为游戏和图形渲染设计的。2006-2007 年,研究人员发现 GPU 强大的并行计算能力可用于加速神经网络训练,NVIDIA 敏锐地捕捉到这一机会,开发了CUDA 编程平台,使开发者能更容易地利用 GPU 进行通用计算。随着深度学习的兴起,NVIDIA 从一家游戏图形公司转型为 AI 计算的基础设施提供商,成为全球最有价值的公司之一。二、大模型基础知识(直接对话类)去哪里使用大模型?引子:推荐优先选择 GPT-4、Claude、DeepSeek 等头部模型,根据需求与场景选择国内外平台。大模型大致可以分为国内国外两类:一、国外平台主流模型:ChatGPT(OpenAI):通用性强、响应速度快,适合全能型任务(如报告撰写、数据分析)。Claude(Anthropic):擅长进行文学创作,与代码编程。这是它的优势特点,很多编程插件首先选用 claude 模型。访问方式:需代理:国内用户需通过海外网络环境访问,gpt 官方大约 20 美元/月,claude 也是。国内第三方代理,付费工具推荐Sider(浏览器插件):( https://sider.ai/zh-CN )支持多模型切换、文件解析、实时联网搜索,功能集成度高。【成本多少】IMYAI 智能助手:( https://super.imyai.top/c )多模型聚合(含 GPT-4 o、Claude 3),支持上传 PDF/Excel 提问,ai 绘图。银行录像局( https://nf.video/ ):稳定访问 GPT/Claude,支持长对话与文件处理。closeAI( https://www.closeai-asia.com/ ):一家专门提供 api 访问的公司,很稳定,按量付费二、国内平台(1)自研特色模型豆包(字节跳动):通用性好,做了很多关于 ai 赋能基础建设,例如 ai 代码开发(后面会讲),app 上支持 AI 电话(语气逼真),ai 耳机实时沟通等(硬件联动)( https://www.doubao.com/chat/ )。通义千问(阿里巴巴):开源生态完善(Qwen 系列)、本地部署友好(Ollama 平台长期霸榜),支持法律 AI 顾问( https://tongyi.aliyun.com/ ),通义万象 2.1 视频模型。Kimi(月之暗面):【国产大模型最早出来的一批,ai 独角兽公司】200 万字长文本解析(如合同审查、论文总结),AI+PPT 自动生成(输入大纲即可输出完整幻灯片)( https://kimi.moonshot.cn/ )。DeepSeek(深度求索):低成本高智商模型(R 1 开源版性能比肩 GPT-4),官网访问易拥堵,推荐通过第三方平台调用( https://www.deepseek.com/ )。阶跃 AI:多模态很不错,视频生成一致性好( https://yuewen.cn/chats/new )。(2)综合集成平台问小白( https://www.wenxiaobai.com/chat/200006 ):实时调用满血版 DeepSeek,响应速度很快。纳米搜索(360 出品, https://bot.n.cn/ ):支持多种国产模型切换(包含 DeepSeek)。腾讯元宝:集成了 DeepSeek 模型( https://yuanbao.tencent.com/chat/ )。示例应用(以"区块链"为例):直白释义:区块链是一种通过链式数据结构存储信息的分布式账本技术,核心特征是去中心化和不可篡改。使用场景:①加密货币交易 ②供应链溯源 ③电子合同存证举例说明:• 例 1:比特币系统中,每笔交易通过哈希函数生成唯一标识(如 SHA-256 算法:H = Hash (Tx_Data)),多个交易按时间顺序连接成区块• 例 2:类似全班同学共同记录收支的公共笔记本,任何人修改记录需获得半数以上同学同意,且修改痕迹会被永久保留直观类比:"区块链就像乐高积木,每个新积木块(区块)必须严丝合缝扣在前一块上,想偷偷拆掉中间某块?除非你拆掉整个后半段并让所有玩家都同意"5.由来:xxxx 【演示例子:什么是量子力学】 【什么是信号处理中的谐波】 【什么是热力学第二定律】 提升类提示词在网络上有很多网友分享了自己的提示词,里面有他们自己的经验和思考,又很多通用的地方。总结出了“一步步思考”这个方法,例如在自己的问题最下面加一个“step by step think”或者“一步步思考”给出答案,那么比直接提问的效果就稍微好一些。例如:Take me deep breath and work on this problem step-by-step. Write your answer and give me a confidence score between 0-1 for your answer. Are you sure? This is very important to my career. You'd better be sure. 用中文回答还有,可以对问题本身进行提问,例如"对于这个问题 xxx,你怎么看?"让大模型帮你分析问题的解决方法。例如写文章的时候,先让大模型写大纲这些。https://www.aishort.top/ ,这是一个专门写提示词的网站。记得之前 think 版本的模型还没出来的时候,有一个厉害的高中生(涂津豪)写了让 claude 仿人类的思考的提示词,直接把 claude 的水平提高了一大截。https://github.com/richards199999/Thinking-Claude 这是那个提示词的 github,还有一个关于 claude 提示词的 github( https://github.com/langgptai/awesome-claude-prompts )与大模型的聊天确实一定程度上训练了人精准提问的能力。TopBook 的 b 站视频,也讲了写关于提问与使用上的方式【突破个人能力天花板,和 AI 协作的 12 个范式。】 https://www.bilibili.com/video/BV1pgmbY1EXX/?share_source=copy_web&vd_source=84d1208a0ce8dac7e5646fcc327301a5上面的思考方法也叫思维链方法 COT,模仿人的思考是有一个一个步骤的(Chain-of-Thought, CoT)自我验证(如“请检查上述答案是否有逻辑错误”)四、大模型信息收集:联网模型的应用价值在数字化工作环境中,高效获取和处理信息已成为核心竞争力。具备联网能力的大模型彻底改变了传统信息搜集方式,将"搜索"与"理解+整合"结合,大幅提升信息获取效率。优势:实时信息获取,信息整合能力工具推荐Kimi、豆包、元宝、问小白、纳米搜索1. Kimi Chat(最推荐)实时性极佳,搜索结果全面,搜索的网页多【测试搜索今日新闻】2.豆包除了文字类信息搜索,有独家抖音生态接入,可以搜索到抖音视频3.元宝/问小白/纳米搜索这几个采用 deepseek+联网的模式,联网搜索效果也不错使用场景1.市场动态实时追踪(Kimi):快速获取行业报告、政策更新、突发事件等时效性敏感信息2.学术研究与文献综述引文查找(纳米搜索+Kimi)这个月政府采购网发布了哪些采购的内容?给我找出10片关于地波雷达的论文,帮我列出名字来,方便我引用。五、大模型编程开发工具AI 的快速发展,也给开发者带来了便利。基础的使用,就是让在对话式 ai 里,描述需求,帮我们写小的功能模块,或者查询资料。【字符串正则匹配是一个很好用的例子】gadfgadfgaadf 发生的发 fsdf进一步的推荐两个工具:Trae,字节跳动对标国外 Cursor,实现自然语言对话一键生成代码,现阶段 gpt 和 claude 可免费调用Vscode,微软开源的轻量 IDE,支持很多 AI 插件(提供了代码补全,优化,重构等),推荐 MarsCode 插件与 Cline 插件(cline 需要 api 但是可以实现与 Trae 一样的功能)【帮我写一个 html 的登录界面,用 css 和 js 美化】【一个 Trae 写的工具的例子:PDF 转图片】【一些 Vscode 截图】【阅读他人的项目代码,或者过去的代码,达到快速理解的目的,或者优化代码】【代码提示,代码补全,代码注释】六、大模型使用技巧具体的使用案例6.1 Mermaid 流程图https://www.mermaidchart.com/6.2 PlantUML 图( https://plantuml.com/zh/ )6.3 图片转文字描述可以直接把图片转为对应的图片描述提示词:帮我用结构化的语句把图片内容描述出来,要专业,即使看不见的图片的人听了,也知道这个图的详细内容6.4文档类处理1. 公式转换【图片转公式,公式复制到 word】:https://www.latexlive.com/2. 全文翻译演示 2 种:阿里的通义千问可以直接对整个 pdf 翻译PDF 转图片,然后直接丢给大模型翻译3. markdown 输出 word 文档markdown,一级标题二级标题演示4.文档检视:错别字检查、术语校对、格式标准化帮我检查下面文字中的错别字: “今天天七真不错, 是个大晴天,适合出去删不!”5. 大模型+Kimi:自动生成 PPT 大纲与内容通义千问也有https://tongyi.aliyun.com/aippt6. 技术文档生成(从代码/描述生成完整文档)文本润色(语法、术语、风格优化)6.5 法律援助(通义千问)网站链接: https://tongyi.aliyun.com/qianwen/agent/home?type=FindAgent  ## **七、大模型 API 调用与 RAG 知识库** 通过电脑上的客户端软件对大模型 api 调用,api 调用更加自由,可以自己开发自定义的程序。聊天更加流畅。推荐一个软件 CherryStudio。 https://cherry-ai.com/的官网 ,找到下载链接安装即可 下面为软件图片  重点在于其可以调用本地知识库进行知识库问答,非常方便。 1. 获取 api,火山引擎或者硅基流动的 API,deepseek 的 api 也可以使用 2. 在软件中填写 api 密钥 3. 设置知识库,进行对话 ## **八、隐私、安全与本地部署** 1. **隐私风险与应对** - 数据脱敏、企业合规要求 2. **本地大模型部署** -  - **Ollama 教程**:模型下载、运行、微调(如 LLaMA 3 本地化)( https://ollama.com/ ) - 硬件要求:CPU/GPU/NPU 性能优化 ## **九、多模态生成** 1. **图片生成** - 豆包, https://www.doubao.com/chat/create-image - Midjourney/DALL·E 提示词设计 - comfyui,真正要升入了解绘画,视频,就要了解这个工具 - >ComfyUI 是一个开源的图形化界面工具,主要用于 Stable Diffusion 模型的图像生成工作流设计,其节点式可视化操作是最大特色,用户可以通过拖拽节点来精确控制图像生成的每个环节 2. **视频生成** - 短视频生成,(腾讯、阿里、跃问) - https://tongyi.aliyun.com/wanxiang/videoCreation , 通义万象 2.1 - https://yuewen.cn/videos?utm_source=yuewen_nav&utm_medium=nav_link ,跃迁 3. **声音合成** - 语音克隆(工具:ElevenLabs、Azure TTS,ChatTTS) - https://www.chattts.co/zh#free ## **十、资源与社区** 1. **外部资料整合** - 李燕姐提供的 PDF 文档 -  - [金子的AI知识库](https://tffyvtlai4.feishu.cn/wiki/OhQ8wqntFihcI1kWVDlcNdpznFf)(工具与案例库) - [七小姐的提示词博物馆](https://vxc3hj17dym.feishu.cn/wiki/VDb1wMKDNiNj0mkJn6VcFgRenVc)(模板库)(可以吹一波飞书文档) - 豆包: https://www.doubao.com/chat/ kimi: https://kimi.moonshot.cn/chat/ 问小白: https://www.wenxiaobai.com/ 纳米 AI: https://bot.n.cn/ closeAI(api 类): https://www.closeai-asia.com/ 火山引擎(api 类): https://www.volcengine.com/ 硅基流动(api 类): https://cloud.siliconflow.cn/ IMYAI-GPT: https://new.imyai.top/ ; https://super.imyai.top/chat cherryStudio(客户端): https://cherry-ai.com/ chatBox(客户端): https://chatboxai.app/zh trae(编程 IDE): https://traeide.com/或https://www.trae.ai/home -  2. **提示词社区构建** - 提示词版本管理(GitHub 仓库或飞书多维表格) - 开源社区平台 - Hugging Face、ModelScope( https://www.modelscope.cn/my/overview ),GitHub 等,ollama(国外) #### **十一、硬件性能与优化** 在大模型推动各行业变革的当下,2025 年随着技术趋势演进与行业实践深入,下面简单了解其算力部署指南,包括硬件角色、选择策略、模型硬件匹配及微调技术等。 #### 一、CPU/GPU/NPU 在大模型中的角色对比 1. **训练场景:GPU 主导,NPU 局部突破** - **GPU**(如 NVIDIA H 100/A 100) - **核心优势**:并行计算能力极强,支持大规模矩阵运算,适配 Transformer 架构的密集计算需求。 - **典型应用**:千亿参数模型训练(如 GPT - 5、DeepSeek 671 B),需多卡并行(如 8 卡 H 100 集群)。 - **NPU**(如华为昇腾 910 B、寒武纪 MLU) - **适用场景**:端侧/边缘设备轻量级训练(如 10 B 以下模型),能效比优于 GPU,适配智能驾驶、安防等低功耗场景。 2. **推理场景:GPU 主流,NPU 边缘端崛起** - **GPU** - **优势**:显存带宽高(如 H 100 的 3.35 TB/s),支持多任务并发推理(如同时处理文本生成+图像识别)。 - **主流配置**:单卡显存≥24 GB(如 A 100 80 GB),适配 70 B 参数模型 FP 16 推理。 - **NPU** - **突破点**:专为 AI 优化,单卡算力达 128 TOPS(如酷芯 NPU),在智能摄像头、手机端大模型(如 3 B 参数)部署中成本优势显著。 3. **CPU 的补充角色** - **功能**:数据预处理、任务调度、小模型推理(如 1.5 B 参数模型纯 CPU 运行)。 - **优化方向**:英特尔至强 Sapphire Rapids 内置 AMX 加速器,推理性能提升 10 倍,适配金融风控等低延迟场景。 #### 二、主流硬件选择:GPU+大内存/显存成标配 1. **GPU 仍是算力核心** - **国际厂商**:NVIDIA H 100(FP 8 精度性能翻倍)、AMD MI 300 X(192 GB 显存支持超大规模推理)。 - **国产替代**:华为昇腾 910 B(适配 DeepSeek R 1)、寒武纪 MLU(互联网大厂测试性能比肩 A 100)。 2. **内存/显存规格要求** - **训练端**:千亿级模型:显存≥640 GB(8 卡 H 100 集群) + DDR 5 内存≥2 TB。 - **推理端**: - 7 B 参数模型:FP 16 需 16 - 20 GB 显存,INT 4 量化后仅需 8 GB(如 NVIDIA RTX 4090)。 - 70 B 参数模型:需多卡并行(如 2×A 100 80 GB)或单卡优化(MI 300 X)。 #### 三、典型推理场景的模型与硬件匹配 | 场景分级 | 模型参数量 | 硬件配置 | 典型案例 | | # Thank you Listening 所有资料放在了这个网盘,可以下载: https://a.siyouyun.ren:30597/AI_Share
2025年03月21日
91 阅读
0 评论
0 点赞
1
2
...
7