ai人工智能笔记
人工智能笔记
又一绝大话题,铺开了多少本书也描述不完,只能先占个坑了。
人工智能
AI(artifical intelligence) # 注: 是artificial不是article,千万别弄错了。
人工智能(Artificial Intelligence),英文缩写为AI。是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新技术科学。人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。
实际上,人工智能这么大,不要想着一口吃个胖子,不可能,任何一领域哪怕是很小的领域,都够许多人付出无数个日夜了,能在某个分支的某个岗位上发光发热就很不错了。
例如特种兵是很优秀的兵,对于个人来说,可以是南部战区某舰蛟龙突击队的一员突击队员,已经很优秀了。
所以,对于一般的职场人来说,能在新兴领域找到合适的岗位就不差,当然能力范围内做更多更高价值的事情是更好的。
所以,选定某个方向或分支很重要。什么,你还不知道有哪些分支,那说明和我一样盲目。
人工智能或打磨性能主要部件 TODO
人工智能-数据模态
人工智能-目标函数
人工智能-学习方式
人工智能的算法有哪些?
人工智能的核心
数据、算法、算力。
人工只能分为哪几层。
神经网络与深度学习
这应该算是其中一个分支,里面就有很多东西。
卷积神经网络(cnn)
cnn(convolutional nerual networks) # 卷积神经网络
应用领域:
图像识别(自动驾驶等)
如何理解卷积神经网络
比较好理解。
例如100100的图。拿1010的格子进行扫描,每次偏移1,需要移动100次就可以完成扫描。
如果每次偏移2,需要移动25次(横向和纵向都受影响)就可以完成扫描。
卷积神经网络的计算次数和什么有关
卷积核参数
卷积核大小(D×D):卷积核越大,参数量和计算量呈平方增长。
输入/输出通道数(M/N):参数量公式为 D×D×M×N,计算量为 D×D×M×N×Df²(Df为输出特征图尺寸)。
步幅与填充
步幅(Stride):步长越大,输出特征图尺寸越小,但单次卷积覆盖范围更广,可能影响计算效率。
填充(Padding):填充方式(如"same"或"valid")改变输出尺寸,间接影响计算量。
卷积类型
普通卷积:计算量为 D×D×M×N×Df²。
深度可分离卷积:参数量和计算量约为普通卷积的1/9,通过分离空间和通道操作降低复杂度。
网络结构
层数与通道数:模型越深、通道数越多,总运算次数显著增加。
模型优化技术:如剪枝、量化等可减少冗余计算。
循环神经网络(rnn)
rnn(recurrent nerual networks) # 循环神经网络
应用领域:
语音识别
文本提取等
卷积神经网络和循环神经网络的对比
| 维度 | 卷积神经网络(CNN) | 循环神经网络(RNN) | Transformer |
|---|---|---|---|
| 主要结构 | 卷积层、池化层、全连接层 | 循环隐藏层、时间步递归 | 编码器-解码器结构,多头自注意力机制 |
| 处理数据类型 | 网格结构数据(图像、音频) | 序列数据(文本、语音、时间序列) | 序列数据,支持并行处理 |
| 计算效率 | 高,支持并行 | 低,序列依赖,难并行 | 高,完全并行,适合大规模训练 |
| 长距离依赖建模 | 有限,感受野限制 | 有限,梯度消失问题 | 优秀,自注意力捕捉任意距离依赖 |
| 参数共享 | 卷积核权重共享 | 时间步权重共享 | 无权重共享,注意力权重动态计算 |
| 优点 | 参数少,适合图像特征提取 | 适合序列建模,捕捉时间依赖 | 并行高效,长距离依赖,灵活性强 |
| 缺点 | 不适合长序列依赖 | 训练难,梯度消失,计算慢 | 计算资源需求高,模型复杂 |
| 典型应用 | 图像分类、目标检测、语音识别 | 机器翻译、语音识别、文本生成 | 机器翻译、文本理解、图像识别 |
局部连接与权重共享
局部连接
神经网络相关文档
【AI概念】卷积神经网络(CNN)vs. 循环神经网络(RNN)vs. Transformer详解(附详尽Python代码演示)| 定义与原理、数学公式、案例与代码可视化、结构对比与优缺点 # 写的比较详细
【深度视觉】第四章:卷积神经网络架构 # 图文并茂 好
deepseek和人工智能的关系。
人工智能是个很大的领域,deepseek是实现人工智能的一个产品。
2024年底的时候deepseek起了个头,到今年国家做AI十年规划,形势一目了然。
前十年就这样了,新的风口即使达不到最前沿,跟上脚步就不会太差。
人工智能和程序员写代码谁写的好?
不用怀疑了,ai写的又快又好。
对于常规功能来说,ai生成的效率比程序员快n倍,质量也很规范,比一般程序员写的代码质量肯定要好。
LLM是什么,和大模型是一个意思吗?
LLM(large language model)(大语言模型)。
大模型包括LLM。
LLM支持音频和视频吗?
音频和视频也在LLM的范围内,只不过要特定称呼下。
LLM # 大语言模型,一般指文本
音频LLM # 音频大语言模型
人工智能产品有哪些
这也是一门必修课了,新时代不掉队,包里肯定要有几款ai储备。
阿里-千问 # 通用方案
阿里-通义灵码 # idea、vscode等的插件
腾讯-元宝
字节-豆包 # 感觉生成速度比较快
字节-trae # 类似于阿里的灵码,属于开发工具范畴
deepseek # 24年底杀青亮眼、现在风头不如从前,但是作为元老,仍处于前排
RAG是什么
RAG(Retrieval-Augmented Generation)(检索增强生成)。
典型案例:
金融、医疗等领域大模型答的不太准。通过将手册导入到知识库,回答的时候先从知识库查。
注:这里不是查的到就返回结果,而是查的到就把查到的结果拼到提示词里,一起交给大模型,这样就增强了生成。
注意区别:
和直接查库返回结果是有区别的,这里是查库拿到结果后一起给大模型,最终要的是大模型的结果。
mcp是什么
MCP(model context protocol) 模型上下文协议。
简单说就是模型虽然可以回答,但是如何让他方便的调用呢?
于是mcp就出现了,相当于元信息,定义模型的信息,便于交流。
千问和通义灵码的区别
都是阿里出品。
千问(通义千问)注重综合领域。
灵码(通义灵码)专注于代码开发、测试这一块。
通义灵码可以做什么?
1、生成代码。
2、生成测试用例。
3、生成注释。
4、git提交时也可以自动生成内容概要。。。
知识库
AI为什么会一本正经的胡说八道
ai看似智能,实际并具备真实的逻辑推理能力,只是根据符号来处理数据,有可能未命中到正确的答案,也有可能知识库中根本就没有正确的答案,ai只能根据自己的理解给出最接近的答案。
一本正经胡说八道示例
百度问公孙瓒的武力值,居然是这样的答复。
翻译过来就是张辽略逊于李典。。。
知识库和elasticSearch有什么不同
es是全文检索,基于字符匹配。
知识库有提升,基于字符,还可以基于语义分析。
例如:
这个报文成功时会返回什么?
本身知识库的文档里没有成功字样,但是会分析语义,找到true之类的字样,拿到近似的答案。
注:这也不是真正的分析语义。而是通过向量化,如果找不到这个字符,也会找相近语义的字符。
其他
人工智能算法、模型、框架 # 有一定描述
https://arxiv.org # 科学论文预印本网站,可以理解为许多第一手论文的网站,国内好像访问不了,被墙了
更多推荐



所有评论(0)