AI时代下的个人成长论:如何获得新鲜量大的AI资讯?如何应用到自己的场景中?
1.AI时代下的个人成长论 2.本周技术分享
·
本周的技术分享放在第二章
一、主文章-AI时代下的个人成长论
1、输入:向外看是更高效的方式
大模型之前,互联网技术上也没有太多新东西,而且行业非常深且细分了,所以可复用的新经验并不多。
但大模型时代下,技术又在快速迭代,每天网上都有大量的新经验,新想法提出(尤其是在推特上)。而且大家做的事都还比较浅,所以大多经验都可以复用。此时向外抄一抄是一个更高效的举措。
分享一下我获得新信息的渠道:使用的软件是RSS订阅器-folo,关注的博主列表如下,每天都能看到十几条最新的科技咨询,新鲜且量大,包括动态、日报、周报

2、暂存:随时记录
对于有感触的问题,还有灵光一现的想法,要持久化的记录下来以备后续使用。
不及时记录的话,会感觉有很多东西要看,很多想法要做,但是一时想不起来,让人感觉很焦虑。
这种现象称为蔡格尼克效应:未完成的任务会持续占据人的短期记忆,不断牵扯注意力,而当任务被完成或得到明确的处理闭环时,大脑就会放下对这件事的牵挂。
3、吸收:少一些讨论,多一些实验
关于大模型的很多讨论都是没有意义,无法产出结论的。
因为大模型具有很高的不确定性,资深的专家也很少,每个人都会有各种各样的想法,光靠嘴其实是没法说明哪个方法更加有效的。
过度的讨论是对确定性的追求,对达成一致的期待,背后是焦虑情绪在作祟。
建议少一些讨论,多一些实验。当有分歧的时候就做实验,快速迭代,分享一篇我觉得收获颇丰的开发范式:
第 1 天:想清楚假设和成功的标准。
第 2 天:做出一个 MVP(真正意义上最简可行的那种)。
第 3-5 天:发给一小部分用户试试。
第 2 周:分析数据,总结学到的东西,决定下一步怎么走。
二、技术分享
1、IVF_HNSW算法
- 为了解决什么问题:通过余弦相似度寻找相似向量时,全量遍历所有向量的计算度成本太高
- IVF算法:构建时利用K-means对数据库中的数据进行聚簇,查询时计算传入向量和每个簇质心的距离,找到前n个簇
- HNSW算法
- 构建:
- 一个节点根据指数计算他会被放到几层
- 从最高层开始,找到这个节点在这一层的tokM最近邻,建立连接。再往下走一层
- 不断重复直到完成第0层(全量数据节点)
- 查询:
- 从最高层开始,先找到查询向量最近的节点A
- 往下一层,在A节点的邻居中,找和查询向量最近的B节点
- 不断重复直到完成第0层
- 为什么不单独用,而要合在一起
- IVF:簇数是不能太多的否则速度很慢,更新成本非常高需要定期重建
- HNSW:节点会冗余在多层,占用内存更多
- 应用场景-milvus:专门搞向量的数据库,性能很好,github star 40.9k,https://github.com/milvus-io/milvus
2、大模型感知工具,写脚本编排工具调用
- 好处一:接口的调用在外部执行,数据不传入大模型,token消耗少
- 好处二:大模型在代码领域的能力很强,能够写出好的脚本来解决问题
- 相关公司:manus、anthropic
- 相关文章:https://www.anthropic.com/engineering/code-execution-with-mcp、https://www.youtube.com/watch?v=6_BcCthVvb8
3、调用grep、glob进行关键词查找
- 好处:相较于提取关键词进行embbeding,提高上下文查找的效率和准确率
4、大模型根据需求加载部分工具
- 好处:减少token、提高准确率
- 相关文章:https://www.anthropic.com/engineering/advanced-tool-use
5、允许模型输出不知道:
- 具体实现:“如果数据不足以得出结论,就直接说出来,而不是猜测”
- 好处:避免模型乱输,乱选工具
- 相关文章:https://claude.com/blog/best-practices-for-prompt-engineering
更多推荐

所有评论(0)