本周的技术分享放在第二章

一、主文章-AI时代下的个人成长论

1、输入:向外看是更高效的方式

大模型之前,互联网技术上也没有太多新东西,而且行业非常深且细分了,所以可复用的新经验并不多。

但大模型时代下,技术又在快速迭代,每天网上都有大量的新经验,新想法提出(尤其是在推特上)。而且大家做的事都还比较浅,所以大多经验都可以复用。此时向外抄一抄是一个更高效的举措。

分享一下我获得新信息的渠道:使用的软件是RSS订阅器-folo,关注的博主列表如下,每天都能看到十几条最新的科技咨询,新鲜且量大,包括动态、日报、周报

2、暂存:随时记录

对于有感触的问题,还有灵光一现的想法,要持久化的记录下来以备后续使用。

不及时记录的话,会感觉有很多东西要看,很多想法要做,但是一时想不起来,让人感觉很焦虑。

这种现象称为蔡格尼克效应:未完成的任务会持续占据人的短期记忆,不断牵扯注意力,而当任务被完成或得到明确的处理闭环时,大脑就会放下对这件事的牵挂。

3、吸收:少一些讨论,多一些实验

关于大模型的很多讨论都是没有意义,无法产出结论的。

因为大模型具有很高的不确定性,资深的专家也很少,每个人都会有各种各样的想法,光靠嘴其实是没法说明哪个方法更加有效的。

过度的讨论是对确定性的追求,对达成一致的期待,背后是焦虑情绪在作祟。

建议少一些讨论,多一些实验。当有分歧的时候就做实验,快速迭代,分享一篇我觉得收获颇丰的开发范式

第 1 天:想清楚假设和成功的标准。

第 2 天:做出一个 MVP(真正意义上最简可行的那种)。

第 3-5 天:发给一小部分用户试试。

第 2 周:分析数据,总结学到的东西,决定下一步怎么走。

二、技术分享

1、IVF_HNSW算法

  • 为了解决什么问题:通过余弦相似度寻找相似向量时,全量遍历所有向量的计算度成本太高
  • IVF算法:构建时利用K-means对数据库中的数据进行聚簇,查询时计算传入向量和每个簇质心的距离,找到前n个簇
  • HNSW算法
    • 构建:
    1. 一个节点根据指数计算他会被放到几层
    2. 从最高层开始,找到这个节点在这一层的tokM最近邻,建立连接。再往下走一层
    3. 不断重复直到完成第0层(全量数据节点)
    • 查询:
    1. 从最高层开始,先找到查询向量最近的节点A
    2. 往下一层,在A节点的邻居中,找和查询向量最近的B节点
    3. 不断重复直到完成第0层
  • 为什么不单独用,而要合在一起
    • IVF:簇数是不能太多的否则速度很慢,更新成本非常高需要定期重建
    • HNSW:节点会冗余在多层,占用内存更多
  • 应用场景-milvus:专门搞向量的数据库,性能很好,github star 40.9k,https://github.com/milvus-io/milvus

2、大模型感知工具,写脚本编排工具调用

3、调用grep、glob进行关键词查找

  • 好处:相较于提取关键词进行embbeding,提高上下文查找的效率和准确率

4、大模型根据需求加载部分工具

5、允许模型输出不知道:

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐