目录

简介

系统架构设计:端云协同AI交互

核心交互流程与时序图

作者简介


简介

虽然小智AI的热点已经过去,但是影响还在扩散,越来越多的产品开始引入AI这套体系,比较成功的方式是<现有产品+AI>。

应用最多的就是一些玩具,引入了语音对话、AI智能体的概念。

虽然整体体验很难让人满意,但趋势还是很明显,至少开始脱离AI智障的魔咒,开始走向AI智能。

今天这篇内容就来谈谈,智能锁+AI的实现逻辑。

现有的智能锁多数还是轻AI的方式,比如AI指纹、AI掌纹......

本质上还是增加了AI的营销词汇,侧重宣传,并不能称之为真AI。

当然也有一些企业开始尝鲜,比如最近看到的萤石的AI智能锁,就增加了AI智能体和AI语音对话的功能。

图片

注:来自萤石官方宣传图

算是一个不错的尝试。

那具体是怎么实现呢?

下面仅从框架层面给大家大体展示一下AI方案,仅供参考。

系统架构设计:端云协同AI交互

图片

终端层(智能锁)

多模态传感器:

  • 麦克风阵列(支持降噪与远场拾音)。

  • 毫米波雷达(24GHz)检测人体靠近与逗留;

  • 三摄系统(室外400万+200万像素,室内200万像素)实现全景看护;

AI芯片:搭载4 TOPS算力边缘芯片,支持本地语音唤醒、人脸检测、加密通信;

通信模块:WiFi 6 + 蓝牙5.2双模,保障低延时数据传输。

云端层

AI中台:

  • AI智能体系统:支持自定义角色(萤石/萤喵喵等),提供个性化交互与事件摘要(如“妈妈拿快递回家”)

  • 大模型引擎(如DeepSeek):解析用户意图,生成控制指令或对话响应;

  • 语音识别(ASR):实时转译语音为文本;

设备管理:动态注册设备能力描述(Descriptor),映射为LLM可调用函数。

应用层(APP)

语音助手:发起对话、查看AI事件标签、录像语义搜索(如“今早谁收了快递?”)

设备联动:触发智能场景(如开门自动亮灯)。

核心交互流程与时序图

场景:用户语音指令“萤石,查看昨天的快递记录”。

图片

语音唤醒与传输:

终端采用双唤醒词引擎(本地芯片处理“萤石”唤醒,云端处理复杂指令)。

语音流经Opus编码(20ms/帧),通过WebSocket二进制协议传输。

意图解析与函数调用:

LLM根据设备上报的Descriptor动态生成函数:

json

{

  "name": "search_video_record",

  "description": "搜索门锁录像记录",

  "parameters": {

    "date": {"type": "string", "description": "日期,例如'昨天'、'2025-08-18'"},

    "object": {"type": "string", "description": "检索对象,如'快递'、'陌生人'"}

   }

}

大模型输出结构化指令:{"function": "search_video_record", "parameters": {"date": "昨天", "object": "快递"}}。

AI智能体交互:

智能体基于事件标签生成自然语言摘要(如结合包裹检测算法+时间戳生成“顺丰快递下午送达”)。

支持多角色响应(如切换“萤喵喵”童声播报儿童出门事件)。

安全与性能优化

隐私保护:

端到端加密:语音流与视频数据使用AES-256-GCM加密。

本地脱敏:人脸特征码在终端计算,仅摘要事件上云。

低功耗设计:

分级唤醒:毫米波雷达检测人体 → 启动摄像头 → 语音唤醒AI芯片。

双供电系统:5000mAh锂电池(主) + 干电池(备),续航4-6个月。

实时性保障:

端侧预处理:语音唤醒延迟 < 300ms。

-

若本文对你有所启发,就请转发传递

作者简介

卫朋,《硬件产品经理》作者,人人都是产品经理受邀专栏作家,CSDN认证博客专家、嵌入式领域优质创作者,阿里云开发者社区专家博主

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐