当 AI 能自动生成界面原型、批量调整设计组件,甚至根据用户需求生成完整的应用框架时,“设计” 的内涵正在被重新定义。产品开发的门槛因 AI 而降低 —— 过去需要设计师与开发者协作一周的界面迭代,现在借助 AI 工具几小时就能完成;但与此同时,用户对 “好设计” 的期待也在升高:他们不仅需要功能可用,更需要 AI 服务 “懂自己”“不添乱”“有温度”。​

Figma 作为连接设计与开发的工具平台,其团队从 AI 工具的开发(如 Figma AI 助手)到支持设计师用 AI 做设计的实践中,积累了一套应对 AI 时代的设计原则。这些原则并非否定传统设计逻辑,而是在 “AI 能自主决策”“技术迭代极快”“用户对 AI 有特殊心理预期” 的新前提下,为产品经理、设计师和独立开发者提供的行动框架 —— 核心是 “让 AI 服务于人,让设计驾驭技术”。​

一、“可控的不可控”:给 AI 留空间,给用户留主动权​

AI 的魅力在于 “它能超越预设逻辑产生新结果”,但这也是设计的风险点:如果 AI 的 “自主决策” 超出用户预期,反而会让用户感到失控。Figma 团队在开发 “AI 组件生成” 功能时(输入文字描述自动生成 UI 组件),最初尝试让 AI “全权负责”—— 用户输入 “移动端按钮”,AI 直接生成 10 个按钮设计供选择。但测试发现,设计师们普遍反馈 “AI 生成的按钮样式杂乱,和现有设计系统不兼容”,甚至有设计师直言 “还不如自己画快”。​

后来团队调整了设计逻辑,提出 “可控的不可控” 原则:让 AI 在 “用户设定的框架内” 发挥,同时给用户随时 “踩刹车” 的权力。具体做了两个关键改动:一是增加 “设计约束入口”—— 用户可先选择 “基于现有设计系统生成”,AI 会自动读取项目中的颜色、字体、圆角等规范,生成的按钮会贴合团队风格;二是开放 “实时干预通道”——AI 生成过程中,用户可随时暂停(比如看到 AI 用了不合适的颜色),手动修改某个参数(如 “把按钮圆角从 8px 改成 4px”),AI 会基于修改继续生成。​

这个原则对所有 AI 产品都适用。比如智能客服设计:不能让 AI “自由回答所有问题”,而是要设定 “安全边界”(如涉及隐私的问题自动转接人工),同时给用户 “切换人工” 的显式入口;再比如 AI 图像生成工具:用户输入 “夕阳下的城市”,AI 可能生成多种风格,但设计上必须保留 “调整关键词权重” 的功能(如 “增加‘晚霞’的比重,降低‘建筑’的比重”),让用户能把 AI 的 “不可控输出” 拉回自己想要的方向。​

Figma 团队总结的核心经验是:用户不怕 AI “有想法”,怕的是 “AI 的想法改不了”。设计时要做 “双轨准备”:一方面给 AI 留足发挥空间(不把所有决策都卡死),另一方面把 “干预节点” 设计得足够简单(比如用滑块、单选框等低认知成本的控件),让用户不用学习复杂操作就能 “驯化” AI。​

二、“透明的黑箱”:别让用户猜 “AI 在想什么”​

AI 的工作逻辑对用户而言是 “黑箱”:用户只知道 “输入了什么”“得到了什么”,但不知道 “AI 为什么这么做”。这种信息差容易引发两种问题:要么用户过度依赖 AI(比如完全相信 AI 生成的设计无误),要么因 “AI 的决策不可理解” 而抵触(比如 AI 推荐了一个奇怪的功能,用户不知道 “它凭什么认为我需要这个”)。​

Figma 团队在设计 “AI 设计建议” 功能时(AI 自动识别设计稿中的问题,如 “按钮间距不一致”“字体层级混乱”),最初只给用户显示 “结论”(如 “建议将按钮间距统一为 16px精选书单”)。但很多设计师反馈 “不知道 AI 凭什么这么建议”,甚至有人怀疑 “AI 是不是误判了”。后来团队重构了功能,遵循 “透明的黑箱” 原则:不要求用户懂 AI 原理,但要让用户能理解 “AI 结论的依据”。​

现在的 “AI 设计建议” 会同时展示 “结论 + 依据 + 来源”:比如建议 “统一按钮间距” 时,会说明 “检测到当前设计中有 3 种按钮间距(12px、16px、20px),依据是你项目中‘组件规范文档’第 2.3 条‘同类组件间距需统一’”;如果是通用设计原则(如 “建议将标题字体加粗”),会标注 “依据是 Figma 设计系统库中的‘可读性指南’”。更关键的是,AI 会主动说明 “这是建议而非强制”—— 比如补充 “若你的设计有特殊场景,可忽略此建议”。​

这种 “透明” 不是要解释 “AI 的算法细节”(用户也不关心),而是要用用户能理解的语言 “翻译” AI 的决策逻辑。比如:​

  • 对 AI 推荐系统:不说 “基于协同过滤算法推荐”,而是说 “你之前收藏过类似风格的内容,所以推荐这个”;​
  • 对 AI 写作工具:不说 “基于大语言模型生成”,而是说 “参考了你提供的 3 个案例的结构,生成了这版文案”;​
  • 对 AI 纠错工具:不说 “检测到语义错误”,而是说 “这句话可能有歧义 —— 你是想表达‘今天完成’还是‘本周完成’?”​

Figma 的设计师发现:当用户知道 “AI 的建议来自哪里”,对 AI 的信任度会提升 40% 以上。本质上,用户需要的不是 “AI 全对”,而是 “AI 的错误可解释、可追溯”—— 这比 AI 的准确率更影响用户接受度。​

三、“渐进式熟悉”:让用户和 AI “慢慢变熟”​

传统产品设计追求 “上手即会”,但 AI 产品不同:用户对 AI 的认知差异极大 —— 有人是 “AI 小白”(怕用不好),有人是 “AI 玩家”(想试高级功能);同时,AI 的能力也在不断进化(今天能做的事,明天可能有新玩法)。如果一开始就把所有 AI 功能全抛给用户,要么小白用户被吓跑,要么高级用户觉得 “不够用”。​

Figma 团队在推广 “AI 设计助手” 时,没有搞 “一次性全功能上线”,而是用 “渐进式熟悉” 原则:像 “朋友相处” 一样,让用户和 AI 从 “认识” 到 “熟悉” 再到 “信任”,逐步释放功能复杂度。具体分了三个阶段:​

第一阶段:“最小可用的友好”—— 让用户敢用。初期只开放 “最基础、最安全” 的功能,比如 “一键清理设计稿”(删除空图层、对齐散乱组件)、“简单文字翻译”(把设计稿中的文字翻译成其他语言)。这些功能操作极简单(点一下按钮就行),且结果 “可见可控”(清理后不满意可撤销)。Figma 甚至在功能入口加了一句引导:“AI 帮你做琐事,你专注创意”—— 降低用户心理负担。​

第二阶段:“基于行为的进阶”—— 让用户想用。当系统检测到用户用了基础功能 5 次以上(且没有撤销),会逐步开放 “中等复杂度功能”,比如 “根据选中组件生成相似组件”(用户选中一个按钮,AI 生成同风格的输入框)、“自动标注开发参数”(AI 识别组件后生成 CSS 代码)。这些功能是 “基于用户已有行为” 推荐的 —— 比如用户经常手动对齐组件,就会推送 “AI 自动对齐” 功能,并说明 “看到你常做对齐,这个功能可能帮你省时间”。​

第三阶段:“自定义的信任”—— 让用户依赖。当用户持续使用进阶功能,且开始主动调整 AI 参数(如修改 AI 生成组件的颜色),再开放 “高级自定义功能”,比如 “训练专属 AI 模型”(用户上传 10 个团队常用组件,AI 就能按团队风格生成新组件)、“批量执行复杂指令”(如 “把所有页面的标题字体换成‘思源黑体’,同时调整行高到 1.5 倍”)。此时用户已对 AI 有信任,甚至会主动探索 “AI 还能做什么”。​

这个原则的核心是 “不逼用户成长”精选书单。AI 产品设计很容易陷入 “炫技陷阱”—— 总想展示 AI 多强大,却忽略用户 “要不要、会不会用”。Figma 团队做过一个对比测试:同样的 AI 功能,分 “一次性全开放” 和 “渐进式开放”,后者的用户留存率是前者的 2 倍。原因很简单:用户对 AI 的接受,本质是 “心理上的逐步适应”,而不是 “技能上的突然掌握”。​

对独立开发者来说,这个原则更具操作性:不用一开始就开发全功能 AI 产品,可先做 “最小 AI 工具”(比如只帮设计师自动切图的小插件),根据用户使用习惯慢慢叠加功能 —— 既降低开发成本,也能让产品跟着用户需求进化。​

四、“失败友好”:给 AI 的 “犯错” 留缓冲,给用户的 “试错” 留余地​

传统设计中,“错误” 是要尽量避免的;但 AI 设计中,“错误是常态”——AI 再智能,也会生成不符合需求的内容(比如 AI 写的文案偏题、AI 生成的设计不实用)。用户真正在意的不是 “AI 会不会犯错”,而是 “犯错后能不能轻松解决”。​

Figma 团队在设计 “AI 原型生成” 功能时(输入页面描述自动生成交互原型),发现一个很有意思的现象:即使 AI 生成的原型有瑕疵,只要用户能 “快速改对”,满意度依然很高;反之,哪怕 AI 准确率达 90%,但用户改一个错误要花 10 分钟,用户也会差评。这让团队提出 “失败友好” 原则:设计的重点不是 “减少 AI 犯错”,而是 “让错误的成本变低”。​

具体做了三件事,值得所有 AI 产品参考:​

  • 一是 “错误可快速修正”:AI 生成原型后,所有元素都是 “可直接编辑的”—— 用户觉得某个按钮位置不对,直接拖到目标位置就行;觉得某个页面跳转逻辑错了,双击连线就能改。不用 “先删除 AI 生成的内容再重新做”,修正成本和 “改自己做的原型” 一样低。​
  • 二是 “错误可追溯还原”:系统自动记录 AI 生成的每一步(比如 “10:00 生成首页原型→10:02 修改了按钮颜色→10:05 调整了跳转逻辑精选书单”),用户可随时回退到任意版本。甚至支持 “对比修改前后”—— 比如用户改乱了原型,能一键查看 “当前版本和 AI 初始生成版本的差异”。​
  • 三是 “错误可反馈学习”:给用户简单的 “反馈入口”—— 对不满意的 AI 结果,用户点一下 “不喜欢”,再选个原因(如 “风格不符”“逻辑错误”“细节缺失”),系统会把反馈同步给 AI 模型,下次生成时自动规避。Figma 甚至把 “用户反馈” 做成了 “轻互动”:用户点 “不喜欢” 后,AI 会弹一句 “抱歉没做好!再告诉我一次你的需求,我试试改进~”,降低用户的挫败感。​

“失败友好” 的本质是把 “AI 犯错” 从 “用户的负担” 变成 “产品迭代的机会”。独立开发者可能没有 Figma 那样的资源训练模型,但可以通过 “降低用户修正成本” 来弥补 —— 比如做 AI 写作工具时,提供 “一键回到上一版”“按段落重新生成” 功能;做 AI 绘图工具时,允许用户 “局部重绘”(只改画面中的某个元素,不用全图重画精选书单)。​

Figma 的设计师说:“AI 产品的设计,一半是帮用户‘获得正确结果’,另一半是帮用户‘优雅地处理错误’。” 尤其对 AI 新手来说,“不怕错” 比 “能做对” 更重要 —— 如果用户试了一次 AI,发现错了改起来很麻烦,可能就再也不用了。​

最后:AI 时代的设计,核心还是 “懂人”​

Figma 团队总结这些原则时,反复强调一个观点:AI 技术再快,设计的锚点还是 “人的需求”。无论是 “可控的不可控” 还是 “失败友好”,本质都是在回应 “人对 AI 的特殊心理”—— 人既想享受 AI 的便利,又不想失去主动权精选书单;既想 AI 聪明,又怕 AI “太聪明” 而失控;既允许 AI 犯错,又希望错了能轻松解决。​

对产品经理来说,这些原则提醒你:别只盯着 “AI 能做什么”,多想想 “用户用 AI 时会怕什么、烦什么、盼什么”;对设计师来说,要学会 “用设计语言翻译技术能力”—— 把 AI 的复杂逻辑变成用户能感知的简单交互;对独立开发者来说,不用追求 “AI 功能多强大”,先把 “用户和 AI 的相处体验” 做顺,就已经赢过很多竞品。​

AI 确实在改变设计的工具和流程,但 “好设计” 的本质没变:还是 “让人的生活更轻松、更愉悦”。只不过在这个时代,设计师的角色多了一层 —— 不仅要设计产品,还要设计 “人跟 AI 的关系”。而能把这种关系设计得 “自然、舒服” 的产品,才能在 AI 浪潮中真正站稳脚跟。​

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐