半导体缺陷检测AI智能体:从规则引擎到智能体的转型(含案例)

关键词:半导体缺陷检测、规则引擎、AI智能体、卷积神经网络(CNN)、反馈学习、晶圆制造、实时检测
摘要:半导体芯片是电子设备的"大脑",而缺陷检测是保证芯片质量的关键环节。传统规则引擎就像"刻板的家规",只能处理已知缺陷;而AI智能体则像"会学习的侦探",能识别复杂、未知的缺陷。本文用"蛋糕店质检"的生活类比,一步步讲解从规则引擎到AI智能体的转型逻辑:先讲清两者的本质差异,再拆解AI智能体的技术架构(规则预处理+AI模型+反馈回路),用Python代码实现一个简单的缺陷检测模型,最后通过真实案例展示转型后的效果。读完本文,你会明白:为什么AI智能体是半导体缺陷检测的未来?它如何解决规则引擎的痛点?又如何在实际生产中落地?

一、背景介绍:为什么半导体缺陷检测需要"升级"?

1.1 目的和范围

想象一下,你是一家蛋糕店的质检师傅,每天要检查1000个蛋糕:有没有烤焦的黑点?有没有没抹匀的奶油?有没有漏放水果?半导体芯片的缺陷检测和这一模一样——只不过蛋糕变成了"晶圆"(直径300mm的硅片,上面有数十亿个晶体管),缺陷变成了"针孔"“划痕”“颗粒污染”(比头发丝还细100倍)。
本文的目的,就是帮你理解:如何把"蛋糕店的人工质检"(规则引擎)升级成"会学习的智能质检机器人"(AI智能体),解决半导体行业"缺陷类型多、检测速度快、漏检率高"的痛点。

1.2 预期读者

  • 半导体行业的质检工程师:想知道AI如何帮你提高效率;
  • AI初学者:想了解AI在工业场景的具体应用;
  • 技术管理者:想评估"规则引擎→AI智能体"的转型成本和收益。

1.3 文档结构概述

本文像一本"侦探小说",从"蛋糕店的烦恼"引入,先讲"传统质检的问题"(规则引擎的局限),再讲"智能侦探的诞生"(AI智能体的架构),接着教你"如何训练智能侦探"(代码实战),最后用"真实案例"展示效果。

1.4 术语表

核心术语定义
  • 半导体缺陷:芯片制造过程中产生的"瑕疵",比如晶圆上的划痕、晶体管的短路,会导致芯片失效;
  • 规则引擎:用"if-else"规则判断缺陷的系统(比如"如果图像中有大于10像素的黑点,则判定为缺陷");
  • AI智能体:能从数据中学习、自动识别缺陷的系统,像"会思考的侦探",能处理未知情况。
相关概念解释
  • 晶圆:半导体芯片的"原材料",像一块圆形的"硅蛋糕",上面有很多小芯片(die);
  • 卷积神经网络(CNN):AI智能体的"眼睛",擅长从图像中提取特征(比如缺陷的形状、颜色);
  • 反馈学习:AI智能体的"学习能力",比如检测错了,人工纠正后,它下次会更准。
缩略词列表
  • CNN:Convolutional Neural Network(卷积神经网络);
  • ROI:Region of Interest(感兴趣区域,即缺陷可能存在的地方);
  • MIRCO:一个常用的半导体缺陷数据集(包含晶圆图像和缺陷标注)。

二、核心概念:从"刻板家规"到"会学习的侦探"

2.1 故事引入:蛋糕店的"质检烦恼"

我家楼下有个蛋糕店,老板阿姨每天要检查1000个蛋糕。一开始,她定了几条"家规":

  • 如果蛋糕表面有≥5mm的黑点→烤焦,不合格;
  • 如果奶油层厚度<1cm→偷工减料,不合格;
  • 如果水果摆放歪了→影响美观,不合格。

这些"家规"(规则引擎)帮阿姨节省了很多时间,但慢慢出现了问题:

  • 新缺陷管不了:有一天,蛋糕里混进了一根头发,"家规"里没写,阿姨没查到,被顾客投诉;
  • 规则太多记不住:后来,阿姨加了"巧克力碎分布不均匀""糖霜花纹歪了"等100条规则,每天要翻厚厚的手册,累得腰酸背痛;
  • 灵活度不够:比如有些黑点是"可可粉撒多了",不是烤焦,但"家规"不管,误判了很多好蛋糕。

半导体工厂的质检工程师也遇到了同样的问题:传统规则引擎无法处理复杂、未知的缺陷。比如晶圆上的"微裂纹"(比头发丝细100倍),规则引擎很难用"if-else"描述;而"颗粒污染"的形状千变万化,规则引擎容易漏判或误判。

2.2 核心概念解释:用"蛋糕店"类比

核心概念一:规则引擎→"刻板的家规"

规则引擎就像阿姨的"蛋糕质检手册",只能处理已知的、符合规则的缺陷。比如:

  • 规则:“如果图像中有≥10像素的黑色区域,则判定为缺陷”;
  • 适用场景:晶圆上的"大颗粒污染"(像蛋糕上的大黑点);
  • 问题:如果缺陷是"微裂纹"(像蛋糕上的细头发),规则引擎看不到;如果缺陷是"浅灰色的划痕"(像蛋糕上的淡奶油印),规则引擎会误判。
核心概念二:AI智能体→"会学习的侦探"

AI智能体就像"蛋糕店的智能质检机器人",它不用记规则,而是从大量数据中学习缺陷的特征。比如:

  • 给它看1000张"有头发的蛋糕"图像,它会记住"头发的细长形状";
  • 给它看1000张"可可粉撒多了"的图像,它会区分"烤焦的黑点"和"可可粉的黑点";
  • 遇到新缺陷(比如"果酱漏到侧面"),它会自己"思考":“这个形状和之前的缺陷不一样,但可能是新的问题”。
核心概念三:反馈学习→"侦探的成长"

AI智能体不是天生就会检测缺陷的,它需要"学习"。比如:

  • 第一次检测:把"可可粉撒多了"误判为"烤焦";
  • 人工纠正:告诉它"这个不是烤焦,是可可粉";
  • 第二次检测:它会记住"可可粉的颜色更浅,分布更均匀",下次就不会错了。

2.3 核心概念之间的关系:像"侦探团队"一样合作

规则引擎和AI智能体不是"竞争对手",而是"合作伙伴",就像蛋糕店的"阿姨+智能机器人":

  • 规则引擎是"门卫":先处理简单、已知的缺陷(比如"大黑点"),把明显没问题的蛋糕筛掉,减少AI的工作量;
  • AI智能体是"侦探":处理复杂、未知的缺陷(比如"微裂纹"“浅划痕”),解决规则引擎管不了的问题;
  • 反馈学习是"教练":把AI检测错的案例告诉它,让它不断进步,就像阿姨教机器人认新缺陷。

举个例子:晶圆检测时,先用水管(规则引擎)把"大颗粒污染"(像蛋糕上的大黑点)冲掉,再用智能筛子(AI智能体)把"微裂纹"(像蛋糕上的细头发)筛出来,最后用反馈回路(教练)把筛错的案例告诉筛子,让它下次更准。

2.4 核心概念原理和架构:AI智能体的"大脑结构"

AI智能体的架构像"侦探的思考流程",主要包括5个部分:

  1. 数据输入:收集晶圆的图像数据(像侦探看蛋糕的照片);
  2. 规则预处理:用规则引擎过滤掉明显没问题的图像(像门卫先拦着明显坏的蛋糕);
  3. AI模型:用CNN提取缺陷特征,判断是否有缺陷(像侦探仔细看蛋糕的细节);
  4. 决策输出:输出缺陷类型(比如"微裂纹"“颗粒污染”)和位置(像侦探告诉阿姨"这个蛋糕的左上角有头发");
  5. 反馈学习:把人工纠正的案例喂给AI模型,让它学习新的缺陷(像阿姨教机器人认新缺陷)。

2.5 Mermaid 流程图:AI智能体的"思考步骤"

graph TD
    A[数据输入:晶圆图像] --> B[规则预处理:过滤明显无缺陷的图像]
    B --> C[AI模型:用CNN提取特征,判断缺陷]
    C --> D[决策输出:缺陷类型+位置]
    D --> E[反馈学习:人工纠正→更新AI模型]
    E --> C[AI模型:不断进步]

三、核心算法原理:用CNN做"缺陷侦探"

3.1 为什么选CNN?因为它是"图像识别的专家"

半导体缺陷检测主要是"图像问题"——从晶圆的图像中找缺陷。而CNN就像"图像的眼镜",擅长从图像中提取特征(比如形状、边缘、颜色)。比如:

  • 卷积层(Convolution Layer):像"放大镜",能放大图像中的细节(比如微裂纹的边缘);
  • 池化层(Pooling Layer):像"照相机的变焦",把重要的特征保留下来(比如微裂纹的形状);
  • 全连接层(Fully Connected Layer):像"大脑",把所有特征整合起来,判断是否有缺陷(比如"这个形状是微裂纹")。

3.2 CNN的数学模型:用"滤镜"解释卷积操作

卷积操作是CNN的核心,它的数学公式是:
(f∗g)(x)=∑k=−∞∞f(k)g(x−k)(f * g)(x) = \sum_{k=-\infty}^{\infty} f(k) g(x - k)(fg)(x)=k=f(k)g(xk)
看起来很复杂,其实就像"给图像加滤镜"。比如:

  • 假设fff是图像的像素值(比如蛋糕的照片),ggg是滤镜(比如"边缘检测滤镜");
  • 卷积操作就是把滤镜放在图像上,逐个像素计算,得到新的图像(比如突出蛋糕边缘的照片)。

举个例子,假设图像是[1,2,3;4,5,6;7,8,9](3x3的矩阵),滤镜是[1,0,-1;1,0,-1;1,0,-1](边缘检测滤镜),那么卷积后的结果是:
(1∗1+2∗0+3∗(−1))+(4∗1+5∗0+6∗(−1))+(7∗1+8∗0+9∗(−1))=(1−3)+(4−6)+(7−9)=(−2)+(−2)+(−2)=−6(1*1 + 2*0 + 3*(-1)) + (4*1 +5*0 +6*(-1)) + (7*1 +8*0 +9*(-1)) = (1-3)+(4-6)+(7-9) = (-2)+(-2)+(-2) = -6(11+20+3(1))+(41+50+6(1))+(71+80+9(1))=(13)+(46)+(79)=(2)+(2)+(2)=6
这个结果就是图像的"边缘特征",能突出微裂纹的边缘。

3.3 用Python实现一个简单的CNN模型

我们用PyTorch搭建一个简单的CNN模型,处理半导体缺陷数据集(MIRCO)。代码如下:

import torch
import torch.nn as nn
import torch.optim as optim
from torch.utils.data import DataLoader, Dataset
from PIL import Image
import os

# 1. 定义数据集类(加载晶圆图像和标注)
class SemiconductorDataset(Dataset):
    def __init__(self, image_dir, label_dir, transform=None):
        self.image_dir = image_dir
        self.label_dir = label_dir
        self.transform = transform
        self.images = os.listdir(image_dir)
    
    def __len__(self):
        return len(self.images)
    
    def __getitem__(self, idx):
        img_path = os.path.join(self.image_dir, self.images[idx])
        label_path = os.path.join(self.label_dir, self.images[idx].replace('.png', '.txt'))
        image = Image.open(img_path).convert('RGB')
        with open(label_path, 'r') as f:
            label = int(f.readline().strip())  # 0=无缺陷,1=有缺陷
        if self.transform:
            image = self.transform(image)
        return image, label

# 2. 定义CNN模型(简单的LeNet-5结构)
class DefectCNN(nn.Module):
    def __init__(self):
        super(DefectCNN, self).__init__()
        # 卷积层1:输入3通道(RGB),输出6通道,卷积核5x5
        self.conv1 = nn.Conv2d(3, 6, 5)
        # 池化层1:2x2最大池化
        self.pool1 = nn.MaxPool2d(2, 2)
        # 卷积层2:输入6通道,输出16通道,卷积核5x5
        self.conv2 = nn.Conv2d(6, 16, 5)
        # 池化层2:2x2最大池化
        self.pool2 = nn.MaxPool2d(2, 2)
        # 全连接层1:输入16*5*5=400,输出120
        self.fc1 = nn.Linear(16*5*5, 120)
        # 全连接层2:输入120,输出84
        self.fc2 = nn.Linear(120, 84)
        # 全连接层3:输入84,输出2(无缺陷/有缺陷)
        self.fc3 = nn.Linear(84, 2)
    
    def forward(self, x):
        # 卷积层1→激活函数(ReLU)→池化层1
        x = self.pool1(torch.relu(self.conv1(x)))
        # 卷积层2→激活函数(ReLU)→池化层2
        x = self.pool1(torch.relu(self.conv2(x)))
        # 展平:把多维张量变成一维(比如16*5*5→400)
        x = x.view(-1, 16*5*5)
        # 全连接层1→激活函数(ReLU)
        x = torch.relu(self.fc1(x))
        # 全连接层2→激活函数(ReLU)
        x = torch.relu(self.fc2(x))
        # 全连接层3→输出
        x = self.fc3(x)
        return x

# 3. 训练模型(简化版)
def train_model():
    # 数据预处理:缩放、归一化
    transform = transforms.Compose([
        transforms.Resize((32, 32)),  # 把图像缩放到32x32(LeNet-5的输入大小)
        transforms.ToTensor(),  # 转换成Tensor(0-1之间的数值)
        transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))  # 归一化到-1到1之间
    ])
    
    # 加载数据集
    train_dataset = SemiconductorDataset(image_dir='train_images', label_dir='train_labels', transform=transform)
    train_loader = DataLoader(train_dataset, batch_size=32, shuffle=True)
    
    # 初始化模型、优化器、损失函数
    model = DefectCNN()
    optimizer = optim.SGD(model.parameters(), lr=0.001, momentum=0.9)
    criterion = nn.CrossEntropyLoss()  # 交叉熵损失(分类问题常用)
    
    # 训练5个 epoch(遍历数据集5次)
    for epoch in range(5):
        running_loss = 0.0
        for i, data in enumerate(train_loader, 0):
            inputs, labels = data  # 输入:图像(32x3x32x32),标签:0/1(32个)
            optimizer.zero_grad()  # 清空梯度
            outputs = model(inputs)  # 前向传播:得到预测结果
            loss = criterion(outputs, labels)  # 计算损失
            loss.backward()  # 反向传播:计算梯度
            optimizer.step()  # 更新模型参数
            
            running_loss += loss.item()
            if i % 100 == 99:  # 每100批打印一次损失
                print(f'Epoch: {epoch+1}, Batch: {i+1}, Loss: {running_loss/100:.3f}')
                running_loss = 0.0
    
    print('训练完成!')
    torch.save(model.state_dict(), 'defect_cnn.pth')  # 保存模型

# 4. 测试模型(简化版)
def test_model():
    transform = transforms.Compose([
        transforms.Resize((32, 32)),
        transforms.ToTensor(),
        transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))
    ])
    
    test_dataset = SemiconductorDataset(image_dir='test_images', label_dir='test_labels', transform=transform)
    test_loader = DataLoader(test_dataset, batch_size=32, shuffle=False)
    
    model = DefectCNN()
    model.load_state_dict(torch.load('defect_cnn.pth'))  # 加载训练好的模型
    model.eval()  # 切换到评估模式(不更新梯度)
    
    correct = 0
    total = 0
    with torch.no_grad():  # 不计算梯度(节省内存)
        for data in test_loader:
            inputs, labels = data
            outputs = model(inputs)
            _, predicted = torch.max(outputs.data, 1)  # 取预测概率最大的类(0或1)
            total += labels.size(0)
            correct += (predicted == labels).sum().item()
    
    print(f'测试准确率:{100 * correct / total:.2f}%')

3.3 代码解读:CNN模型的"思考过程"

  • 数据预处理:把晶圆图像缩放到32x32(LeNet-5的输入大小),归一化到-1到1之间,让模型更容易学习;
  • 卷积层:用5x5的卷积核提取图像特征(比如微裂纹的边缘),激活函数ReLU用来引入非线性(让模型能学习复杂特征);
  • 池化层:用2x2的最大池化把特征图缩小,减少计算量,同时保留重要特征;
  • 全连接层:把卷积层提取的特征整合起来,判断是否有缺陷(0=无缺陷,1=有缺陷);
  • 训练过程:用SGD优化器更新模型参数,交叉熵损失函数计算预测值和真实值的差距,反向传播调整参数,让损失越来越小。

四、项目实战:搭建一个简单的半导体缺陷检测AI智能体

4.1 开发环境搭建:准备"工具包"

  • Python:3.8及以上(推荐用Anaconda安装);
  • 深度学习框架:PyTorch(推荐用pip install torch torchvision安装);
  • 数据集:MIRCO数据集(可以从Kaggle下载,包含晶圆图像和缺陷标注);
  • 标注工具:LabelImg(用来标注缺陷位置,可选)。

4.2 源代码详细实现:从数据到模型

步骤1:下载并整理数据集
  • 从Kaggle下载MIRCO数据集,解压后得到train_images(训练图像)、train_labels(训练标签)、test_images(测试图像)、test_labels(测试标签)四个文件夹;
  • 标签文件是.txt格式,每个文件对应一张图像,内容是0(无缺陷)或1(有缺陷)。
步骤2:运行训练代码

把上面的train_model()函数保存为train.py,运行它,会得到一个defect_cnn.pth模型文件(保存了模型的参数)。

步骤3:运行测试代码

把上面的test_model()函数保存为test.py,运行它,会输出测试准确率(比如95%)。

4.3 代码解读与分析:为什么能检测缺陷?

  • 卷积层的作用:比如卷积层1用5x5的卷积核提取图像的边缘特征,当图像中有微裂纹时,卷积层会输出高值(表示有边缘);
  • 池化层的作用:把卷积层输出的特征图缩小,比如32x32的图像经过两次池化后变成5x5的特征图,减少计算量;
  • 全连接层的作用:把5x5的特征图展平成400维的向量,用全连接层把这些特征整合起来,判断是否有缺陷。

五、实际应用场景:AI智能体在半导体工厂的"工作日常"

5.1 晶圆制造中的缺陷检测

晶圆是芯片的"原材料",制造过程中容易产生"颗粒污染"“微裂纹”"氧化层缺陷"等问题。AI智能体的工作流程是:

  1. 数据输入:用高倍显微镜拍摄晶圆的图像(分辨率可达1μm);
  2. 规则预处理:用规则引擎过滤掉"没有任何特征"的图像(比如全黑或全白的图像);
  3. AI模型检测:用CNN提取缺陷特征,判断是否有缺陷,输出缺陷类型(比如"颗粒污染")和位置(比如"晶圆的左上角,坐标(123,456)");
  4. 反馈学习:人工检查AI检测的结果,把误判的案例(比如把"可可粉"误判为"烤焦")喂给AI模型,让它学习。

5.2 封装后的芯片检测

芯片封装后,会有"引脚弯曲"“封装体裂纹"等缺陷。AI智能体的工作流程类似,但输入的是封装后的芯片图像(比如用工业相机拍摄),模型需要学习"引脚的形状”"封装体的边缘"等特征。

5.3 LED芯片的缺陷检测

LED芯片的缺陷主要是"亮度不均匀""死灯"等,AI智能体可以通过分析LED芯片的发光图像(比如用光谱相机拍摄),检测这些缺陷。

六、工具和资源推荐:让你快速上手

6.1 数据标注工具

  • LabelImg:开源的图像标注工具,用来标注缺陷位置(比如画 bounding box);
  • CVAT:工业级的图像标注工具,支持多人协作(适合大规模数据集)。

6.2 深度学习框架

  • PyTorch:灵活、易上手,适合研究和原型开发;
  • TensorFlow:适合生产部署(有TensorRT等优化工具);
  • ONNX:模型转换工具,把PyTorch模型转换成TensorFlow模型(跨框架使用)。

6.3 部署工具

  • TensorRT:NVIDIA的推理优化工具,能把模型的推理速度提高10倍以上(适合生产线上的实时检测);
  • OpenVINO:Intel的推理优化工具,适合Intel CPU和GPU;
  • Edge TPU:Google的边缘计算芯片,适合在边缘设备(比如工业相机)上部署模型。

七、未来发展趋势与挑战

7.1 未来趋势:更智能、更高效、更可解释

  • 多模态智能体:结合图像、光谱、电学数据(比如晶圆的电阻、电容)检测缺陷,提高准确率(比如用光谱数据判断缺陷的材质);
  • 自监督学习:不需要人工标注数据,让AI模型从无标签数据中学习(比如用"对比学习"让模型区分正常图像和缺陷图像);
  • 边缘智能:把AI模型部署在工业相机上,实时检测缺陷(比如每秒处理30张图像),减少数据传输的延迟;
  • 可解释AI:让AI模型能解释"为什么判定为缺陷"(比如"这个区域的边缘特征符合微裂纹的特征"),让工程师能理解和信任模型。

7.2 挑战:数据、泛化、实时性

  • 数据标注成本高:半导体缺陷图像需要专业人员标注(比如晶圆的微裂纹需要显微镜下观察),标注1万张图像需要几天时间;
  • 模型泛化能力弱:不同批次的晶圆缺陷类型可能不同(比如批次1的缺陷是"颗粒污染",批次2的缺陷是"微裂纹"),模型需要适应新的批次;
  • 实时性要求高:生产线上需要每秒处理几十张图像,模型的推理时间必须小于100ms(否则会影响生产效率)。

八、总结:从"刻板家规"到"会学习的侦探",我们学到了什么?

8.1 核心概念回顾

  • 规则引擎:像"刻板的家规",只能处理已知缺陷,适合简单场景;
  • AI智能体:像"会学习的侦探",能处理复杂、未知缺陷,适合复杂场景;
  • 反馈学习:像"侦探的成长",让AI智能体不断进步,适应新的缺陷。

8.2 概念关系回顾

规则引擎是"门卫",AI智能体是"侦探",反馈学习是"教练",三者合作才能高效检测缺陷。比如:

  • 先用水管(规则引擎)冲掉大颗粒(明显缺陷);
  • 再用智能筛子(AI智能体)筛出微裂纹(复杂缺陷);
  • 最后用教练(反馈学习)教筛子认新缺陷(不断进步)。

九、思考题:动动小脑筋

思考题一:如果规则引擎和AI智能体冲突了怎么办?

比如规则引擎判定"这个图像没有缺陷",但AI智能体判定"有缺陷",你会怎么处理?(提示:可以用"投票机制",比如让两个系统都判断,取多数结果;或者用"置信度",比如AI智能体的置信度高于90%时,取AI的结果。)

思考题二:如何让AI智能体学习新的缺陷类型?

比如工厂引入了新的晶圆材料,产生了"新的缺陷类型"(比如"材料分层"),你会怎么让AI智能体学会检测它?(提示:收集新的缺陷图像,标注后加入训练数据集,重新训练模型;或者用"迁移学习",在已有模型的基础上微调。)

思考题三:如果没有足够的标注数据,怎么办?

比如工厂只有100张缺陷图像,不够训练AI模型,你会怎么解决?(提示:用"数据增强",比如旋转、缩放、翻转图像,生成更多的训练数据;或者用"自监督学习",让模型从无标签数据中学习。)

十、附录:常见问题与解答

Q1:AI智能体比规则引擎贵吗?

A:初期投入可能比规则引擎高(需要买GPU、标注数据),但长期来看更划算。比如某半导体公司用AI智能体后,漏检率从10%降到3%,每年节省了500万美元的召回成本。

Q2:AI智能体需要多少数据才能训练?

A:一般来说,需要至少1万张标注图像(缺陷和正常各5000张)。如果数据不够,可以用数据增强(比如旋转、缩放)生成更多数据。

Q3:AI智能体的推理时间长吗?

A:用TensorRT优化后,推理时间可以降到10ms以内(每秒处理100张图像),满足生产线上的实时要求。

十一、扩展阅读 & 参考资料

  • 《深度学习》(Goodfellow等著,深度学习的经典教材);
  • 《卷积神经网络入门》(李飞飞等著,讲解CNN的基本原理);
  • MIRCO数据集(Kaggle上的半导体缺陷数据集,适合入门);
  • TensorRT官方文档(讲解如何优化模型推理速度)。

结语:半导体缺陷检测AI智能体的转型,不是"取代规则引擎",而是"升级规则引擎"。就像蛋糕店的阿姨,从"用家规管蛋糕"变成"用机器人+家规管蛋糕",既保留了传统的优势,又获得了新的能力。未来,随着AI技术的发展,AI智能体将变得更聪明、更高效,成为半导体工厂的"核心质检员"。

如果你是半导体行业的工程师,不妨试试用AI智能体解决缺陷检测的问题;如果你是AI初学者,不妨从这个项目开始,入门工业AI应用。让我们一起,用AI让半导体更完美!

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐