Segment Anything Model (SAM)

Segment Anything Model (SAM)

Segment Anything Model (SAM) 是 Meta AI 发布的行业首个图像分割基础模型,可从点或框等输入提示生成高质量物体掩码,具备强大的零样本分割能力。

M
Meta AI Research (FAIR) 美国
模型等级 B-Tier
分类
图像与设计 图像处理
访问官网

【产品概述】

Segment Anything Model (SAM) 是由 Meta AI Research (FAIR) 发布的革命性图像分割基础模型。作为行业内第一个 promptable 图像分割基础模型,SAM 能够从点、框等输入提示生成高质量的对象掩码。该模型已在包含 1100 万张图像和 11 亿个掩码的数据集上训练,在各种分割任务上展现出强大的零样本性能。

【核心功能】

  • Promptable 分割:支持点、框、文本等多种提示方式进行交互式分割
  • 自动掩码生成:可为图像中所有对象自动生成分割掩码
  • 零样本迁移:无需微调即可适应新的图像分布和分割任务
  • 边缘检测:精确识别物体边界,生成高质量掩码
  • ONNX 导出:可导出为 ONNX 格式,支持浏览器等环境部署

【典型应用场景】

  • 图像编辑:精确选择和处理图像中的特定对象
  • 自动驾驶:道路场景理解和障碍物检测
  • 医疗影像:器官和病变区域分割
  • 遥感分析:土地利用分类和目标识别
  • 机器人视觉:环境感知和物体操作

【技术/竞争优势】

  • 大规模训练:在 1100 万张图像和 11 亿掩码上训练
  • 基础模型设计:可适应多种下游任务和视觉领域
  • 开源开放:模型权重和代码完全开源
  • 多版本选择:提供 ViT-H、ViT-L、ViT-B 三种模型
  • Meta FAIR 研发:全球顶级 AI 研究团队支持
产品 UID: 10731000
图像分割 图像编辑 图像增强