【产品概述】
Segment Anything Model (SAM) 是由 Meta AI Research (FAIR) 发布的革命性图像分割基础模型。作为行业内第一个 promptable 图像分割基础模型,SAM 能够从点、框等输入提示生成高质量的对象掩码。该模型已在包含 1100 万张图像和 11 亿个掩码的数据集上训练,在各种分割任务上展现出强大的零样本性能。
【核心功能】
- Promptable 分割:支持点、框、文本等多种提示方式进行交互式分割
- 自动掩码生成:可为图像中所有对象自动生成分割掩码
- 零样本迁移:无需微调即可适应新的图像分布和分割任务
- 边缘检测:精确识别物体边界,生成高质量掩码
- ONNX 导出:可导出为 ONNX 格式,支持浏览器等环境部署
【典型应用场景】
- 图像编辑:精确选择和处理图像中的特定对象
- 自动驾驶:道路场景理解和障碍物检测
- 医疗影像:器官和病变区域分割
- 遥感分析:土地利用分类和目标识别
- 机器人视觉:环境感知和物体操作
【技术/竞争优势】
- 大规模训练:在 1100 万张图像和 11 亿掩码上训练
- 基础模型设计:可适应多种下游任务和视觉领域
- 开源开放:模型权重和代码完全开源
- 多版本选择:提供 ViT-H、ViT-L、ViT-B 三种模型
- Meta FAIR 研发:全球顶级 AI 研究团队支持