# AnyLabeling
**Repository Path**: jinyuan/AnyLabeling
## Basic Information
- **Project Name**: AnyLabeling
- **Description**: auto labeling with AI
base https://github.com/vietanhdev/anylabeling.git
- **Primary Language**: Python
- **License**: GPL-3.0
- **Default Branch**: master
- **Homepage**: None
- **GVP Project**: No
## Statistics
- **Stars**: 0
- **Forks**: 0
- **Created**: 2024-02-23
- **Last Updated**: 2025-09-15
## Categories & Tags
**Categories**: Uncategorized
**Tags**: None
## README
[简体中文](README.zh-CN.md) | [English](README.md)

Segment Anything 2.1
[](https://www.bilibili.com/video/BV1jyqrYyE74)
Interactive Visual-Text Prompting for Generic Vision Tasks
| **Tracking by HBB Detection** | **Tracking by OBB Detection** |
| :---: | :---: |
|
|
|
| **Tracking by Instance Segmentation** | **Tracking by Pose Estimation** |
|
|
|
## 🥳 新功能
- 2025年2月:
- 🚀🚀🚀 发布[X-AnyLabeling v2.5.4](https://github.com/CVHub520/X-AnyLabeling/releases/tag/v2.5.4)版本。
- ✈️✈️✈️ 支持基于[YOLOv8-SAM2](./anylabeling/configs/auto_labeling/yolov8s_sam2_hiera_base.yaml)的实例分割模型,结合了YOLOv8的目标检测能力和SAM2.1的精确分割能力。
- 2025年1月:
- 🚀🚀🚀 发布[X-AnyLabeling v2.5.3](https://github.com/CVHub520/X-AnyLabeling/releases/tag/v2.5.3)版本。
- 2024年12月:
- 🍊🍊🍊 支持[Hyper-YOLO](https://github.com/iMoonLab/Hyper-YOLO)模型。
- 🎉🎉🎉 发布[X-AnyLabeling v2.5.0](https://github.com/CVHub520/X-AnyLabeling/releases/tag/v2.5.0)版本。
- 🤡🤡🤡 支持基于文本-视觉提示的[Open Vsion](./examples/detection/hbb/README.md)模型。[[Youtube](https://www.youtube.com/watch?v=QtoVMiTwXqk) | [Bilibili](https://www.bilibili.com/video/BV1jyqrYyE74)]
- 👻👻👻 支持[Segment Anything 2.1](./docs/zh_cn/model_zoo.md)模型。
- 🤗🤗🤗 支持[Florence-2](./examples/vision_language/florence2/README.md)视觉-语言模型。
- 2024年11月:
- ✨✨✨ 支持基于[UPN](./examples/detection/hbb/README.md)的目标候选框生成模型。
- 🌟🌟🌟 支持[YOLOv5-SAHI](./anylabeling/configs/auto_labeling/yolov5s_sahi.yaml)模型。
- 2024年10月:
- 🎯🎯🎯 支持基于[DocLayout-YOLO](examples/optical_character_recognition/document_layout_analysis/README.md)的文档版面分析模型。
- 2024年9月:
- 发布[X-AnyLabeling v2.4.4](https://github.com/CVHub520/X-AnyLabeling/releases/tag/v2.4.4)版本。
- 🐻❄️🐻❄️🐻❄️ 支持[YOLO11-Det/OBB/Pose/Seg/Track](https://github.com/ultralytics/ultralytics)模型。
- 🧸🧸🧸 支持基于[RMBG v1.4](https://github.com/facebookresearch/segment-anything)的图像抠图功能。
- 🦄🦄🦄 支持基于[Segment-Anything-2](https://github.com/CVHub520/segment-anything-2)交互式视频目标追踪功能。【[教程](examples/interactive_video_object_segmentation/README.md) | [B站](https://www.bilibili.com/video/BV1kMpwedE8M/)】
点击查看历史更新。
- 2024年8月:
- 发布[X-AnyLabeling v2.4.1](https://github.com/CVHub520/X-AnyLabeling/releases/tag/v2.4.1)版本。
- 支持[tracking-by-det/obb/seg/pose](./examples/multiple_object_tracking/README.md)任务。
- 支持[Segment-Anything-2](https://github.com/facebookresearch/segment-anything-2)模型。
- 支持[Grounding-SAM2](./docs/zh_cn/model_zoo.md)模型。
- 支持[日文字符识别](./anylabeling/configs/auto_labeling/japan_ppocr.yaml)模型。
- 2024年7月:
- 新增 PPOCR 识别和关键信息提取标签导入/导出功能。
- 新增 ODVG 标签导入/导出功能,以支持 Grounding 模型训练。
- 支持关键信息提取 linking 字段标注。
- 支持在线置信度和交并比阈值调整。
- 支持[RT-DETRv2](https://github.com/lyuwenyu/RT-DETR)模型。
- 支持[Depth Anything v2](https://github.com/DepthAnything/Depth-Anything-V2)模型。
- 2024年6月:
- 支持[yolov8-pose](https://docs.ultralytics.com/tasks/pose/)模型。
- 支持[yolo-pose](./docs/zh_cn/user_guide.md)标签导入/导出功能。
- 2024年5月:
- 支持[YOLOv8-World](https://docs.ultralytics.com/models/yolo-world), [YOLOv8-oiv7](https://docs.ultralytics.com/models/yolov8), [YOLOv10](https://github.com/THU-MIG/yolov10)模型。
- 发布[2.3.6](https://github.com/CVHub520/X-AnyLabeling/releases/tag/v2.3.6)版本。
- 支持显示模型预测得分。
- 2024年3月:
- 发布[2.3.5](https://github.com/CVHub520/X-AnyLabeling/releases/tag/v2.3.5)版本。
- 2024年2月:
- 发布[2.3.4](https://github.com/CVHub520/X-AnyLabeling/releases/tag/v2.3.4)版本。
- 支持标签显示功能。
- 发布[2.3.3](https://github.com/CVHub520/X-AnyLabeling/releases/tag/v2.3.3)版本。
- 支持[YOLO-World](https://github.com/AILab-CVC/YOLO-World)模型。
- 发布[2.3.2](https://github.com/CVHub520/X-AnyLabeling/releases/tag/v2.3.2)版本。
- 支持[YOLOv9](https://github.com/WongKinYiu/yolov9)模型。
- 支持将水平框一键转换为旋转框。
- 支持批量标签删除及重命名,详情可参考[用户手册](./docs/zh_cn/user_guide.md)。
- 支持快速标签纠正功能,详情可参考[用户手册](./docs/zh_cn/user_guide.md)。
- 发布[2.3.1](https://github.com/CVHub520/X-AnyLabeling/releases/tag/v2.3.1)版本。
- 2024年1月:
- 支持一键截取子图功能。
- 结合CLIP和SAM模型,实现更强大的语义和空间理解。具体可参考此[示例](./anylabeling/configs/auto_labeling/edge_sam_with_chinese_clip.yaml)。
- 在深度估计任务中增加对[Depth Anything](https://github.com/LiheYoung/Depth-Anything.git)模型的支持。
- 发布[2.3.0](https://github.com/CVHub520/X-AnyLabeling/releases/tag/v2.3.0)版本。
- 支持 [YOLOv8-OBB](https://github.com/ultralytics/ultralytics) 模型。
- 支持 [RTMDet](https://github.com/open-mmlab/mmyolo/tree/main/configs/rtmdet) 和 [RTMO](https://github.com/open-mmlab/mmpose/tree/main/projects/rtmpose) 模型。
- 支持基于YOLOv5的[中文车牌](https://github.com/we0091234/Chinese_license_plate_detection_recognition)检测和识别模型。
- 2023年12月:
- 发布[2.2.0](https://github.com/CVHub520/X-AnyLabeling/releases/tag/v2.2.0)版本。
- 支持CPU及边缘设备端高效分割一切推理模型:[EdgeSAM](https://github.com/chongzhou96/EdgeSAM)。
- 支持 YOLOv5-Cls 和 YOLOv8-Cls 图像分类模型。
- 2023年11月:
- 发布[2.1.0](https://github.com/CVHub520/X-AnyLabeling/releases/tag/v2.1.0)版本。
- 支持[InternImage](https://arxiv.org/abs/2211.05778)图像分类模型(**CVPR'23**)。
- 发布[2.0.0](https://github.com/CVHub520/X-AnyLabeling/releases/tag/v2.0.0)版本。
- 增加对Grounding-SAM的支持,结合[GroundingDINO](https://github.com/wenyi5608/GroundingDINO)和[HQ-SAM](https://github.com/SysCV/sam-hq),实现sota零样本高质量预测!
- 增强对[HQ-SAM](https://github.com/SysCV/sam-hq)模型的支持,实现高质量的掩码预测。
- 支持 [PersonAttribute](https://github.com/PaddlePaddle/PaddleClas/blob/release%2F2.5/docs/en/PULC/PULC_person_attribute_en.md) 和 [VehicleAttribute](https://github.com/PaddlePaddle/PaddleClas/blob/release%2F2.5/docs/en/PULC/PULC_vehicle_attribute_en.md) 多标签分类模型。
- 支持多标签属性分类标注功能。
- 发布[1.1.0](https://github.com/CVHub520/X-AnyLabeling/releases/tag/v1.1.0)版本。
- 支持[YOLOv8-Pose](https://github.com/ultralytics/ultralytics)姿态估计模型。
- 2023年10月:
- 发布[1.0.0](https://github.com/CVHub520/X-AnyLabeling/releases/tag/v1.0.0)版本。
- 添加旋转框的新功能。
- 支持 [YOLOv5-OBB](https://github.com/hukaixuan19970627/yolov5_obb) 与 [DroneVehicle](https://github.com/VisDrone/DroneVehicle) 和 [DOTA](https://captain-whu.github.io/DOTA/index.html)-v1.0/v1.5/v2.0 旋转目标检测模型。
- 支持SOTA级零样本目标检测:[GroundingDINO](https://github.com/wenyi5608/GroundingDINO)。
- 支持SOTA级图像标签模型:[Recognize Anything](https://github.com/xinyu1205/Tag2Text)。
- 支持 **YOLOv5-SAM** 和 **YOLOv8-EfficientViT_SAM** 联合检测及分割任务。
- 支持 **YOLOv5** 和 **YOLOv8** 实例分割算法。
- 支持 [Gold-YOLO](https://github.com/huawei-noah/Efficient-Computing/tree/master/Detection/Gold-YOLO) 和 [DAMO-YOLO](https://github.com/tinyvision/DAMO-YOLO) 模型。
- 支持多目标跟踪算法:[OC_Sort](https://github.com/noahcao/OC_SORT)(**CVPR'23**)。
- 添加使用[SAHI](https://github.com/obss/sahi)进行小目标检测的新功能。
- 2023年9月:
- 发布[0.2.4](https://github.com/CVHub520/X-AnyLabeling/releases/tag/v0.2.4)版本。
- 支持[EfficientViT-SAM](https://github.com/mit-han-lab/efficientvit)(**ICCV'23**),[SAM-Med2D](https://github.com/OpenGVLab/SAM-Med2D),[MedSAM](https://arxiv.org/abs/2304.12306) 和 YOLOv5-SAM 模型。
- 支持 [ByteTrack](https://github.com/ifzhang/ByteTrack)(**ECCV'22**)用于MOT任务。
- 支持 [PP-OCRv4](https://github.com/PaddlePaddle/PaddleOCR) 模型。
- 支持视频解析功能。
- 开发`yolo`/`coco`/`voc`/`mot`/`dota`/`mask`一键导入及导出功能。
- 开发一键运行功能。
- 2023年8月:
- 发布[0.2.0](https://github.com/CVHub520/X-AnyLabeling/releases/tag/v0.2.0)版本。
- 支持[LVMSAM](https://arxiv.org/abs/2306.11925) 及其变体 [BUID](https://github.com/CVHub520/X-AnyLabeling/tree/main/assets/examples/buid),[ISIC](https://github.com/CVHub520/X-AnyLabeling/tree/main/assets/examples/isic),[Kvasir](https://github.com/CVHub520/X-AnyLabeling/tree/main/assets/examples/kvasir)。
- 支持车道检测算法:[CLRNet](https://github.com/Turoad/CLRNet)(**CVPR'22**)。
- 支持2D人体全身姿态估计:[DWPose](https://github.com/IDEA-Research/DWPose/tree/main)(**ICCV'23 Workshop**)。
- 2023年7月:
- 添加[label_converter.py](./tools/label_converter.py)脚本。
- 发布[RT-DETR](https://github.com/PaddlePaddle/PaddleDetection/blob/develop/configs/rtdetr/README.md)模型。
- 2023年6月:
- 支持[YOLO-NAS](https://github.com/Deci-AI/super-gradients/tree/master)模型。
- 支持[YOLOv8-seg](https://github.com/ultralytics/ultralytics)实例分割模型。
- 2023年5月:
- 发布[0.1.0](https://github.com/CVHub520/X-AnyLabeling/releases/tag/v0.1.0)版本。
- 支持用于人脸检测和关键点识别的[YOLOv6-Face](https://github.com/meituan/YOLOv6/tree/yolov6-face)模型。
- 支持[SAM](https://arxiv.org/abs/2304.02643)及蒸馏版本[MobileSAM](https://arxiv.org/abs/2306.14289)模型。
- 支持[YOLOv5](https://github.com/ultralytics/yolov5),[YOLOv6](https://github.com/meituan/YOLOv6),[YOLOv7](https://github.com/WongKinYiu/yolov7),[YOLOv8](https://github.com/ultralytics/ultralytics),[YOLOX](https://github.com/Megvii-BaseDetection/YOLOX)模型。
## 简介
**X-AnyLabeling** 是一款基于AI推理引擎和丰富功能特性于一体的强大辅助标注工具,其专注于实际应用,致力于为图像数据工程师提供工业级的一站式解决方案,可自动快速进行各种复杂任务的标定。
## 新特性
- 支持`GPU`加速推理。
- 支持一键预测所有图像。
- 支持`图像`和`视频`处理。
- 支持自定义模型和二次开发。
- 支持一键导入和导出多种标签格式,如 COCO\VOC\YOLO\DOTA\MOT\MASK\PPOCR 等;
- 支持多种图像标注样式,包括 `多边形`、`矩形`、`旋转框`、`圆形`、`线条`、`点`,以及 `文本检测`、`识别` 和 `KIE` 标注;
- 支持各类视觉任务,如`图像分类`、`目标检测`、`实例分割`、`姿态估计`、`旋转检测`、`多目标跟踪`、`光学字符识别`、`图像文本描述`、`车道线检测`、`分割一切`等。
### 模型库
| **Object Detection** | **SOD with [SAHI](https://github.com/obss/sahi)** | **Facial Landmark Detection** | **2D Pose Estimation** |
| :---: | :---: | :---: | :---: |
|

|

|

|

|
| **2D Lane Detection** | **OCR** | **MOT** | **Instance Segmentation** |
|

|

|

|

|
| **Image Tagging** | **Grounding DINO** | **Recognition** | **Rotation** |
|

|

|

|

|
| **[SAM](https://segment-anything.com/)** | **BC-SAM** | **Skin-SAM** | **Polyp-SAM** |
|

|

|

|

|
更多详情,请参考 👉 [模型库](./docs/zh_cn/model_zoo.md) 👈
## 文档
1. [安装文档](./docs/zh_cn/get_started.md)
2. [用户手册](./docs/zh_cn/user_guide.md)
3. [自定义模型](./docs/zh_cn/custom_model.md)
4. [常见问题答疑](./docs/zh_cn/faq.md)
## 示例
- [Classification](./examples/classification/)
- [Image-Level](./examples/classification/image-level/README.md)
- [Shape-Level](./examples/classification/shape-level/README.md)
- [Detection](./examples/detection/)
- [HBB Object Detection](./examples/detection/hbb/README.md)
- [OBB Object Detection](./examples/detection/obb/README.md)
- [Segmentation](./examples/segmentation/README.md)
- [Instance Segmentation](./examples/segmentation/instance_segmentation/)
- [Binary Semantic Segmentation](./examples/segmentation/binary_semantic_segmentation/)
- [Multiclass Semantic Segmentation](./examples/segmentation/multiclass_semantic_segmentation/)
- [Description](./examples/description/)
- [Tagging](./examples/description/tagging/README.md)
- [Captioning](./examples/description/captioning/README.md)
- [Estimation](./examples/estimation/)
- [Pose Estimation](./examples/estimation/pose_estimation/README.md)
- [Depth Estimation](./examples/estimation/depth_estimation/README.md)
- [OCR](./examples/optical_character_recognition/)
- [Text Recognition](./examples/optical_character_recognition/text_recognition/)
- [Key Information Extraction](./examples/optical_character_recognition/key_information_extraction/README.md)
- [MOT](./examples/multiple_object_tracking/README.md)
- [Tracking by HBB Object Detection](./examples/multiple_object_tracking/README.md)
- [Tracking by OBB Object Detection](./examples/multiple_object_tracking/README.md)
- [Tracking by Instance Segmentation](./examples/multiple_object_tracking/README.md)
- [Tracking by Pose Estimation](./examples/multiple_object_tracking/README.md)
- [iVOS](./examples/interactive_video_object_segmentation/README.md)
- [Matting](./examples/matting/)
- [Image Matting](./examples/matting/image_matting/README.md)
- [Vision-Language](./examples/vision_language/)
- [Florence 2](./examples/vision_language/florence2/README.md)
## 联系
如果你觉得这个项目有帮助,请点亮右上角的⭐星标⭐。如有任何问题或疑问,欢迎[创建 issue](https://github.com/CVHub520/X-AnyLabeling/issues) 或发送邮件至 cv_hub@163.com。
💡洽谈合作事项或想法共创,敬请添加微信: `ww10874` (非诚勿扰)
## 赞助
| **微信支付** | **支付宝** |
| :---: | :---: |
|
|
|
感谢您的支持!
## 许可
本项目采用 [GPL-3.0 开源许可证](./LICENSE)。
## 引用
如果您在研究中使用了这个软件,请按照以下方式引用它:
```
@misc{X-AnyLabeling,
year = {2023},
author = {Wei Wang},
publisher = {Github},
organization = {CVHub},
journal = {Github repository},
title = {Advanced Auto Labeling Solution with Added Features},
howpublished = {\url{https://github.com/CVHub520/X-AnyLabeling}}
}
```