VLM检测工具介绍#

章节目标#

  • 了解如何配置VLM检测工具微调的运行环境

配置VLM检测工具微调的运行环境#

我们提供了 Dockerfile 来配置VLM检测工具微调的运行环境, 你可以从发布包中获取该文件。

步骤一:准备 VisionFlow 基础镜像#

  • 基础镜像的构建与获取方式请参考安装文档的说明:在 Linux 平台使用 VisionFlow 章节(参考 在Linux平台使用 VisionFlow)。

  • 构建完成后,记录下基础镜像的完整名称(例如 vsc-aidi-sdk ),后续将作为 BASE_IMAGE 参数传入微调镜像的构建过程。

步骤二:构建 VLM 微调镜像#

在终端中执行以下命令,基于已构建的 VisionFlow 基础镜像生成 VLM 微调训练环境镜像:

docker build -f "{Dockerfile_Path}" --build-arg BASE_IMAGE={BASE_IMAGE}:latest -t {VLM_TRAIN_IMAGE}:latest .

说明:

  • {Dockerfile_Path} :修改为配置微调环境的 Dockerfile 路径;该文件应存在于发布包中的 dockerfile/vlm_train.Dockerfile 中。

  • {BASE_IMAGE} :修改为步骤一中构建的 VisionFlow 基础镜像的完整名称(例如 vsc-aidi-sdk )。

  • {VLM_TRAIN_IMAGE}:latest : 指定输出镜像的名称与标签,可按需调整。

步骤三:启动容器并验证微调环境#

构建完成后,使用如下命令启动容器并验证环境:

docker run -it --gpus=all {VLM_TRAIN_IMAGE}:latest

进入容器后:

  • 执行 nvidia-smi 验证GPU资源是否可用。

  • 执行 visionflow –help 验证VisionFlow是否可用。