爱游戏-YOLOv10:SOTA 实时物体检测

[导读]YOLO(You Only Look Once)是一种基在深度神经收集的物体检测算法,旨在及时辨认和定位图象或视频中的多个物体。YOLO 以其快速的处置速度和高精度而著名,很是合适需要快速检测物体的利用,例照实时视频阐发、主动驾驶和智能医疗。 5 月 23 日,清华年夜学发布了YOLOv10(You Only Look Once v10),与 YOLOv9 比拟,YOLOv10 有了显著改良,在机能连结不变的环境下,延迟削减了 46%,参数削减了 25%。 2. YOLOv10 视觉物体检测:概述 2.1 甚么是 YOLO? YOLO(You Only Look Once)是一种基在深度神经收集的物体检测算法,旨在及时辨认和定位图象或视频中的多个物体。YOLO 以其快速的处置速度和高精度而著名,很是合适需要快速检测物体的利用,例照实时视频阐发、主动驾驶和智能医疗。 在 YOLO 之前,主流算法是 R-CNN,这是一种“两阶段”方式:起首,生成锚框,然后猜测这些框中的物体。YOLO 经由过程答应“一阶段”直接、端到端输出物体和其位置,完全改变了这一近况。 · 单阶段算法:这些模子履行直接回归使命以输出对象几率和其坐标。示例包罗 SSD、YOLO 和 MTCNN。 · 两阶段算法: 起首生成多个锚框,然后利用卷积神经收集输出这些框内物体的几率和坐标。例如 R-CNN 系列。 2.2 YOLO的收集布局 YOLOv10是YOLOv8的加强,我们先简单看一下YOLOv8的收集布局: 3.YOLOv10 视觉物体检测:练习和推理 3.1 安装YOLOv10 3.1.1 克隆存储库 起首从 GitHub 克隆 YOLOv10 存储库: git clone https://github.com/THU-MIG/yolov10.git 3.1.2 建立 Conda 情况 接下来,专门为 YOLOv10 建立一个新的 Conda 情况并激活它: conda create -n yolov10 python=3.10 conda activate yolov10 3.1.3 下载并编译依靠包 为了安装所需的依靠项,建议利用腾讯pip镜像以更快地下载: pip install -r requirements.txt -i https://mirrors.cloud.tencent.com/pypi/simple pip install -e . -i https://mirrors.cloud.tencent.com/pypi/simple 3.2 利用 YOLOv10 进行模子推理 3.2.1 模子下载 要最先利用 YOLOv10,我们可使用以下链接下载预先练习的模子: · YOLOv10-N · YOLOv10-S · YOLOv10-M · YOLOv10-B · YOLOv10-L · YOLOv10-X 3.2.2 WebUI 揣度 要利用 WebUI 履行推理,请依照以下步调操作: 导航到 YOLOv10 项目标根目次。运行以下号令启动该利用法式: python app.py 一旦办事器成功启动,我们将看到一条动静,注解利用法式正在运行并可供利用。 3.2.3 号令行揣度 对号令行推理,我们可以在 Conda 情况中利用 Yolo 号令。设置和履行方式以下: 激活 YOLOv10 Conda 情况:确保我们已激活之前为 YOLOv10 建立的情况。 conda activate yolov10 利用号令交运行推理:利用yolo predict号令进行猜测。我们需要指定模子、装备和源图象路径,以下所示: yolo predict model=yolov10n.pt device=2 source=/aigc_dev/yolov10/ultralytics/assets · model:指定下载的模子文件的路径(例如,yolov10n.pt)。 · device:指定利用哪一个 GPU(例如,device=2 暗示 GPU #2)。 · source:指定要检测对象的图象的路径。 默许路径和成果: · 默许环境下,需要检测的图象应当放在yolov10/ultralytics/assets目次中。 · 检测后,成果将保留在名为yolov10/runs/detect/predictxx的目次中,此中xx代表每次运行的独一标识符。 CoCo 数据集上的基准测试。 3.3 练习YOLOv10模子 除推理以外,YOLOv10 还撑持在自界说数据集长进行练习。以下是利用号令行练习模子的方式: 要利用 YOLOv10 最先练习,请利用以下号令: yolo detect train data=coco.yaml model=yolov10s.yaml epochs=100 batch=128 imgsz=640 device=2 以下是号令选项的细分: · detect train:这指定我们想要履行对象检测的练习。 · data=coco.yaml:指定命据集设置装备摆设文件,默许数据集(COCO)下载并寄存在此../datasets/coco目次下。 · model=yolov10s.yaml:指定要练习的模子的设置装备摆设文件。 · epochs=100:设置练习迭代次数(epoch)。 · batch=128:指定练习的批次巨细,即每一个练习步调处置的图象数目。 · imgsz=640:暗示练习时代所有输入图象将调剂到的图象巨细。 · device=2:指定利用哪一个 GPU 进行练习(例如,device=2GPU #2)。 示例注释 假定你已准确设置了 YOLOv10 情况和数据集,运行上述号令将在指定的GPU上启动练习进程。该模子将以 128 的批巨细进行 100 个 epoch 的练习,输入图象的巨细将调剂为 640x640 像素。 练习 YOLOv10 的步调 预备数据集 · 确保我们的数据集在 coco.yaml 文件(或我们本身的自界说数据集设置装备摆设文件)中格局准确且描写准确。 · 数据集设置装备摆设文件包罗练习和验证数据的路径和种别的数目。 设置装备摆设模子 · 模子设置装备摆设文件(例如,yolov10s.yaml)包括我们正在练习的 YOLOv10 变体特定设置,包罗架构和初始权重。 运行练习号令 · 利用上面供给的号令最先练习进程。按照我们的硬件能力和练习要求调剂 epoch江南体育s、batch、imgsz 和 device 等参数。 监测和评估 · 在练习时代,假如可用,请经由过程日记或可视化东西监控进度。 · 练习后,在验证集上评估模子机能以确保其合适我们的期望。 利用Yolo10进行及时在线物体检测的Demo案例: Python import cv2 from ultralytics import YOLOv10 model = YOLOv10("yolov10s.pt") cap = cv2.VideoCapture(0) while True: ret, frame = cap.read() if not ret: break results = model.predict(frame) for result in results: boxes = result.boxes for box in boxes: x1,y1,x2,y2 = map(int, box.xyxy[0]) cls = int(box.cls[0]) conf = float(box.conf[0]) cv2.rectangle(frame, (x1, y1), (x2, y2), (255, 0, 0), 2) cv2.putText(frame, f'{model.names[cls]} {conf:.2f}', (x1, y1 - 10), cv2.FONT_HERSHEY_SIMPLEX, 0.5, (255, 0, 0), 2) cv2.imshow('YOLOv10', frame) if cv2.waitKey(1) 0xFF == ord('q'): break cap.release() cv2.destroyAllWindows() 我们可以构建工作站来运行/练习 AI 系统。为了省钱,我们还可以在网上找到 GPU 等便宜组件。

欲知详情,请下载word文档 下载文档

4月12日动静,据媒体报导,清华年夜学初创散布式广度光计较架构,并研制出年夜范围干与-衍射异构集成芯片太极(Taichi),实现160 TOPS/W的通用智能计较。

要害字: 清华年夜学 芯片

近日有动静称,由马斯克投资的美国航天公司SpaceX雇佣了1022名清华年夜学高才生,在全球各年夜学中名列第一。但经核实发现,该动静其实不属实。

要害字: 马斯克 清华年夜学

NI和清华年夜学机电系合作共建NI虚拟仪器结合立异尝试室,揭牌典礼在清华年夜学西主楼进行。

要害字: ni 清华年夜学

上一篇:爱游戏-我国首个商业航天发射场已具备执行发射能力 下一篇:爱游戏-亚马逊云科技宣布基于自研Amazon Graviton4的Amazon EC2 R8g实例正式可用