华为云用户手册

  • Step2 获取具体的分析结果 在设置的输出路径下,查看分析结果。 DIS 登录DIS控制台。 单击相应的DIS通道,查看输入流是否有数据。 通过DIS转储任务获取分析的结果数据,具体操作请参见DIS用户指南。 Webhook 服务使用post请求将作业的运行结果,包括告警结构化数据和图片数据,以JSON数据流的形式输出到用户指定的Webhook URL。 例如运行Webhook Service中的示例脚本将接收到的Webhook消息写在与脚本同目录的post.txt文件中。 以入侵检测算法为例,算法输出的JSON结果示例如下,表示识别出视频中在指定区域有人入侵。 { "event_type":196609, "timestamp":1581753322, "stream_id":"44000000581314000234#15#9f63890660f24175871c861b345e852d", "message_id":"849D1326-4FC8-11EA-8F73-0242AC110004", "image_base64":"/9j/4AAQSkZJRgA...", "task_id":"63eac48bf3704e8bb30af7f244fdcf3d", "data":{ "event_set":[ { "start_position":"in", "end_position":"in", "bounding_box":{ "y":327, "h":216, "x":876, "w":105 }, "category":0, "detection_id":"83BFC020-4FC8-11EA-9F93-0242AC110004" } ] }} 表1 JSON结果字段解释 字段 说明 task_id 表示作业ID。 data data中的内容表示算法作业运行输出的识别结果。 bounding_box 告警输出对象的矩形框。 x:矩形框左上角横坐标 y:矩形框左上角纵坐标 w:矩形框宽度 h:矩形框高度 detection_id 告警目标对应的UUID。 category 告警目标的类型: 0:人 1:车 2:其他 start_position 表示入侵开始位置: 如果是过线入侵,则是入侵开始所在线一侧的名字。 如果是区域入侵,则是“in”或者“out”。 in:表示入侵开始在区域里面。 out:表示入侵开始在区域外面。 end_position 表示入侵结束位置: 如果是过线入侵,则是入侵结束所在线一侧的名字。 如果是区域入侵,则是“in”或者“out”。 in:表示入侵结束在区域里面。 out:表示入侵结束在区域外面。
  • 运行Webhook Service 智能视频分析服务作业的结果输出类型选择为Webhook时,在创建作业前,需确保Webhook Service已运行成功。 下面以一个简单的python脚本作为示例,展示如何启动Webhook Service并保存接收的数据。 准备一台本地的Linux服务器,确保Linux服务器和边缘节点服务器网络通畅,并已安装python环境。 使用ifconfig命令在Linux服务器上查询服务器IP地址。 修改脚本第18行,填入Linux服务器IP地址。 图1 示例脚本post.py import jsonfrom wsgiref.simple_server import make_serverdef application(environ, start_response): start_response('200 OK', [('Content-Type', 'application/json')]) request_body = environ["wsgi.input"].read(int(environ.get("CONTENT_LENGTH", 0))) f=open('./post.txt','a') f.write(request_body) f.write("\n") f.close() return ("200 success\n")if __name__ == "__main__": port = 6006 httpd = make_server("10.10.10.1", port, application) print "serving http on port {0}...".format(str(port)) httpd.serve_forever() 脚本中的端口6006可以根据用户实际需要修改。 创建作业时,算法输出Webhook URL设置为:http://${IP}:${port}。例如:http://10.10.10.1:6006。 执行脚本,启动Webhook Service。 python post.py 图2 执行脚本成功
  • 边缘算法使用流程 表1 边缘算法使用流程 流程 子任务 说明 详细指导 准备边缘算法 创建边缘运行池 边缘运行池是一组处理服务作业的边缘节点。在创建服务作业前,要求先创建边缘运行池。 创建边缘运行池 购买算法包 根据业务需求选择购买对应的边缘算法包。 购买算法包 部署算法服务 使用边缘算法前需要将其部署到边缘资源池。 部署算法服务 准备输入输出 接入视频数据 您在使用视频接入分析服务的算法服务前,需要先接入视频数据,才能用算法服务对接入的视频进行分析,获取结果。 边缘算法支持接入摄像头、Restful、VCN三种视频数据来源。 视频源列表 准备结果输出通道 如果将结果输出到DIS或Webhook的话需要提前准备好作业分析结果的输出通道。 准备结果输出通道 创建分析作业 创建作业 创建作业需要指定一个已接入的视频源、一种已购买的算法服务,配置对应算法参数和作业执行计划,最后选择输出类型。 创建作业 查看分析结果 查看作业状态 作业创建成功后,观察作业的运行状态,待运行成功后,获取作业分析结果。 查看作业状态 获取作业结果 您可以根据设置的输出数据类型,采用对应的方式获取作业分析结果。 获取作业结果
  • 查看批量配置详情 在“批量配置”页面可查看所有批量配置的算法、分组名称、作业数量、状态这些基本信息。若需要展示指定批量配置,可通过批量名称或算法服务名称进行模糊查询,或者通过算法服务、分组名称、作业状态和厂商进行精确的下拉筛选,最后可选择按照作业数量或创建时间进行升序或降序的排序。 批量配置更详情的信息可单击批量配置的名称进行查看。除了基本信息外,详情页会展示当前批量配置下关联的视频分析作业列表。关联的作业列表支持对作业筛选、启动以及查看单条作业的详情。
  • 新建订阅 单击事件订阅,进入订阅列表页面。 单击“新建订阅”,参考表1填写相关参数。 表1 订阅事件参数填写说明 参数名称 参数描述 订阅者名称 设置订阅者名称。 视频源 选择“全部”或“部分”。 “全部”即订阅所有视频源的告警信息;“部分”即订阅所选视频源的告警信息。 订阅地址 订阅者本地PC地址。例:http://127.0.0.1:8080 请求头 随着订阅的消息一起发送给订阅者,格式为key-value。至少有一个自定义的请求头。 订阅者描述 描述信息,可选填。 新建订阅之后,平台会将产生的事件发送给订阅了该视频源的所有订阅者。
  • 事件规则 事件规则,即展示事件的规则。 在事件列表页面单击“更多”,打开事件规则。 进入“事件规则”页面,可开启人工审核或事件重复聚合。 人工审核。如果开启,所有的事件都不会通过订阅的方式推送给用户,只有通过审核之后才会推送,如果关闭,则默认将所有的事件推送给用户。 事件重复聚合。开启事件重复聚合之后,需要设置事件聚合的时间(取值范围:1-1000)。即在这段时间产生的所有事件,都会聚合展示(将第一个事件作为主事件展示在事件列表里面,其余的事件作为从事件,展示在事件详情页),如果关闭此开关则将接下来所有的事件作为主事件展示在事件列表。 父主题: 事件列表
  • 运行Webhook Service AI视频分析服务作业的结果输出类型选择为Webhook时,在创建作业前,需确保Webhook Service已运行成功。 下面以一个简单的python脚本作为示例,展示如何启动Webhook Service并保存接收的数据。 准备一台本地的Linux服务器,确保Linux服务器和边缘节点服务器网络通畅,并已安装python环境。 使用ifconfig命令在Linux服务器上查询服务器IP地址。 修改脚本第18行,填入Linux服务器IP地址。 图1 示例脚本 import jsonfrom wsgiref.simple_server import make_serverdef application(environ, start_response): start_response('200 OK', [('Content-Type', 'application/json')]) request_body = environ["wsgi.input"].read(int(environ.get("CONTENT_LENGTH", 0))) f=open('./post.txt','a') f.write(request_body) f.write("\n") f.close() return ("200 success\n")if __name__ == "__main__": port = 6006 httpd = make_server("10.10.10.1", port, application) print "serving http on port {0}...".format(str(port)) httpd.serve_forever() 脚本中的端口6006可以根据用户实际需要修改。 创建作业时,算法输出Webhook URL设置为:http://${IP}:${port}。例如:http://10.10.10.1:6006。 执行脚本,启动Webhook Service。 python post.py 图2 执行脚本成功
  • 19. 特殊车辆检测 视频开始时间:对于离线视频,该项必须配置;实时视频流场景,无须配置。取值格式示例:2019/04/14 08:00:00 车道线:每条车道线的位置信息,格式为[[x1, y1, x2, y2],..., [x1, y1, x2, y2]],其中x1, y1, x2, y2依次表示车道线上端点坐标值和下端点坐标值。 车牌信息:包括车牌所属城市缩写和省份信息。 特殊车辆集合:属于该列表的特殊车辆会被检测并输出事件。0表示中巴,1表示罐车,2表示大货车,3表示大客车。 输出图片设置:默认值为0,表示不输出检测图像,1表示输出。
  • 21. 交通拥堵检测 检测区域设置:包括车道线信息。未设置检测区域时,默认全屏都是检测区域。 输出图像开关:默认值为1,表示输出检测图像,0表示不输出。 拥堵检测输出时间间隔:取值范围为[0, 600],单位为秒。如果该值等于0,表示事件触发,即有拥堵产生的情况下才输出;如果该值大于等于1,表示事件按照配置的时间间隔输出。 渲染参数开关:默认为0表示不启用渲染,1表示启用渲染。启用渲染时,每一帧都会输出带车框的图片和拥堵指数,用于合成视频。 渲染模式下需要保证带宽足够大,期望的带宽为300M/s。当带宽满足不了时,输出会丢数据,并产生丢数据的日志。
  • 23. 人脸提取 检测目标最大像素值:表示发送人脸图片长宽的最大像素,取值范围[90,1000],默认值为800。如果该参数设置得过小,人脸提取的准确率会受到影响。 检测目标最小像素值:表示发送人脸图片长宽的最小像素,取值范围[90,1000],默认值为120。如果该参数设置得过大,人脸提取的准确率会受到影响;如果该参数设置得过小,则可能提取到分辨率较低的人脸图。 发送原图开关:表示检测结果是否发送人脸原始图。0表示不发送原图,1表示发送原图,默认值为0。 原图压缩比:取值范围[20, 100],默认为90,表示图片压缩比为90%。 跳帧数:表示每分析视频1帧画面后,所跳过的帧数。例如设置为2,表示每处理1帧跳过2帧。取值范围[0, 10],默认值为0。该参数值越大,算法的性能消耗就越低,但会影响人脸提取的效果。 本地存储时间:表示本地文件保存时间,单位为天,超期会被自动删除。输出类型为Local Path(即将作业的运行结果保存在边缘节点本地)时生效,取值范围[1, 180],默认值为1天。 人脸首次发送时间:表示从检测出人脸到发送人脸图之间的计时,单位为s,取值范围[0, 360],默认值0。从人脸被检测开始计时,至该参数所设置的时间结束,算法会选择期间满足发送条件且质量最好的人脸图进行发送。 人脸必须发送开关:表示检测出行人后是否必须发送一张人脸。默认值为0,表示非必须发送。当参数设为1时,即使行人在检测过程内都没有满足发送条件的人脸,也会发送一张人脸。 人脸重复发送开关:表示是否重复发送同一位行人的多张人脸图。默认值为0,表示不重复发送。1表示重复发送。参数设为1后,需配合“人脸重复发送模式”、“人脸重复发送质量倍数”和“人脸重复发送周期”参数共同使用,从而选择以质量递增或者周期发送的模式,来发送同一个人的多张人脸图。 人脸重复发送模式:表示对同一位行人多张脸图的发送模式,取值范围: QUALITY_STEP:按质量递增的模式发送,需配合“人脸重复发送质量倍数”参数使用。对同一位行人,当新检测到的脸图质量高于已发送脸图质量一定程度时,会再次发送。 PERIOD:按时间周期的模式发送,需配合“人脸重复发送周期”参数使用。对同一位行人,选取每个时间周期内质量最优人脸进行发送。 人脸重复发送质量倍数:表示人脸图重复发送的质量递增倍数。对同一位行人,当新检测到的人脸图质量大于已发送人脸图一定程度时,触发再次发送一张人脸图,取值范围[1.0, 10.0]。默认值为1.2,表示新人脸图的质量必须大于已发送人脸图质量的1.2倍时,才会再次发送。 人脸重复发送周期:表示重复发送人脸图的周期时间。对同一位行人,在每个周期结束时,选取该周期内质量最好的人脸图发送一次。单位为s,取值范围[0,360],默认值为1。 检测区域设置:表示检测区域,该字段为JSON格式的字符串,例如:{"polygons":[{"data":[[84,389],[1840,349],[1824,526],[78,526]]}]}。未设置检测区域时,默认全屏都是检测区域。
  • 24. 占道经营检测 图片压缩比:取值范围[20, 100],默认为90,表示图片压缩比为90%。 占道经营检测开关:默认为1表示检测。0表示不检测。 出店经营检测开关:默认为0表示不检测。1表示检测。 目标框渲染开关:输出图像是否绘制告警目标边框,默认为0,表示不绘制。1表示用红色绘制告警目标边框。 检测区域渲染开关:输出图像是否绘制检测区域,默认为0,表示不绘制。1表示用黄色绘制用户设定区域。 检测区域设置:表示检测区域。该字段为JSON格式的字符串,例如:{"polygons":[{"data":[[84,389],[1840,349],[1824,526],[78,526]],"name":"polygon"}]}可为每个区域设置名称,后续输出结果时会连带输出区域名称。参数没有携带时,默认区域为整个视频帧,默认区域名称为空字符串。
  • 25. 垃圾检测 图片压缩比:取值范围[20, 100],默认为90,表示图片压缩比为90%。 垃圾检测开关:默认为1表示检测垃圾。2表示检测垃圾并检测疑似丢垃圾的人。 邻近行人约束开关:当开关打开时,垃圾附近有行人逗留的告警将被过滤。默认为0表示不开启开关。1表示开启开关。 垃圾最小尺寸:由于不同应用场景对垃圾的定义不同,用户可自定义配置垃圾最小尺寸,小于该尺寸的垃圾目标将不被告警。取值范围[1, 500]。默认值为1。 目标框渲染开关:输出图像是否绘制告警目标边框,默认为0,表示不绘制。1表示用红色绘制告警目标边框。 检测区域渲染开关:输出图像是否绘制检测区域,默认为0,表示不绘制。1表示用黄色绘制用户设定区域。 检测区域设置:表示检测区域。该字段为JSON格式的字符串,例如:{"polygons":[{"data":[[84,389],[1840,349],[1824,526],[78,526]],"name":"polygon"}]}可为每个区域设置名称,后续输出结果时会连带输出区域名称。参数没有携带时,默认区域为整个视频帧,默认区域名称为空字符串。
  • 17. 个体动作检测 climb_detection_sw:对输入视频流是否检测翻越动作,1表示检测,0表示不检测。默认值为1。 fall_detection_sw:对输入视频流是否检测摔倒动作,1表示检测,0表示不检测。默认值为1。 wave_detection_sw:对输入视频流是否检测挥手动作,1表示检测,0表示不检测。默认值为1。 bend_detection_sw:对输入视频流是否检弯腰动作,1表示检测,0表示不检测。默认值为1。 render_result_sw:输出图像是否绘制告警目标边框,默认为0,表示不绘制。1表示用红色绘制告警目标边框。 render_roi_sw:输出图像是否绘制检测区域,默认为0,表示不绘制。1表示用黄色绘制用户设定区域。 target_roi:表示检测区域,当在该区域内的垃圾桶被检测到异常状态时,触发告警。该字段为JSON格式的字符串,例如:{"polygons":[{"data":[[84,389],[1840,349],[1824,526],[78,526]]}]}。未设置检测区域时,默认全屏都是检测区域。 图片压缩比:取值范围[20, 100],默认为90,表示图片压缩比为90%。
  • 18. 异常停车检测 检测区域设置:包括车辆检测区域以及离开线和靠近线。未设置检测区域时,默认全屏都是检测区域。 车牌信息:包括车牌所属城市缩写和省份信息。 异常停车时间阈值:当车辆持续该值都没有移动过,就产生异常停车。取值范围为[20, 3600],单位为秒。最长停车阈值设为1小时。 重复上报停车的时间间隔:同辆车重复上报的时间间隔,取值范围[30, 86400],单位为秒,默认为30s。最长间隔为24小时。 该值为max(异常停车时间阈值, 重复上报停车的时间间隔)。 输出图像开关:默认值为1,表示输出检测图像,0表示不输出。
  • 22. 高速流量统计及事件检测 车道线:包括高速车道线及车速统计辅助线。 拥堵检测开关:是否检测拥堵事件,默认为0表示不检测。1表示检测。 流量统计时间间隔:取值范围[60,600],单位为秒。 异常停车检测开关:是否检测异常停车事件,默认为0表示不检测,1表示检测。 异常停车判定阈值:超过该停车时间时判定为异常停车,单位为秒,默认值为30。 异常停车事件输出时间间隔:针对同一起异常停车事件输出消息的时间间隔。取值范围[1,180],单位为秒,默认值为30。 拥堵事件输出时间间隔:针对拥堵事件输出消息的时间间隔。取值范围[1,180],单位为秒,默认值为30。 行人和非机动车检测开关:默认为0表示不检测,1表示检测。 违章行驶检测开关:0表示不检测,1表示检测,默认值为1。检测频率固定为2秒钟一次,检测事件包括压线行驶、逆行倒车、占用应急车道。 光照是否恒定不变:0表示光照会变化,1表示不变,默认值是0。该参数用于有些特殊路段的光照配置,比如隧道中持续亮灯,则该参数可以配置 1。
  • 1. 人流量统计 过线人流量统计周期:统计设定时间周期内的人流量结果,单位为秒。取值范围为(0, 86400],默认值为2s。 区域人流量统计周期:统计当前时刻的区域人流量结果,单位为秒。取值范围为(0, 86400],默认值为2s。 过线人流量统计开关:对输入视频流是否检测过线人流量,默认值为1,表示检测。0表示不检测。 区域人流量统计开关:对输入视频流是否检测区域人流量,默认值为1,表示检测。0表示不检测。 检测区域设置:表示检测区域,该字段为JSON格式的字符串。例如:{"lines":[{"data":[[560,680],[1185,506]],"properties":{"side1_name":"Side1","side2_name":"Side2"}}],"polygons":[{"data":[[0,0],[0,1080],[1920,1080],[1920,0]]}]}。未设置检测区域时,默认全屏都是检测区域。 热力图检测开关:默认值为0,表示不开启。1表示开启。 热力图检测周期:单位为秒。取值范围为[10, 86400],默认值为10s。 热点图更新周期:单位为帧。取值范围为[1, 10000],默认值为4。在热力图检测周期内,热点值逐渐累加。
  • 2. 入侵检测 过线检测开关:默认值为1,表示开启。0表示不开启。 徘徊检测开关:默认值为0,表示不开启。1表示开启。 区域检测开关:默认值为1,表示开启。0表示不开启。 车检测开关:默认值为0,表示不检测。1表示检测。 人脸检测开关:默认值为1,表示检测。0表示不检测。 检测目标最大像素值:检测目标的长宽最大像素,取值范围[1080, 4000],默认值为1080。 检测目标最小像素值:检测目标的长宽的最小像素,取值范围[60, 4000],默认值为60。 检测区域设置:表示检测区域,该字段为JSON格式的字符串,例如:{"lines":[{"data":[[560,680],[1185,506]],"properties":{"side1_name":"Side1","side2_name":"Side2"}}],"polygons":[{"data":[[0,0],[0,1080],[1920,1080],[1920,0]]}]}。未设置检测区域时,默认全屏都是检测区域。 图片压缩比:取值范围[20, 100],默认为90,表示图片压缩比为90%。 检测结果渲染开关:输出图像是否绘制告警目标边框,默认为0,表示不绘制。1表示用红色绘制告警目标框。 检测区域渲染开关:输出图像是否绘制检测区域,默认为0,表示不绘制。1表示用黄色绘制用户设定区域。
  • 5. 遗留物检测 检测目标最小像素值:检测目标的长宽最小像素,与分辨率成正比,在1080p分辨率下,取值范围为[50, 400],默认值为50。 告警时间阈值:遗留物告警时间阈值,目标产生告警时的遗留时间不少于该时间。单位为秒,取值范围[10, 300],默认值为10。 检测周期:遗留物告警检测周期。如果在一个周期内有多个告警,则合并为一个告警。单位为秒,取值范围为[1, 150],默认值为5,建议取值范围为[1, 告警时间阈值/2]。 图片压缩比:取值范围[20, 100],默认为90,表示图片压缩比为90%。 检测区域设置:表示检测区域,该字段为JSON格式的字符串,例如:{"polygons":[{"data":[[84,389],[1840,349],[1824,526],[78,526]]}]}。未设置检测区域时,默认全屏都是检测区域。 检测结果渲染开关:输出图像是否绘制告警目标边框,默认为0,表示不绘制。1表示用红色绘制告警目标边框。 检测区域渲染开关:输出图像是否绘制检测区域,默认为0,表示不绘制。1表示用黄色绘制用户设定区域。
  • 13. 烟火检测 检测结果渲染开关:输出图像是否绘制告警目标边框,默认为0,表示不绘制。1表示当告警为烟时,用紫色绘制告警目标框;当告警为火时,用红色绘制告警目标框。 检测区域渲染开关:输出图像是否绘制检测区域,默认为0,表示不绘制。1表示用黄色绘制用户设定区域。 视频采样间隔时间:取值范围[1, 10],默认为1s。表示1秒采样一次视频画面。此参数决定了算法检测的频率,时间间隔增加,烟或火从发生到检测的最大时延会增加,建议根据可接受的实际响应延时设置此参数。 检测区域设置:表示检测区域,该字段为JSON格式的字符串,例如:{"polygons":[{"data":[[84,389],[1840,349],[1824,526],[78,526]]}]}。未设置检测区域时,默认全屏都是检测区域。 图片压缩比:取值范围[20, 100],默认为90,表示图片压缩比为90%。
  • 7. 消防通道占用 检测结果渲染开关:输出图像是否绘制告警目标边框,默认为0,表示不绘制。1表示用红色绘制告警目标边框。 检测区域渲染开关:输出图像是否绘制检测区域,默认为0,表示不绘制。1表示用黄色绘制用户设定区域。 图片压缩比:取值范围[20, 100],默认为90,表示图片压缩比为90%。 堆物占道检测开关:默认值为1,表示开启。0表示不开启。 车辆占道检测开关:默认值为1,表示开启。0表示不开启。 堆物占道停留时间设置:堆物在无明显遮挡的情况下停留时间超过该设置值则上报告警,其设置取值范围为[10, 3600],默认值为40,单位秒。 车辆占道停留时间设置:车辆在无明显遮挡的情况下停留时间超过该设置值则上报告警,其设置取值范围为[10, 3600],默认值为50,单位秒。 检测区域设置:表示检测区域,该字段为JSON格式的字符串,例如:{"polygons":[{"data":[[84,389],[1840,349],[1824,526],[78,526]]}]}。未设置检测区域时,默认全屏都是检测区域。
  • 9. 高密度人群统计 场景类型:取值范围[0, 3],默认为1。 0表示全屏模式,该模式即将退出,可用ROI模式替代。 1表示ROI模式。用户可以根据业务需要,选择画面中感兴趣区域进行人数和横幅统计,默认会对全屏进行统计。 2表示Flow模式。算法会根据视频画面连续几帧的检测情况,自动寻找画面中的静止人群汇聚区域。静止人群汇聚区域,通常可能伴随聚众议事、打闹等事件发生。当静止人群汇聚区域人数大于告警阈值时,会触发告警图片上报。 3表示Event模式。此时,事件间隔参数会生效。该模式即将退出,不建议使用。 事件间隔:取值范围[1, 20],默认为10。表示一次事件需要几次检测。仅当场景类型取值为3时生效。 视频采样处理时间间隔:取值范围[1, 30],默认为10s。表示10秒采样一次视频画面。 人数告警阈值列表:默认为50人。当视频帧中出现大于该阈值的人数时,上报告警。该字段在4种场景下的输入情况如下: 全屏模式,只能输入一个人数告警阈值。如果输入多个,默认使用第一个输入。 ROI模式,可以针对每个ROI区域输入不同的告警阈值,每个输入用空格进行分隔。若用户输入的人数告警阈值列表多于实际的ROI个数,则取前边的人数。如果输入的人数告警阈值列表少于实际的ROI个数,则比ROI个数少的部分用默认值补齐。举例:ROI有3个,当输入25 30 20,只要有其中一个ROI告警,则发送图片。当输入25 15时,则第三个ROI会用默认值50补齐,也即变成25 15 50。当输入25 36 23 40时,算法自动选择前3个,也即25 36 23。 Flow模式,只能输入一个人数告警阈值。如果输入多个,默认使用第一个输入。算法自动发现的所有汇聚区域都会共用这个告警阈值,只要有一个区域超过阈值,就会发送告警图片。 Event模式,人数告警阈值与ROI模式相同。 横幅检测开关:1表示打开,会对视频画面中的ROI区域进行横幅检测。0表示关闭,不检测。 横幅告警阈值列表:默认为1。当视频帧中出现大于该阈值的人横幅时,上报告警。 可视化输出开关:1表示打开,0表示关闭。默认为0,表示每个ROI区域检测到的人数大于告警阈值时,只会发送原图信息。只有打开可视化开关后,才会将检测到的行人和横幅进行可视化输出。可视化场景如下: 检测到单个行人,会用红色框进行标注。 检测到游行示威的横幅,会用红色框标注。 ROI模式(含全屏)检测到密集人群,会对该区域进行颜色渲染。 Flow模式检测到静止汇聚人群,会用黄色多边形进行区域标注。 对于ROI模式,每个ROI框会用黄色多边形在画面中标注。 密度估计开关:1表示启用密度估计模型,0表示不启用。默认为1。推荐当人数较多、告警人数阈值较大的场景启用密度估计模型;当人数较少、告警人数阈值较低的场景可不用密度估计模型。 图片压缩比:取值范围[20, 100],默认为90,表示图片压缩比为90%。 检测区域设置:表示检测区域,该字段为JSON格式的字符串,例如:{"polygons":[{"data":[[84,389],[1840,349],[1824,526],[78,526]]}]}。未设置检测区域时,默认全屏都是检测区域。
  • 11. 共享单车检测 告警模式:共享单车违停告警模式,默认值:"single"。 "single": 表示单次告警模式,每当出现新的告警目标时,上报告警信息。 "periodic": 表示周期告警模式,每过一个检测周期,上报当前所有告警目标信息。 检测周期:共享单车违停检测周期,取值范围为[1, 3600],默认为60s。 告警触发时间:共享单车停留超过这个时间则告警。取值范围[10,300],默认为30s。 目标框渲染开关:输出图像是否绘制告警目标边框,默认为0,表示不绘制。1表示绘制,用黄色边框+红色底色,同时在框左上角位置标上warning标志。 合法区域设置:表示合法停车区域,车辆停在合法停车区域时不会触发违停事件。该字段为JSON格式的字符串,例如:{"polygons":[{"data":[[84,389],[1840,349],[1824,526],[78,526]]}]}。未设置区域时,默认全屏都是不合法停车区。 图片压缩比:取值范围[20, 100],默认为90,表示图片压缩比为90%。
  • 12. 个体事件行为检测 吸烟检测开关:对输入视频流是否检测吸烟动作,1表示检测,0表示不检测。默认值为1。 打手机检测开关:对输入视频流是否检测打手机动作,1表示检测,0表示不检测。默认值为0。 目标框渲染开关:输出图像是否绘制告警目标边框,默认为0,表示不绘制。1表示用红色绘制告警目标边框。 检测区域渲染开关:输出图像是否绘制检测区域,默认为0,表示不绘制。1表示用黄色绘制用户设定区域。 检测区域设置:表示检测区域,该字段为JSON格式的字符串,例如:{"polygons":[{"data":[[84,389],[1840,349],[1824,526],[78,526]]}]}。未设置检测区域时,默认全屏都是检测区域。 图片压缩比:取值范围[20, 100],默认为90,表示图片压缩比为90%。
  • 14. 垃圾桶异常检测 告警触发时间:取值范围[30, 3600],默认为30s。当检测到垃圾桶状态异常达到该时长是触发告警。 目标渲染开关:输出图像是否绘制告警目标边框,默认为0,表示不绘制。1表示用红色绘制告警目标边框。 检测区域渲染开关:输出图像是否绘制检测区域,默认为0,表示不绘制。1表示用黄色绘制用户设定区域。 区域设置:表示检测区域,当在该区域内的垃圾桶被检测到异常状态时,触发告警。该字段为JSON格式的字符串,例如:{"polygons":[{"data":[[84,389],[1840,349],[1824,526],[78,526]]}]}。未设置检测区域时,默认全屏都是检测区域。 图片压缩比:取值范围[20, 100],默认为90,表示图片压缩比为90%。
  • 6. 戴口罩检测 目标框渲染开关:输出图像是否绘制告警目标边框,默认为1,表示用红色绘制告警目标边框。0表示不绘制。 检测区域渲染开关:输出图像是否绘制检测区域,默认为1,表示用黄色绘制用户设定区域。0表示不绘制。 图片压缩比:取值范围[20, 100],默认为90,表示图片压缩比为90%。 检测区域设置:表示检测区域,该字段为JSON格式的字符串,例如:{"polygons":[{"data":[[84,389],[1840,349],[1824,526],[78,526]]}]}。未设置检测区域时,默认全屏都是检测区域。
  • 16. 疑似活物检测 检测目标最大像素值:表示发送活物图片长宽的最大像素,取值范围[30,1000],默认值为50。 检测目标最小像素值:表示发送活物图片长宽的最小像素,取值范围[5,300],默认值为5。 目标框渲染开关:输出图像是否绘制告警目标边框,默认为0,表示不绘制。1表示用红色绘制告警目标边框。 检测区域渲染开关:输出图像是否绘制检测区域,默认为0,表示不绘制。1表示用黄色绘制用户设定区域。 检测区域设置:疑似活物的检测区域,当在该区域内的疑似活物被检测到时,触发告警。该字段为JSON格式的字符串,例如:{"polygons":[{"data":[[43,266],[42,645],[472,644],[416,212]]},{"data":[[311,182],[282,670],[941,661],[835,170]]}]}。未设置检测区域时,默认全屏都是检测区域。 原图压缩比:取值范围[20, 100],默认为90,表示图片压缩比为90%。
  • 3. 关键岗位检测 关键岗位检测开关:是否开启关键岗位检测告警,默认值为1,表示开启。0表示不开启。 在岗最小人数:关键岗位检测区域的最少人数,取值范围为[1, 100],默认值为2人。 检测周期:关键区域检测周期,单位为秒。取值范围为[1, 3600],默认值为1s。当时间到达检测周期整数倍时,触发算法检测在岗人数。 告警触发阈值:单位为检测周期个数。取值范围为[1, 3600],默认值为60。假设告警触发阈值为N,当连续N个检测周期时间内检测结果都不满足最小在岗人数,则触发告警。触发告警或满足在岗人数则重新开始计数,直到再次达到告警阈值。 图片压缩比:取值范围[20, 100],默认为90,表示图片压缩比为90%。 检测区域设置:表示检测区域,该字段为JSON格式的字符串,例如:{"polygons":[{"data":[[84,389],[1840,349],[1824,526],[78,526]]}]}。未设置检测区域时,默认区域为整个视频帧中间的1/4。
  • 8. 工服工帽检测 工帽检测开关:默认值为1,表示检测。0表示不检测。 工服检测开关:默认值为1,表示检测。0表示不检测。 目标框渲染开关:输出图像是否绘制告警目标边框,默认为0,表示不绘制。1表示用红色绘制告警目标边框。 检测区域渲染开关:输出图像是否绘制检测区域,默认为0,表示不绘制。1表示用黄色绘制用户设定区域。 图片压缩比:取值范围[20, 100],默认为90,表示图片压缩比为90%。 检测区域设置:表示检测区域,该字段为JSON格式的字符串,例如:{"polygons":[{"data":[[84,389],[1840,349],[1824,526],[78,526]]}]}。未设置检测区域时,默认全屏都是检测区域。
  • 15. 排队状态分析 排队状态分析开关:1表示开启,0表示不开启。默认值为1。 检测结果渲染开关:输出图像是否绘制告警目标边框,默认为0,表示不绘制。1表示用红色绘制告警目标边框。 检测区域渲染开关:输出图像是否绘制检测区域,默认为0,表示不绘制。1表示用黄色绘制用户设定区域。 检测区域设置:表示检测区域,该字段为JSON格式的字符串,例如:{"polygons":[{"data":[[84,389],[1840,349],[1824,526],[78,526]]}]}。未设置检测区域时,默认区域为整个视频帧。 图片压缩比:取值范围[20, 100],默认值为90,表示图片压缩比为90%。
  • 边缘算法使用流程 图2 边缘算法使用流程 表1 边缘算法使用流程 流程 子任务 说明 详细指导 准备输入输出 接入视频数据 您在使用视频接入分析服务的算法服务前,需要先接入视频数据,才能用算法服务对接入的视频进行分析,获取结果。 边缘算法支持接入Edge Camera、Edge Restful、VCN三种视频数据来源。 接入视频数据 准备结果输出通道 请提前准备好作业分析结果的输出通道。 准备结果输出通道 创建边缘运行池 边缘运行池是一组处理服务作业的边缘节点。在创建服务作业前,要求先创建边缘运行池。 创建边缘运行池 创建分析作业 创建作业 创建作业的过程中需要配置输出数据的类型。 创建作业 配置算法参数 创建作业的过程中需要设置相应的算法参数。不同的算法服务,对应的参数不同。 配置算法参数 查看分析结果 查看作业状态 作业创建成功后,观察作业的运行状态,待运行成功后,获取作业分析结果。 查看作业状态 获取作业结果 您可以根据设置的输出数据类型,采用对应的方式获取作业分析结果。 获取作业结果
共100000条