华为云用户手册

  • 到期后影响 图2描述了包年/包月AstroZero资源各个阶段的状态。购买后,在计费周期内资源正常运行,此阶段为有效期。资源到期而未续费时,将陆续进入宽限期和保留期,详细说明请参考宽限期保留期。 图2 包年/包月AstroZero资源生命周期 到期预警 包年/包月资源(未设置自动续费、到期转按需、到期不续费)到期前15、7、3、1天,汇总发通知告知客户去续费;包年/包月资源(设置到期不续费)到期前3天,汇总发通知告知客户去续费。 到期后影响 当包年/包月的AstroZero到期未续费时,首先会进入宽限期,可以正常使用该资源。 如果在宽限期内仍未续费或充值,那么就会进入保留期,保留期内该资源会被冻结不能正常使用,但对客户存储在该资源中的数据仍予以保留。 保留期满仍未续费或充值,那么该资源会自动被删除,且不能再找回,也不能再续费。 华为云根据客户等级,定义了不同客户的宽限期和保留期时长。 关于续费的详细介绍,请参见续费概述。
  • 计费周期 包年/包月AstroZero资源的计费周期是根据您购买的时长来确定的(以UTC+8时间为准)。一个计费周期的起点是您开通或续费资源的时间(精确到秒),终点则是到期日的23:59:59。 例如,如果您在2023/03/08 15:50:04购买了一个时长为一个月的AstroZero专业版实例,那么其计费周期为:2023/03/08 15:50:04 ~ 2023/04/08 23:59:59。
  • 计费示例 假设您在2023/03/08 15:50:04购买了一个包年/包月的AstroZero实例(用户数:35人,版本:专业版)。购买时长为一个月,并在到期前手动续费1个月,则: 第一个计费周期为:2023/03/08 15:50:04 ~ 2023/04/08 23:59:59 第二个计费周期为:2023/04/08 23:59:59 ~ 2023/05/08 23:59:59 图中价格仅供参考,实际计算请以Astro轻应用价格详情中的价格为准。 图1 包年/包月AstroZero费用计算示例
  • 请求示例 更新Flink Jar作业信息,更新后作业名称为test1,作业执行的队列为testQueue,关闭作业日志。 { "name": "test1", "desc": "job for test", "job_type": "flink_jar_job", "queue_name": "testQueue", "manager_cu_number": 1, "cu_number": 2, "parallel_number": 1, "log_enabled": false, "main_class": "org.apache.flink.examples.streaming.JavaQueueStream", "restart_when_exception": false, "entrypoint": "FemaleInfoCollec.jar", "dependency_jars": [ "myGroup/test.jar", "myGroup/test1.jar" ], "dependency_files": [ "myGroup/test.csv", "myGroup/test1.csv" ] }
  • 请求消息 表2 参数说明 参数名称 是否必选 参数类型 说明 name 否 String 作业名称。长度限制:0-57个字符。 desc 否 String 作业描述。长度限制:0-512个字符。 queue_name 否 String 队列名称。长度限制:1-128个字符。 cu_number 否 Integer 用户为作业选择的CU数量。默认值为“2”。 manager_cu_number 否 Integer 用户为作业选择的管理节点CU数量,对应为flink jobmanager数量。默认值为“1”。 parallel_number 否 Integer 用户为作业选择的并发量。默认值为“1”。 log_enabled 否 Boolean 是否开启作业日志。 开启:true 关闭:false 默认:false obs_bucket 否 String 当“log_enabled”为“true”时,用户授权保存日志的OBS桶名。 smn_topic 否 String 当作业异常时,向该SMN主题推送告警信息。 main_class 否 String 作业入口类。 entrypoint_args 否 String 作业入口类参数,多个参数之间空格分隔。 restart_when_exception 否 Boolean 是否开启异常重启功能,默认值为“false”。 entrypoint 否 String 用户已上传到DLI资源管理系统的程序包名,用户自定义作业主类所在的jar包。 dependency_jars 否 Array of Strings 用户已上传到DLI资源管理系统的程序包名,用户自定义作业的其他依赖包。 示例“myGroup/test.jar,myGroup/test1.jar”。 dependency_files 否 Array of Strings 用户已上传到DLI资源管理系统的资源包名,用户自定义作业的依赖文件。 示例:"myGroup/test.cvs,myGroup/test1.csv" tm_cus 否 Integer 每个taskmanager的CU数,默认值为“1”。 tm_slot_num 否 Integer 每个taskmanager的slot数,默认值为“(parallel_number*tm_cus)/(cu_number-manager_cu_number)”。 feature 否 String 作业特性。表示用户作业使用的Flink镜像类型。 basic:表示使用DLI提供的基础Flink镜像。 custom:表示使用用户自定义的Flink镜像。 flink_version 否 String Flink版本。当用户设置“feature”为“basic”时,该参数生效。用户可通过与“feature”参数配合使用,指定作业运行使用的DLI基础Flink镜像的版本。 image 否 String 自定义镜像。格式为:组织名/镜像名:镜像版本。 当用户设置“feature”为“custom”时,该参数生效。用户可通过与“feature”参数配合使用,指定作业运行使用自定义的Flink镜像。关于如何使用自定义镜像,请参考《数据湖探索用户指南》。 resume_checkpoint 否 Boolean 异常重启是否从checkpoint恢复。 resume_max_num 否 Integer 异常重试最大次数,单位:次/小时。取值范围:-1或大于0。默认值为“-1”,表示无限次数。 checkpoint_path 否 String 用户Jar中checkpoint的储存地址,不同作业路径需要保持不同。 runtime_config 否 String Flink作业运行时自定义优化参数。 job_type 否 String 作业类型。
  • 响应消息 表4 响应参数说明 参数名称 是否必选 参数类型 说明 is_success 否 String 执行请求是否成功。“true”表示请求执行成功。 message 否 String 消息内容。 job 否 Object 作业状态信息。具体请参考表5。 表5 job参数说明 参数名称 是否必选 参数类型 说明 job_id 是 Long 作业ID。 status_name 否 String 当前状态名称。 status_desc 否 String 当前状态描述。包含异常状态原因及建议。
  • 请求示例 新建名为test的Flink Jar作业,并设置作业执行在testQueue上,设置作业运行所使用的CU数、开启作业日志。 { "name": "test", "desc": "job for test", "queue_name": "testQueue", "manager_cu_number": 1, "cu_number": 2, "parallel_number": 1, "tm_cus": 1, "tm_slot_num": 1, "log_enabled": true, "obs_bucket": "bucketName", "smn_topic": "topic", "main_class": "org.apache.flink.examples.streaming.JavaQueueStream", "restart_when_exception": false, "entrypoint": "javaQueueStream.jar", "entrypoint_args":"-windowSize 2000 -rate 3", "dependency_jars": [ "myGroup/test.jar", "myGroup/test1.jar" ], "dependency_files": [ "myGroup/test.csv", "myGroup/test1.csv" ] }
  • 请求消息 表2 参数说明 参数名称 是否必选 参数类型 说明 name 是 String 作业名称。长度限制:1-57个字符。 desc 否 String 作业描述。长度限制:0-512个字符。 queue_name 否 String 队列名称。长度限制:0-128个字符。 cu_number 否 Integer 用户为作业选择的CU数量。 manager_cu_number 否 Integer 用户为作业选择的管理节点CU数量,对应为flink jobmanager数量。默认值为“1”。 parallel_number 否 Integer 用户为作业选择的并发量。 log_enabled 否 Boolean 是否开启作业日志。 开启:true 关闭:false 默认:false obs_bucket 否 String 当“log_enabled”为“true”时, 用户授权保存作业日志的OBS桶名。 smn_topic 否 String 当作业异常时,向该SMN主题推送告警信息。 main_class 否 String 作业入口类。 entrypoint_args 否 String 作业入口类参数,多个参数之间空格分隔。 restart_when_exception 否 Boolean 是否开启异常重启功能,默认值为“false”。 entrypoint 否 String 用户已上传到DLI资源管理系统的程序包名,用户自定义作业主类所在的jar包。 dependency_jars 否 Array of Strings 用户已上传到DLI资源管理系统的程序包名,用户自定义作业的其他依赖包。 示例“myGroup/test.jar,myGroup/test1.jar”。 dependency_files 否 Array of Strings 用户已上传到DLI资源管理系统的资源包名,用户自定义作业的依赖文件。 示例:"myGroup/test.cvs,myGroup/test1.csv"。 通过在应用程序中添加以下内容可访问对应的依赖文件。其中,“fileName”为需要访问的文件名,“ClassName”为需要访问该文件的类名。 ClassName.class.getClassLoader().getResource("userData/fileName") tm_cus 否 Integer 每个taskmanager的CU数,默认值为“1”。 tm_slot_num 否 Integer 每个taskmanager的slot数,默认值为“(parallel_number*tm_cus)/(cu_number-manager_cu_number)”。 feature 否 String 作业特性。表示用户作业使用的Flink镜像类型。 basic:表示使用DLI提供的基础Flink镜像。 custom:表示使用用户自定义的Flink镜像。 flink_version 否 String Flink版本。当用户设置“feature”为“basic”时,该参数生效。用户可通过与“feature”参数配合使用,指定作业运行使用的DLI基础Flink镜像的版本。 image 否 String 自定义镜像。格式为:组织名/镜像名:镜像版本。 当用户设置“feature”为“custom”时,该参数生效。用户可通过与“feature”参数配合使用,指定作业运行使用自定义的Flink镜像。关于如何使用自定义镜像,请参考《数据湖探索用户指南》。 resume_checkpoint 否 Boolean 异常重启是否从checkpoint恢复。 resume_max_num 否 Integer 异常重试最大次数,单位:次/小时。取值范围:-1或大于0。默认值为“-1”,表示无限次数。 checkpoint_path 否 String 用户Jar中checkpoint的储存地址,不同作业路径需要保持不同。 tags 否 Array of Objects Flink jar作业的标签。具体请参考表3。 runtime_config 否 String Flink作业运行时自定义优化参数。 表3 tags参数 参数名称 是否必选 参数类型 说明 key 是 String 标签的键。 说明: 标签的键的最大长度为128个字符,标签的键可以包含任意语种字母、数字、空格和_ . : =+-@ ,但首尾不能含有空格,不能以_sys_开头。 value 是 String 标签的值。 说明: 标签值的最大长度为255个字符,标签的值可以包含任意语种字母、数字、空格和_ . : =+-@ ,但首尾不能含有空格。
  • 请求示例 更新已有的SQL作业,更新后的作业名称为myjob,以共享模式运行在testQueue上。 { "name": "myjob", "desc": "这是我的第一个作业", "queue_name": "testQueue", "sql_body": "select * from source_table", "run_mode": "shared_cluster", "cu_number": 4, "parallel_number": 4, "checkpoint_enabled": false, "checkpoint_mode": "exactly_once", "checkpoint_interval": 10, "obs_bucket": "", "log_enabled": false, "smn_topic": "", "restart_when_exception": false, "idle_state_retention": 3600, "edge_group_ids": [ "62de1e1c-066e-48a8-a79d-f461a31b2ee1", "2eb00f85-99f2-4144-bcb7-d39ff47f9002" ], "dirty_data_strategy": "0", "udf_jar_url": "group/test.jar" }
  • 请求消息 表2 请求参数说明 参数名称 是否必选 参数类型 说明 name 否 String 作业名称。长度限制:0-57个字符。 desc 否 String 作业描述。长度限制:0-512个字符。 queue_name 否 String 队列名称。长度限制:0-128个字符。 sql_body 否 String Stream SQL语句,至少包含source, query, sink三个部分。长度限制:0-1024*1024个字符。 run_mode 否 String 作业运行模式: shared_cluster:共享。 exclusive_cluster:独享。 edge_node:边缘节点。 默认值为“shared_cluster”。 cu_number 否 Integer 用户为作业选择的CU数量。默认值为“2”。 parallel_number 否 Integer 用户设置的作业并行数目。默认值为“1”。 checkpoint_enabled 否 Boolean 是否开启作业自动快照功能。 开启:true 关闭:false 默认:false checkpoint_mode 否 Integer 快照模式,。两种可选: 1:表示exactly_once,数据只被消费一次。 2:at_least_once,数据至少被消费一次。 默认值为1。 checkpoint_interval 否 Integer 快照时间间隔。单位为秒,默认值为“10”。 obs_bucket 否 String 当“checkpoint_enabled”为“true”时,该参数是用户授权保存快照的OBS桶名称。 当“log_enabled” 为“true”时,该参数是用户授权保存作业日志的OBS桶名称。 log_enabled 否 Boolean 是否开启作业的日志上传到用户的OBS功能。默认为“false”。 smn_topic 否 String 当作业异常时,向该SMN主题推送告警信息。 restart_when_exception 否 Boolean 是否开启作业异常自动重启。默认为“false”。 idle_state_retention 否 Integer 空闲状态过期周期,单位为秒,默认值为“3600”。 edge_group_ids 否 Array of Strings 边缘计算组ID列表, 多个ID以逗号分隔。 dirty_data_strategy 否 String 作业脏数据策略。 “2:obsDir”:保存,obsDir表示脏数据存储路径。 “1”:抛出异常。 “0”:忽略。 默认值为“0”。 udf_jar_url 否 String 用户已上传到DLI资源管理系统的资源包名,用户sql作业的udf jar通过该参数传入。 manager_cu_number 否 Integer 用户为作业选择的管理单元(jobmanager)CU数量,默认值为“1”。 tm_cus 否 Integer 每个taskmanager的CU数,默认值为“1”。 tm_slot_num 否 Integer 每个taskmanager的slot数,默认值为“(parallel_number*tm_cus)/(cu_number-manager_cu_number)”。 operator_config 否 String 算子的并行度配置。 resume_checkpoint 否 Boolean 异常重启是否从checkpoint恢复。 resume_max_num 否 Integer 异常重试最大次数,单位:次/小时。取值范围:-1或大于0。默认值为“-1”,表示无限次数。 static_estimator_config 否 String 每个算子的流量/命中率配置,json格式的字符串。例如: {"operator_list":[{"id":"0a448493b4782967b150582570326227","rate_factor":0.55},{"id":"6d2677a0ecc3fd8df0b72ec675edf8f4","rate_factor":1},{"id":"ea632d67b7d595e5b851708ae9ad79d6","rate_factor":0.55},{"id":"bc764cd8ddf7a0cff126f51c16239658","output_rate":2000}]} runtime_config 否 String Flink作业运行时自定义优化参数。 flink_version 否 String Flink版本。当前只支持1.10和1.12。
  • 响应示例 作业类型为:flink_jar_job,参考响应样例如下: { "is_success": "true", "message": "作业详情查询成功", "job_detail": { "job_id": 104, "user_id": "011c99a26ae84a1bb963a75e7637d3fd", "queue_name": "flinktest", "project_id": "330e068af1334c9782f4226acc00a2e2", "name": "jptest", "desc": "", "sql_body": "", "run_mode": "exclusive_cluster", "job_type": "flink_jar_job", "job_config": { "checkpoint_enabled": false, "checkpoint_interval": 10, "checkpoint_mode": "exactly_once", "log_enabled": false, "obs_bucket": null, "root_id": -1, "edge_group_ids": null, "graph_editor_enabled": false, "graph_editor_data": "", "manager_cu_number": 1, "executor_number": null, "executor_cu_number": null, "cu_number": 2, "parallel_number": 1, "smn_topic": null, "restart_when_exception": false, "idle_state_retention": 3600, "config_url": null, "udf_jar_url": null, "dirty_data_strategy": null, "entrypoint": "FemaleInfoCollection.jar", "dependency_jars": [ "FemaleInfoCollection.jar", "ObsBatchTest.jar" ], "dependency_files": [ "FemaleInfoCollection.jar", "ReadFromResource" ] }, "main_class": null, "entrypoint_args": null, "execution_graph": null, "status": "job_init", "status_desc": "", "create_time": 1578466221525, "update_time": 1578467395713, "start_time": null } } 作业类型为:flink_opensource_sql_job,参考响应样例如下: { "is_success": "true", "message": "The job information query succeeds.", "job_detail": { "job_type": "flink_opensource_sql_job", "status_desc": "", "create_time": 1637632872828, "sql_body": "xxx", "savepoint_path": null, "main_class": null, "queue_name": "xie_container_general", "execution_graph": "xxx", "start_time": 1638433497621, "update_time": 1638449337993, "job_config": { "checkpoint_enabled": true, "checkpoint_interval": 600, "checkpoint_mode": "exactly_once", "log_enabled": true, "obs_bucket": "dli-test", "root_id": -1, "edge_group_ids": null, "graph_editor_enabled": false, "graph_editor_data": "", "manager_cu_number": 1, "executor_number": null, "executor_cu_number": null, "cu_number": 2, "parallel_number": 3, "smn_topic": "", "restart_when_exception": true, "resume_checkpoint": true, "resume_max_num": -1, "checkpoint_path": null, "idle_state_retention": 3600, "config_url": null, "udf_jar_url": "test/flink_test-1.0-SNAPSHOT-jar-with-dependencies.jar", "dirty_data_strategy": "0", "entrypoint": "test/flink_test-1.0-SNAPSHOT-jar-with-dependencies.jar", "dependency_jars": null, "dependency_files": null, "tm_cus": 1, "tm_slot_num": 3, "image": null, "feature": null, "flink_version": null, "operator_config": "xxx", "static_estimator_config": "xxx", "runtime_config": null }, "user_id": "xxx", "project_id": "xxx", "run_mode": "exclusive_cluster", "job_id": 90634, "name": "test_guoquan", "desc": "", "entrypoint_args": null, "status": "job_cancel_success" } }
  • 响应消息 表2 响应参数说明 参数名称 是否必选 参数类型 说明 is_success 否 String 执行请求是否成功。“true”表示请求执行成功。 message 否 String 系统提示信息,执行成功时,信息可能为空。 job_detail 否 Object 作业详情。请参见表3。 表3 job_detail参数说明 参数名称 是否必选 参数类型 说明 job_id 否 Long 作业ID。 name 否 String 作业名称。长度限制:0-57个字符。 desc 否 String 作业描述。长度限制:0-512个字符。 job_type 否 String 作业类型。 flink_sql_job:flink sql作业 flink_opensource_sql_job:flink opensource sql作业 flink_sql_edge_job:flink sql边缘作业 flink_jar_job:flink自定义作业 status 否 String 作业状态。 作业的状态如下: job_init:草稿 job_submitting:提交中 job_submit_fail:提交失败 job_running:运行中(开始计费,提交作业后,返回正常结果) job_running_exception:运行异常(停止计费。作业发生运行时异常,停止运行作业) job_downloading:下载中 job_idle:空闲 job_canceling:停止中 job_cancel_success:已停止 job_cancel_fail:停止失败 job_savepointing:保存点创建中 job_arrearage_stopped:因欠费被停止(结束计费。用户账户欠费,作业停止) job_arrearage_recovering:欠费作业恢复中(用户账户欠费,账户充值,作业恢复中) job_finish:已完成 status_desc 否 String 作业状态描述。 create_time 否 Long 作业创建时间。 start_time 否 Long 作业启动时间。 user_id 否 String 作业所属用户标识。 queue_name 否 String 队列名称。长度限制:1-128个字符。 project_id 否 String 作业所属项目标识。 sql_body 否 String Stream SQL语句。 savepoint_path 否 String 手动产生的Checkpoint的保存路径。 run_mode 否 String 作业运行模式。 shared_cluster:共享 exclusive_cluster:独享 edge_node:边缘节点 job_config 否 Object 作业配置, 具体参数说明请参见表4。 main_class 否 String jar包主类。例如,org.apache.spark.examples.streaming.JavaQueueStream entrypoint_args 否 String jar包作业运行参数,多个参数之间空格分隔。 execution_graph 否 String 作业执行计划。 update_time 否 Long 作业更新时间。 user_name 否 String 用户名,当“show_detail”为“false”时独有。 duration 否 Long 作业运行时长。 单位ms,“show_detail”为“false”时独有。 root_id 否 Long 父作业ID。“show_detail”为“false”时独有。 graph_editor_enabled 否 Boolean 作业的流图是否可编辑。“true”表示作业的流图可以编辑,“false”表示作业的流图不可以编辑。 has_savepoint 否 Boolean 作业是否有保存点。“true”表示作业有保存点,“false”表示作业没有保存点。 edge_group_ids 否 Array of Strings 边缘计算组ID列表。多个ID以逗号分隔。 restart_times 否 Integer 重启次数。 表4 job_config参数说明 参数名称 是否必选 参数类型 说明 checkpoint_enabled 否 Boolean 是否开启作业自动快照功能。 true:开启 false:关闭 默认为“false”。 checkpoint_interval 否 Integer 快照时间间隔。 单位为秒,默认值为“10”。 checkpoint_mode 否 String 快照模式,。两种可选: exactly_once:数据只被消费一次。 at_least_once:数据至少被消费一次。 默认值为“exactly_once”。 log_enabled 否 Boolean 是否启用日志存储。默认为“false”。 obs_bucket 否 String OBS桶名。 root_id 否 Integer 父作业ID。 edge_group_ids 否 Array of Strings 边缘计算组ID列表。多个ID以逗号分隔。 manager_cu_number 否 Integer 管理单元CU数。默认为“1”。 graph_editor_enabled 否 Boolean 流图编辑开关。默认为“false”。 graph_editor_data 否 String 流图编辑数据。默认为null。 executor_number 否 Integer 作业使用计算节点个数。 executor_cu_number 否 Integer 计算节点cu数。 cu_number 否 Integer 用户为作业选择的CU数量。 “show_detail”为“true”时独有。 最小值:2 最大值:400 默认为“2”。 parallel_number 否 Integer 用户设置的作业并行数。 “show_detail”为“true”时独有。 最小值:1 最大值:2000 默认为“1”。 smn_topic 否 String SMN主题名。当作业异常时,向该SMN主题推送告警信息。 restart_when_exception 否 Boolean 是否开启异常重启功能。 resume_checkpoint 否 Boolean 异常自动重启时,是否从最新checkpoint恢复。默认值为“false”。 resume_max_num 否 Integer 异常重试最大次数。-1代表无限。 checkpoint_path 否 String 检查点保存路径。 idle_state_retention 否 Integer 空闲状态过期周期。 config_url 否 String 用户上传的config包OBS路径。 udf_jar_url 否 String 用户已上传到DLI资源管理系统的程序包名,用户sql作业的udf jar通过该参数传入。 dirty_data_strategy 否 String 作业脏数据策略。 “2:obsDir”:保存,obsDir表示脏数据存储路径。 “1”:抛出异常。 “0”:忽略。 entrypoint 否 String 用户已上传到DLI资源管理系统的程序包名,用户自定义作业主类所在的jar包。 dependency_jars 否 Array of Strings 用户已上传到DLI资源管理系统的程序包名,用户自定义作业的其他依赖包。 dependency_files 否 Array of Strings 用户已上传到DLI资源管理系统的资源包名,用户自定义作业的依赖文件。 tm_cus 否 int 单TM所占CU数。 tm_slot_num 否 int 单TM Slot数。 image 否 String 自定义镜像。格式为:组织名/镜像名:镜像版本。 当用户设置“feature”为“custom”时,该参数生效。用户可通过与“feature”参数配合使用,指定作业运行使用自定义的Flink镜像。关于如何使用自定义镜像,请参考《数据湖探索用户指南》。 feature 否 String 自定义作业特性。表示用户作业使用的Flink镜像类型。 basic:表示使用DLI提供的基础Flink镜像。 custom:表示使用用户自定义的Flink镜像。 flink_version 否 String Flink版本。当用户设置“feature”为“basic”时,该参数生效。用户可通过与“feature”参数配合使用,指定作业运行使用的DLI基础Flink镜像的版本。 operator_config 否 String 各算子并行度参数,以json的形式展示各算子id和并行度。 static_estimator_config 否 String 静态流图资源预估参数,以json的形式展示。 runtime_config 否 String Flink作业运行时自定义优化参数。 real_cu_number 否 Integer 实际使用的CU数。默认值为“0”,表示此时以“cu_number”的值为准。
  • 在脚本中使用AI服务 推荐模型发布后,在图1中单击“使用”,可使用该推荐模型进行推荐。 系统支持使用服务编排或者脚本来调用推荐服务。 选择使用该推荐服务的应用,选择页签“在Script中使用”,单击“开发”。 图6 在脚本中使用 系统会自动为所选应用创建好调用该AI的脚本,代码示例如下: import * as aienable from 'aienable'; export class Input { @action.param({ type: "Any", required: false, description: "name" }) name: string; // name为已发布的预测/推荐服务名称 @action.param({ type: "Any", required: false, description: "input" }) dataInputs: JSON; } export class Output { @action.param({ type: "Any" }) result: JSON; } export class testAIEnable { @action.method({ input: "Input", output: "Output", description: "do a operation" }) run(input: Input): void { let client = aienable.newClient("recommendation_services") let result = client.recommend(input.name, input.dataInputs); console.log(result) } } 单击编辑器上方的,保存脚本。 单击编辑器上方的,运行脚本。 在页面底部“输入参数”页签输入请求参数,在图6中“输入参数详情”区域单击获取,给入参即相关字段配上测试值。 单击测试窗口右上角的,执行脚本。 其中,“recipients_id”为5配置的接收人对象字段值,该场景表示接受推荐内容的客户ID。以下输入参数中“fff7466a253c0e59499ea943462c10f9”和“677ea793bab5253b52c7f73f0e120b74”为有效的客户ID,“6775ba6a3e92020abc8e6cd6e19e867a”为无效的客户ID,即该客户ID不存在。 “N”表示给接收人推荐的产品数量。 { "name": "test_02", "dataInputs": { "recipients_id": [ "fff7466a253c0e59499ea943462c10f9", "677ea793bab5253b52c7f73f0e120b74", "6775ba6a3e92020abc8e6cd6e19e867a" ], "N": 3 } } 输出以下结果,表示调用推荐服务成功,给有效客户ID的推荐内容为5配置的产品ID。其中“rating”值为预测接收人购买该产品的概率。这里看出,当输入无效客户ID时,不会推荐相关内容。 { resCode: '0', resMsg: '成功', result: { 677ea793bab5253b52c7f73f0e120b74: [ { aienable__productId__CST: '5727b4e9463bfa0b43bf97397c4b7c44', rating: 0.9780523919210801 }, { aienable__productId__CST: '58e3dad74a022a8e41571be503143e5b', rating: 0.9343108103239535 }, { aienable__productId__CST: '58efb9b638561ce132216a9a612513e2', rating: 0.9228962093643385 } ], fff7466a253c0e59499ea943462c10f9: [ { aienable__productId__CST: '5727b4e9463bfa0b43bf97397c4b7c44', rating: 1 }, { aienable__productId__CST: '57f2bc497c1a3ebe41ba7a06d78ed159', rating: 0.979109618457509 }, { aienable__productId__CST: '574597aaf385996112490308e37399ce', rating: 0.9502617871072747 } ] } } 单击编辑页面上方的,启用脚本。
  • 在服务编排中使用AI服务 推荐模型发布后,在图1中单击“使用”,可使用该推荐模型进行推荐。 系统支持使用服务编排或者脚本来调用推荐服务。 选择使用该推荐服务的应用,保持默认所选页签“在Flow中使用”,单击“开发”。 图2 在服务编排中使用 系统会自动为所选应用创建好“AIExample”文件夹和归属于该文件夹的服务编排。 在弹出的服务编排编辑页面查看如下信息。 在页面右侧选择,在全局上下文页面查看到系统已自动创建如下变量。 图3 查看变量 表4 变量说明 变量名 类型 描述 dataInputs 任意 输入参数。 resCode 文本 返回码,如果返回“0”代表请求成功。 resMsg 文本 返回消息,如果成功状态,通常会返回“成功”,其他情况会返回具体的错误信息。 result 任意 调用推荐服务请求返回的推荐内容。 查看整个服务编排的入参、出参。 图4 查看入参出参 选择推荐服务图元,查看配置信息。 图5 图元配置 单击编辑器上方的,保存服务编排。 单击编辑器上方的,运行服务编排。 输入入参,入参可从图2中“输入参数详情”区域单击获取,给入参即相关字段配上测试值。 其中,“recipients_id”为5配置的接收人对象字段值,该场景表示接受推荐内容的客户ID。以下输入参数中“fff7466a253c0e59499ea943462c10f9”和“677ea793bab5253b52c7f73f0e120b74”为有效的客户ID,“6775ba6a3e92020abc8e6cd6e19e867a”为无效的客户ID,即该客户ID不存在。 “N”表示给接收人推荐的产品数量。 { "dataInputs": { "recipients_id": [ "fff7466a253c0e59499ea943462c10f9", "677ea793bab5253b52c7f73f0e120b74", "6775ba6a3e92020abc8e6cd6e19e867a" ], "N": 3 } } 输出以下结果,表示调用推荐服务成功,给有效客户ID的推荐内容为5配置的产品ID。其中,“rating”值为预测接收人购买该产品的概率。这里看出,当输入无效客户ID时,不会推荐相关内容。 { "interviewId": "002N000000pLvvBbbBke", "outputs": { "resCode": "0", "resMsg": "成功", "result": { "677ea793bab5253b52c7f73f0e120b74": [ { "aienable__productId__CST": "5727b4e9463bfa0b43bf97397c4b7c44", "rating": 0.9780523919210801 }, { "aienable__productId__CST": "58e3dad74a022a8e41571be503143e5b", "rating": 0.9343108103239535 }, { "aienable__productId__CST": "58efb9b638561ce132216a9a612513e2", "rating": 0.9228962093643385 } ], "fff7466a253c0e59499ea943462c10f9": [ { "aienable__productId__CST": "5727b4e9463bfa0b43bf97397c4b7c44", "rating": 1 }, { "aienable__productId__CST": "57f2bc497c1a3ebe41ba7a06d78ed159", "rating": 0.979109618457509 }, { "aienable__productId__CST": "574597aaf385996112490308e37399ce", "rating": 0.9502617871072747 } ] } } } 单击编辑器上方的,启用服务编排。
  • 操作步骤 在“故障单流程”应用开发工作台,单击左侧导航下方的,进入应用预览页面。 图1 选择预览 在右上角单击用户名,选择“业务配置中心”。 经典版开发环境的业务配置中心为白名单特性,使用前请联系后台管理人员开通。更多关于业务配置中心的介绍,请参见什么是业务配置中心。 图2 选择业务配置中心 在“应用配置”的App下,单击“故障单流程”。 图3 单击故障单流程 在左侧导航栏中,选择“流程配置”,单击需要定制修改的业务流程,例如“故障单处理流程”。 在右侧“场景详情”中,会展示该业务流程详情。 图4 查看业务流程详情 选择“业务模型”页签,显示该业务流程涉及的模型对象(在5中配置的),单击“新建”,可添加自定义字段。 图5 添加自定义字段 选择“场景流程”页签,显示该业务流程涉及的场景流程(在7中配置的)。 单击“新建”,可新增场景流程。单击列表中的流程标签,进入流程配置页面,单击左上方禁用图标,可对已有的流程进行修改。 图6 选择场景流程 图7 修改已有流程 选择“页面”页签,可查看到被流程所引用的页面列表。 图8 查看被流程引用的页面
  • 场景描述 本节介绍的是在应用内创建业务权限凭证,您还可以在管理中心进行配置,相关操作请参考设置业务权限。两者的区别是在应用中创建的业务权限凭证,可在打包发布应用时,将业务权限凭证一起发布出去,在管理中心创建业务权限凭证无法随应用发布出去。 通过该章节创建业务权限后,参考设置业务权限在权限配置的“业务权限凭证”页签,配置用户的业务权限。在自定义接口URL时,可通过配置该业务权限,控制只有该业务权限的用户才可访问自定义接口URL。自定义接口的业务权限配置,请参考如何自定义调用脚本的URL和如何自定义调用服务编排的URL。
  • 基于规则 “用户任务”图元接收人类型设置为“基于规则”时,可以将全局上下文中的变量拖入到条件输入框中。当条件输入框中的变量或条件为true时,将会把任务分配给选择框中配置的用户。您可以通过以下方式,配置接收任务的用户: 当前用户:把任务分配给执行当前用户任务的用户。 上级经理:把任务分配给执行当前用户任务的用户的上级经理。 特定的用户:把任务分配给选择框中选择的用户。 队列:把任务分配给选择框中选择的工作队列中的所有用户。 用户属性:根据用户对象的某一字段,进行任务的分配。 变量:根据输入框中的用户ID或用户名,将任务分配给相应的用户。 图6 基于规则
  • 用户和业务用户 在进行任务分配时,低代码平台提供了两种用户可以进行任务的分配,分别是用户和业务用户。 用户(User):是租户账号或子账号开发者,用来管理应用和业务用户。购买AstroZero的租户账号默认拥有所有权限,是管理员用户,可添加子账号并为其配置需要的权限。 业务用户(即PortalUser):是访问在AstroZero中开发的业务应用的用户账号,即业务应用的使用者。 用户可以在工作流中通过用户任务图元,在用户任务配置页面的“接收人”模块,通过以下三种方式将任务分配给用户或业务用户。 当前泳道 流程发起人的主管 名称和表达式 基于规则 图1 接收人类型
  • 名称和表达式 “用户任务”图元接收人类型设置为“名称和表达式”时,可以通过“表达式”、“用户”和“组”三种方式分配该任务的参与者。这时,泳道中的工作队列配置不起作用。 图5 名称和表达式 用户:在“取值”中,选择接收该任务的用户,不包括业务用户。 组:在“取值”中选择公共组,则该任务由公共组的成员去处理。公共组的成员可以是用户、业务用户、其他公共组的成员、角色或带有下属的角色中成员。如何创建工作组,请参见管理公共组。 表达式:当将“参与者”配置为“表达式”时,实际是一个变量。在“取值”中,可设置变量的值,变量值支持以下几种: 用户的用户名或用户ID,其中用户名前需要加“user:”前缀。 业务用户的用户名或业务用户ID,其中业务用户名前需要加“puser:”前缀。 公共组名称或者公共组ID,其中公共组名称前需要加“group:”前缀。 角色名称或者角色ID,其中角色名称前需要加“role:”前缀。 例如,分配任务接受者为用户名为“PortalUser1”的业务用户、用户名为“User1”的用户、用户ID为“10XX000000XXXXXXX”的用户、公共组名称为“group1”和角色名称为“role1”的合集,则取值为“"puser:PortalUser1,user:User1,10XX000000XXXXXXX,group:group1,role:role1"”。多个取值之间用英文逗号“,”分隔,取值外加英文双引号。
  • 当前泳道 “用户任务”图元接收人类型设置为“当前泳道”,将泳道和工作队列绑定,则处于该泳道的用户任务图元,由该泳道对应工作队列中的成员去处理。工作队列中的成员可以是多个用户、业务用户、公共组中成员、角色或带有下属的角色中成员。配置过程如下: 参考管理队列中操作,创建一个工作队列,将处理任务的用户或业务用户加入工作队列中。 例如,创建派单员工作队列“Dispatcher”。 图2 创建工作队列 如图3所示,“用户任务”的接收人类型选择“当前泳道”,可以将任务分配给“当前泳道角色的任意成员”或“当前泳道中的上一个任务被分配的人员”。 图3 用户任务中设置当前泳道接收 如图4所示,单击左侧泳道区域,在“泳道配置”中设置派单员工作队列“Dispatcher”。 处于该泳道的用户任务图元,则由工作队列“Dispatcher”中的成员去处理。 图4 设置泳道
  • 操作步骤 登录AstroZero服务控制台。 在实例页面,单击“进入首页”,进入新版应用开发页面。 在左侧导航栏中,单击“资产”,进入资产页面。 将鼠标放在已创建的Native Service上,单击,选择“编辑”。 在NativeService配置页面,选择“导航”。 在“API设计”页签,单击“开始设计API”。 图1 开始设计API 选择“使用模板”,配置基本信息和新URL对应的版本号,单击“创建”。 图2 创建一个新版本 openApi版本:接口定义需要符合openApi规范,这里配置具体openApi的版本号。 选择模板:选择系统预置的模板。 版本:输入服务版本号。 标题:原生服务API的名称。 创建完成后,单击“新增资源”。 在“增加资源及操作方法”页面,配置相关参数,单击“确认”。 图3 增加资源及操作方法配置页面 输入一个新的资源路径(以/开头):与镜像文件中的接口路径保持一致。 方法:调用的方法,如GET(查询)、PUT(增加)、POST(修改)、DELETE(删除)、PATCH(对资源进行部分修改)。 操作名称:与镜像文件中的操作名称保持一致。 公共接口:若勾选,则只能在公共接口中调用,无法在服务编排和脚本中使用。 内容类型:当勾选“公共接口”时,您需要配置内容类型,即请求中的body类型。其中,“application/x-www-form-urlencoded”、“application/xml”、“multipart/form-data”、“text/html”和“text/plain”用于文件上传接口,选择该内容类型,只能调用post类型的方法。 描述:描述信息。 单击生成的方法,可以在右侧编辑方法的URL、Header、Response参数,需要和镜像文件中接口的URL参数、Header参数、请求参数、返回参数保持一致。编辑参数后,需要单击参数操作列的,再单击“保存”。 您可参考界面上“/case”、“/case/{CaseId}”两个示例编辑生成的方法。每个方法都需要定义Response参数,否则会部署失败。返回体数据结构在模式对象中定义。 当Body参数和Response参数较多,一些参数可以封装成对象类型的参数,并在“模式对象”页签设置该类型参数,注意“模式对象”页签中参数名与操作中URL参数不能同名。 支持按照操作名称和资源路径单,过滤或组合过滤搜索方法。 图4 编辑方法 图5 定义模式对象 参考8~10,新增其他API方法。 编辑方法完成后,需要手动删除“/case”、“/case/{CaseId}”两个示例,删除示例模式对象。 单击“保存”,创建的自定义接口会出现在页面上。 在页面右上方,单击,可以查看自定义接口中的方法和模型对象。单击,可导出该原生服务下接口定义yaml文件。 单击,发布API。 发布后如果需要修改API,需要单击,取消发布后进行修改,修改后再保存并发布。 已发布的API可能在服务编排中已经使用,如果修改API导致不兼容,请同步修改引用该API的服务编排。
  • 如何在脚本、服务编排、BPM中加密数据? 用户使用AstroZero的脚本、服务编排、流程编排BPM等开发的内容是不会加密存储的。如果用户需要加密数据,请使用加密类型的系统参数。 参考如何创建系统参数中操作,新建加密类型的系统参数。 例如,新建加密参数appClientId,注意要勾选“是否加密”。 图6 进入新建系统参数页面 图7 新建appClientId系统参数 在脚本、服务编排和流程编排BPM中,使用上一步创建的系统参数。 脚本:脚本代码中引入系统参数的代码行中,引入系统库,并使用“sys.getParameter('appClientId')”引入系统参数。 import * as sys from 'sys'; ...... let cliendId = sys.getParameter('appClientId'); 图8 在脚本中引入参数 服务编排:在服务编排“全局上下文”中新增公式变量,表达式输入“SYSPARAMETER('appClientId')”,引入系统参数。 图9 在服务编排中引入参数 BPM:在BPM的“全局上下文”中,新增文本类型的变量,图元配置中设置该变量,值输入“SYSPARAMETER('appClientId')”,引入系统参数。 图10 在BPM中引入参数
  • 如何使用系统参数 系统参数创建完成后,可在脚本、服务编排、流程编排BPM和数据接入中使用。 脚本:脚本代码引入系统参数的代码行中,引入“sys”系统库,并使用“sys.getParameter('系统参数名')”引入系统参数。 例如,脚本里编辑如下代码,执行脚本,不用输入入参,查看“日志”页签打印的日志。 import * as sys from 'sys'; let sysParam = sys.getParameter('命名空间__APPName_MaxValue'); console.log("MaxValue:", sysParam); 图1 在脚本中使用 服务编排:在服务编排的“全局上下文”中,新增公式变量,表达式输入“SYSPARAMETER('系统参数名')”,引入系统参数,注意数据类型保持一致。 图2 在服务编排中使用 BPM:在BPM的“全局上下文”中,新增相同数据类型的变量,图元配置中设置该变量,值输入“SYSPARAMETER('系统参数名')”,引入系统参数。 图3 在BPM中使用 消息接入:在消息接入的输入源“添加5G消息”页面,勾选“引用变量”,以“{!系统参数名}”方式引入系统参数。注意数据类型要符合消息接入定义的要求。 图4 在消息接入中使用 Rest服务连接器:在Rest服务类型连接器(自定义连接器)的“动作”页签,单击“新建”。在“新建REST Action”页面的URL内,使用“{!系统参数名}”方式引入系统参数。 图5 “Rest服务”连接器中引入系统参数
  • 场景描述 新增、查询系统参数并进行修改。系统参数创建后,可以在其他地方以“{!parameter_name}”方式引用。例如,在如下两个场景使用系统参数: 将系统公用邮箱设置为系统参数。 将系统定时数据清理的执行时间,设置为系统参数。例如,系统执行数据清理任务时,会自动查询是否配置了系统参数“bingo.expiretask.execute.time”(AstroZero已预置该系统参数),查询到后,会按照配置的时间来启动数据清理。 本节介绍的是在应用内配置系统参数,您还可以在管理中心创建系统参数,相关操作请参考配置系统参数。两者的区别是在应用里配置系统参数,可在打包发布应用时,将系统参数一起发布出去,在管理中心设置系统参数无法随应用发布出去。
  • 6、安装部署低代码应用 应用开发编译发布成应用包后,可在沙箱环境和运行环境中安装使用。 在沙箱环境安装应用 在应用正式发布上线之前,需要在测试环境进行测试,包含数据配置。这里一般以沙箱(Sandbox)环境来作为测试环境,具体操作请参见如何使用沙箱进行测试。在沙箱环境安装应用的流程和在运行环境安装应用流程一致,如图1。 在运行环境安装应用 应用包的开发者租户,可以在当前租户的运行环境中安装应用资产包,安装后进行测试或直接部署运行该应用。安装应用的操作,请参见如何安装已开发好的应用。 图1 在运行环境安装应用流程
  • 5、编译发布低代码应用 在低代码应用开发完成后,应用还需要经过编译、打包和发布。AstroZero支持编译资产包和源码包两种类型的应用包,详情请参见源码包与资产包对比。根据应用编译类型不同,发布方式也有所差异。 表3 编辑发布应用 发布方式 使用说明 我的仓库 将应用发布到我的仓库,可供其他用户在其他开发环境、沙箱环境、运行环境中下载安装软件包,以便于测试或者使用该软件。更多内容,请参见如何将应用发布到“我的仓库”。 华为OneMobile 将应用中的标准页面和高级页面,发布到华为OneMobile。更多内容,请参见如何将应用发布到华为OneMobile 华为OneMDOS 将应用小程序发布到OneMDOS。更多内容,请参见如何将应用发布到华为OneMDOS。 WeLink-We码 将标准页面或高级页面以小程序(即应用)的方式,发布到企业WeLink,提供给企业用户使用。更多内容,请参见发布WeLink We码应用。 WeLink-轻应用 将应用发布成WeLink轻应用,提供给WeLink企业用户使用。更多内容,请参见发布WeLink轻应用。 微信 将应用中的标准页面和高级页面,发布到微信小程序。更多内容,请参见发布微信小程序。 下载前端运行包 选择该方式可生成前端运行包。更多内容,请参见如何将应用发布成下载前端运行包。
  • 4、开发低代码应用 低代码应用创建完成后,将进入开发阶段,您还需要进行以下操作。 表2 开发低代码应用 操作 操作对象 使用说明 后端开发 对象 AstroZero中的对象(也可以称为Object)相当于传统方式开发业务系统时,数据库中创建一个表。每个对象对应一张数据库表,用于保存业务系统需要的配置数据和业务数据。更多内容,请参见对象。 触发器 触发器以图形表示的方式将业务流程呈现给用户,触发器配置好后,用户不必手动执行这些操作,系统会自动执行。更多内容,请参见触发器。 脚本 针对业务逻辑比较复杂的场景,AstroZero平台提供了脚本(Script)能力,支持用户在线开发TypeScript脚本,完成灵活复杂的业务逻辑。更多内容,请参见脚本开发。 服务编排 服务编排是一种通过简单的拖拉拽式流程编排以及参数配置的方式来进行服务开发的能力,并支持对已开发的服务重新进行组合编排。更多内容,请参见服务编排。 BPM BPM(Business Process Management)即业务流程管理,源自业界BPMN 2.0标准。AstroZero基于该规范实现了自己的业务流程管理系统,由于BPM本身已经成为了业界一套行业规范,因此在AstroZero称实现此类流程的引擎为BPM流程编排。更多内容,请参见BPM服务编排。 前端开发 标准页面 标准页面是一种将一个或多个组件拖进画布,进行低代码甚至无代码的配置,即可快速完成业务功能的前端页面。对于一般的业务应用系统,例如请假电子流、出差报销、在线投票等企业常见业务场景,其功能主要是针对业务数据的增、删、改、查,且前端界面的样式相对简单的页面,此时,您即可使用AstroZero提供的“标准页面”。更多内容,请参见标准页面。 高级页面 对于一些样式比较复杂的页面,例如网站、电商、园区大屏等,可以使用平台提供的“高级页面”。更多内容,请参见高级页面。 集成开发 连接器 通过AstroZero开发的应用可以与第三方应用系统对接,实现微信支付、短信发送等功能。更多内容,请参见与云服务集成。 数据接入 当需要从外部数据源获取数据,按照需求对数据进行一系列处理,然后转化成内部事件,输出给Kafka或者ROMA。这时您可通过配置“数据接入”,来实现这整个流程。更多内容,请参见如何配置数据接入。 原生服务 AstroZero支持无缝集成原生服务的API,并开放给应用调用。更多内容,请参见原生服务。 应用配置 配置项 开发应用时,创建的各种配置项,如系统参数、选项列表、错误码等。更多内容,请参见管理员指南。 说明: 系统参数、选项列表、错误码这三类配置的删除操作都属于全局范围的操作,如果多应用同时使用的配置项,建议不要在某一应用随意删除。 功能测试 预览应用 应用开发完成后,可预览并验证应用。例如,调查问卷应用创建完成后,通过预览功能,可预览并体验调查问卷应用的功能。
  • 3、创建低代码应用 AstroZero覆盖三大开发低代码应用开发场景,满足行业客户、开发者等各种需求。 表1 开发场景介绍 分类 应用类型 使用说明 轻应用 轻应用 轻应用一般为轻量级的应用,不涉及复杂的代码,用户通过零代码或低代码就能轻松完成应用的搭建。 在AstroZero中,可以通过如下两种方式创建轻应用。 使用应用模板创建应用 当您的业务与应用模板中的场景相似度较高时,可以尝试使用模板创建,并在模板应用的基础上继续改造应用。 从空白开始创建一个全新的应用 从前端到后端,从零开始,一步步完成应用的开发。 行业应用 行业应用 行业应用是针对不同行业领域,如城市、园区、能源及交通等创建的应用。 在AstroZero中,可以通过应用模板或从空白开始,创建一个全新的行业应用,操作方式与轻应用相同。 Addon应用 当需要基于已有应用或解决方案(不是单一的应用,某一解决方案会涉及到多个应用)进行定制时,可选择创建Addon类型应用。更多内容,请参见创建Addon应用。 Native Service 租户在AstroZero平台外开发了一些服务,服务运行在Docker容器中。若希望将这些服务集成到AstroZero中,供AstroZero内部应用或其他第三方系统调用时,可选择创建Native Service。更多内容,请参见如何创建原生服务。 服务组件(BO) BO即商业对象,是封装了完整的数据模型、业务逻辑、页面展现的软件单元,一个BO提供一个完整场景的服务,为上层应用提供特定服务。用户可基于BO,如魔方一样创建功能各异的应用。更多内容,请参见服务组件(BO)。 业务大屏 Astro大屏应用 Astro大屏应用(简称Astro Canvas),是Astro轻应用提供的可视化页面构建服务,提供了丰富的可视化组件、灵活的数据接入和多种方式页面构建能力,支持多屏适配,帮助开发者快速构建和发布专业水准的实时可视化应用。通过Astro Canvas一站式数据可视化开发,可分钟级构建业务大屏、小屏页面。更多内容,请参见用户指南(Astro Canvas)。
  • 操作步骤 进入数据调试页面。 方式一:在AstroZero经典版应用设计器中,单击左下角的,进入数据调试页面。 图1 从应用开发页面进入数据调试页面 方式二:在AstroZero经典版环境配置中,单击页面右下角的,进入数据调试页面。 图2 从环境配置页面进入数据调试页面 方式三:直接在浏览器中,输入“https://AstroZero域名/studio/console.html”,进入控制台页面进行数据调试。 控制台页面如图3所示,界面分为多个区域,展示不同的内容。 图3 控制台 区域1:数据调试控制台支持的所有操作。 对象管理:关于对象表的操作。 缓存管理:对AstroZero系统的缓存进行管理,主要是清理所有缓存或清理某个特定缓存的命令。 任务查询:对AstroZero的一些历史任务或表数据统计的可用命令展示。 搜索管理:展示Elasticsearch中的可搜索表或字段。 区域2:根据区域1的操作从而展示对应的内容。 单击区域1的“对象管理”,则会在区域2中展示该用户有权限看到的所有表。 单击区域1“缓存管理”,则会在区域2中展示管理缓存相关的命令。 单击区域1“任务查询”,则会在区域2中展示任务管理相关的命令。 单击区域1“搜索管理”,则会在区域2中展示搜索管理相关的命令,支持根据应用进行过滤,默认显示“全部”,即搜索所有应用数据。 区域3:展示命令的说明或提示文字。 单击区域2展示的命令时,会在该区域展示该命令的简单说明或展示一些提示文字。 区域4:操作按钮区域。 单击“执行”(快捷键为Ctrl + Enter),可执行用户在区域5输入的命令。或者选中区域5输入的某个命令,单击“执行选择项”进行执行。命令执行完成后,单击“清除”,可清除执行结果的展示。 区域5:命令输入区,用户可以在该区域进行表数据查询,支持多种表操作的SQL语句。 例如:在单击区域1的“对象管理”时,会在区域2展示所有对象表,单击某个表,便可复制该表名。用户在区域5输入命令时,可快速复制粘贴要查询的表名。且对于区域2展示的所有命令,可通过双击鼠标左键,可直接将命令展示在该区域,然后单击区域4“执行”,执行该命令,减少了用户手动输入命令的动作。 区域6:展示相关命令的执行结果。 区域7:展示系统的发行版本和发行时间。 区域8:记录用户在区域5成功执行的所有命令。 单击该区域的命令,可将选中的命令填充到区域5,单击区域4的“执行”按钮,便可执行该历史命令。 根据 “支持SQL语句列表”提示,输入SQL查询语句,执行查询。 对象管理中除了系统预置的标准对象、用户定制的自定义对象、视图对象和聚合对象,还有一种系统对象,即AstroZero各项系统功能模块所使用到的对象,如服务编排、脚本。此类对象一般无需关注,若需要定位问题可在数据调试控制台使用SQL语句进行查询。 图4 执行SQL语句查询
  • 当前泳道 “用户任务”图元接收人类型设置为“当前泳道”,将泳道和工作队列绑定,则处于该泳道的用户任务图元,由该泳道对应工作队列中的成员去处理。工作队列中的成员可以是多个用户、业务用户、公共组中成员、角色或带有下属的角色中成员。配置过程如下: 参考管理队列中操作,创建工作队列,将处理任务的用户或者业务用户加入工作队列中。 例如,创建派单员工作队列“Dispatcher”。 图2 创建工作队列 如图3所示,“用户任务”的接收人类型选择“当前泳道”,可以将任务分配给“当前泳道角色的任意成员”或“当前泳道中的上一个任务被分配的人员”。 图3 用户任务中设置当前泳道接收 如图4所示,单击左侧泳道区域,在“泳道配置”中设置派单员工作队列“Dispatcher”。 处于该泳道的用户任务图元,则由工作队列“Dispatcher”中的成员去处理。 图4 设置泳道
共100000条