华为云用户手册

  • 什么是数据湖探索 数据湖探索(Data Lake Insight,简称DLI)是完全兼容Apache Spark、Apache Flink、Trino生态,提供一站式的流处理、批处理、交互式分析的Serverless融合处理分析服务。用户不需要管理任何服务器,即开即用。 DLI支持标准SQL/Spark SQL/Flink SQL,支持多种接入方式,并兼容主流数据格式。数据无需复杂的抽取、转换、加载,使用SQL或程序就可以对云上CloudTable、RDS、DWS、CSS、OBS、ECS自建数据库以及线下数据库的异构数据进行探索。
  • DLI“包年/包月”和“按需计费”计费模式队列生命周期 表1 DLI“包年/包月”和“按需计费”计费模式队列生命周期 功能 状态 EOM时间 EOFS时间 EOS时间 DLI“包年/包月”和“按需计费”计费模式队列功能 EOM 2024年3月31日 2024年6月30日 2025年6月30日 EOM:End of Marketing,停止该功能销售。 EOFS:End of Full Support,停止该功能全面支持。 EOS:End of Service & support
  • 标签命名规则 每个标签由一对键值对(Key-Value)组成。 每个IoTDA实例最多可以添加20个标签。 对于每个资源,每个标签键(Key)都必须是唯一的,每个标签键(Key)只能有一个值(Value)。 标签共由两部分组成:“标签键”和“标签值”,其中,“标签键”和“标签值”的命名规则如表1所示。 表1 标签命名规则 参数 规则 样例 标签键 不能为空。对于同一个实例,Key值唯一。最大长度36个字符。 字符集:A-Z,a-z , 0-9,‘-’,‘_’,UNICODE字符(\u4E00-\u9FFF) Organization 标签值 每个值最大长度43个字符,可以为空字符串。 字符集:A-Z,a-z , 0-9,‘.’,‘-’,‘_’,UNICODE字符(\u4E00-\u9FFF) Apache 如您的组织已经设定IoTDA的相关标签策略,则需按照标签策略规则为实例添加标签。标签如果不符合标签策略的规则,则可能会导致实例创建失败,请联系组织管理员了解标签策略详情。
  • 策略通配符 策略中具有不同的通配符,使用前需注意。在策略中,“*”表示字符的任意组合,问号“? ”表示任何单个字符,而通配符“+”和“#”被视为没有特殊含义的字符。 表3 策略通配符 通配符 是MQTT通配符 策略配置是否适用 MQTT中主题示例 适用于MQTT主题示例的策略示例 # 是 否 test/# 不适用,“#”被视为没有特殊含义的字符。 + 是 否 test/+/some 不适用,“+”被视为没有特殊含义的字符。 * 否 是 不适用,“*”被视为没有特殊含义的字符。 test/* test/*/some ? 否 是 不适用,“?”被视为没有特殊含义的字符。 test/????/some test/set?????/some 定义策略通配符示例: { "app_id": "jeQDJQZltU8iKgFFoW060F5SGZka", "policy_id": "5c90fa7d3c4e4405e8525079", "policy_name": "myPolicy", "statement": [ { "effect": "ALLOW", "actions": [ "iotda:devices:publish" ], "resources": [ "topic:test/????/some", "topic:test/set?????/some" ] } ], "create_time": "20190303T081011Z", "update_time": "20190303T081011Z" }
  • 策略变量 在策略中定义resource时,如果不知道对设备资源或条件键的精确值,可以使用策略变量作为占位符,进行发布/订阅主题筛选。策略变量在校验MQTT的主题时,会把变量变为接入设备对应的ID值,再进行匹配。 变量使用前缀“$”标记,后面跟一对大括号“{ }”,其中包含请求中值的变量名称。现如今支持的变量如下表,假设MQTT设备是在客户端ID为test_clientId,产品ID为test_productId,设备ID为test_deviceId。 表4 策略变量 策略变量 描述 MQTT中主题示例 适用于MQTT主题示例的策略示例 ${devices.deviceId} 设备ID test/test_deviceId/topic test/${devices.deviceId}/topic ${devices.clientId} 客户端ID test/test_clientId/topic test/${devices.clientId}/topic ${devices.productId} 产品ID test/test_productId/topic test/${devices.productId}/topic 定义策略变量示例: { "app_id": "jeQDJQZltU8iKgFFoW060F5SGZka", "policy_id": "5c90fa7d3c4e4405e8525079", "policy_name": "myPolicy", "statement": [ { "effect": "ALLOW", "actions": [ "iotda:devices:publish", "iotda:devices:subscribe" ], "resources": [ "topic:test/${devices.deviceId}/topic" ] } ], "create_time": "20190303T081011Z", "update_time": "20190303T081011Z" }
  • SDK获取和安装 安装Python开发环境。 访问Python官网,下载并按说明安装Python开发环境。 华为云 Python SDK 支持 Python3 及以上版本。 安装pip工具 访问pip官网,下载并按说明安装pip工具。 安装Python SDK 执行如下命令安装华为云Python SDK核心库以及相关服务库 # 安装核心库 pip install huaweicloudsdkcore # 安装IoTDA服务库 pip install huaweicloudsdkiotda
  • SDK获取和安装 安装.NET开发环境。 访问.NET官网,下载并按说明安装.NET开发环境。 华为云.NET SDK适用于: .NET Framework 4.5 及其以上版本。 .NET Standard 2.0 及其以上版本。 C# 4.0 及其以上版本。 使用 .NET CLI 工具安装SDK dotnet add package HuaweiCloud.SDK.Core dotnet add package HuaweiCloud.SDK.IoTDA
  • 统计图表类型 支持对图表进行新建、保存、另存为等操作。详细请参考表1。 支持使用表格、柱状图、折线图等图表类型展示不同场景数据,详细请参考表2。 表1 操作说明 功能名称 功能描述 新建 选择不同的图表类型,将图表分析结果保存到仪表盘。 保存 对当前可视化图表进行保存。 另存为 对已有可视化图表进行复制。 下载 将图表分析结果下载到excel。 展开图表 可展开当前日志流下的可视化图表。 收起图表 可收起当前日志流下的可视化图表。 表2 图表类型 图表类型 使用场景 表格 表格是最常见的数据展示类型,通过对数据结构化的整理,实现数据的对比与统计。大多数场景均适用。 柱状图 柱状图描述的是分类数据,直观表现每一个分类项的大小对比关系。统计近一天各错误码类型出现的次数等分类统计场景适用。 折线图 折线图需要统计数据具备时序字段,依据时间顺序组织与聚合指标。可直观反映指标随时间的变化趋势。 饼图 饼图描述的是不同分类的占比情况,通过扇区大小来衡量各分类项的占比情况。错误码占比情况分析等占比统计场景适用。 数字图 数字图描述的是单个指标,一般选择具备有业务价值的关键性指标。统计天、周、月 PV、UV 等单指标场景适用。 数字折线图 折线图和数字图的组合。折线图用于表示数据趋势和变化的,数字图则展示关键性指标。在一些需要同时显示趋势和关键数据点的场合适用。 地图 地图通过图形的位置来表现数据的地理位置,通常来展示数据在不同地理区域上的分布情况。攻击 IP 地理分布等地理位置统计场景适用。 漏斗图 漏斗图适用于单流向单路径的业务流程,对各环节进行统计并用梯形面积表示某个环节业务量与上一个环节之间的差异。
  • DynamicLtsTableFactory支持SQL作业 LtsDynamicSource和LtsDynamicSink table作业,支持LTS日志直接接入flink,支持SQL语法,示例如下: public static void main(String[] args) throws Exception { StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment(); EnvironmentSettings environmentSettings = EnvironmentSettings.newInstance().useBlinkPlanner().inStreamingMode().build(); StreamTableEnvironment tableEnv = StreamTableEnvironment.create(env, environmentSettings); // enable checkpointing Configuration configuration = tableEnv.getConfig().getConfiguration(); configuration.set( ExecutionCheckpointingOptions.CHECKPOINTING_MODE, CheckpointingMode.EXACTLY_ONCE); configuration.set( ExecutionCheckpointingOptions.CHECKPOINTING_INTERVAL, Duration.ofSeconds(10)); tableEnv.executeSql("CREATE TABLE source ( " + " collectTime varchar, " + " lineNum varchar, " + " podName varchar, " + " pathFile varchar, " + " category varchar " + " ) " + " with ( " + // connector 表类型 固定值lts "'connector' = 'lts', " + // LTS 日志服务所属region "'regionName' = 'cn-north-7', " + // LTS 日志租户项目ID "'projectId' = '**************', " + // LTS 租户AK "'accessKey' = '**************', " + // LTS 租户SK "'accessSecret' = '**************', " + // LTS 日志组ID "'logGroupId' = '**************', " + // LTS 日志流ID "'logStreamId' = '**************', " + // LTS 日志流的消费组 "'consumerGroup' = '**************', " + // LTS 日志消费起始位置 "'startTime' = '1689836602157000000', " + // LTS 原始日志是否做JSON解析 "'jsonParse' = 'true' " + " )"); tableEnv.executeSql("CREATE TABLE print_sink ( " + " collectTime varchar, " + " lineNum varchar, " + " podName varchar, " + " pathFile varchar, " + " category varchar " + " ) " + " with ( " + // connector 表类型 固定值lts "'connector' = 'lts', " + // LTS 日志服务所属region "'regionName' = 'cn-north-7', " + // LTS 日志租户项目ID "'projectId' = '2a473356cca5487f8373be891bffc1cf', " + // LTS 租户AK "'accessKey' = 'DADYWPUP8JMUV3UGPEI9', " + // LTS 租户SK "'accessSecret' = 'jUtvcc0oIIcGZGoAUvtlSi8Oz6sZdFI2ZqFKBGUZ', " + // LTS 日志组ID "'logGroupId' = 'e83e94db-2e29-49c9-ae15-d3a9f4c3ea1b', " + // LTS 日志流ID "'logStreamId' = '0a423cfc-dbf8-4cf3-8fb9-f5cf95fa1298' " + " )"); tableEnv.executeSql("insert into print_sink select * from source "); }
  • 操作步骤 登录云日志服务控制台。 单击日志组名称对应的按钮。 单击日志流名称进入日志流详情页面,单击右上角,在弹出页面中,选择“日志消费”页签。 单击新建消费组,填写消费组名称,单击“确定”。 (可选)当某个消费组,消费到一定位置时,如果想重头或者指定一个时间继续进行消费,支持重置消费位点。 单击重置消费点位,支持设置最早位置和指定时间点,需要重启SDK后,重置消费位点才能生效。 最早位置:从头开始一直拉取到当前最新时间的日志。 指定时间点:从指定的时间点一直拉取到当前最新时间的日志。
  • 代码示例 CREATE TABLE source ( filed1 varchar, filed2 varchar, filed3 varchar )with ( 'connector' = 'lts', 'regionName' = 'cn-north-4', 'projectId' = '{projectId}', 'accessKey' = '{ak}', 'accessSecret' = '{sk}', 'logGroupId' = '{groupId}', 'logStreamId' = '{streamId}', 'consumerGroup' = '{consumerGroup}', 'startTime' = '1689836602157000000', 'jsonParse' = 'true' ); CREATE TABLE print_sink ( filed1 varchar, filed2 varchar, filed3 varchar )with ( 'connector' = 'lts', 'regionName' = 'cn-north-4', 'projectId' = '{projectId}', 'accessKey' = '{ak}', 'accessSecret' = '{sk}', 'logGroupId' = '{groupId}', 'logStreamId' = '{streamId}' ); insert into print_sink select * from source;
  • WITH参数 通用参数 表2 通用参数说明 参数名称 描述 类型 是否必填 默认值 connector 表类型。 String 必填 lts regionName 云日志服务的区域 String 必填 - projectId 华为云账号的项目ID(project id) String 必填 - logGroupId LTS的日志组ID String 必填 - logStreamId LTS的日志流ID String 必填 - accessKey 华为云账号的AK String 必填 - accessSecret 华为云账号的SK String 必填 - consumerGroup LTS日志流对应的消费组名称 String 必填 - startTime 消费开始时间,纳秒值 Long 必填 - stopTime 消费结束时间,纳秒值 Long 选填 - jsonParse 是否对原始日志做json解析 Boolean 选填 false
  • 使用限制 仅flink1.12版本支持云日志服务提供的lts-flink-connector工具。 LTS服务不支持作为维表。 lts-flink-connector仅保证At-Least-Once语义。 lts-flink-connector source和sink日志不能为同一个日志流。 flink消费保证最终一致性,即您可以获取到这条日志流的全部内容,但由于时间为服务端时间,所以在获取日志流的过程中,可能导致获取到的日志数量跟LTS页面查询的日志数量不一致。
  • 按照不同的消费需求,请使用不同的构造方法 指定消费开始时间,不指定结束时间。 例如StartTimeNs = 0L,即从头开始一直拉取到当前最新。如果还有新的日志产生就一直拉取。 例如StartTimeNs = 1685444710000000000L,即从1685444710000000000纳秒所代表的时间开始拉取,一直拉取到当前最新。如果还有新的日志产生就一直拉取。 // 不设置batchSize,即每次拉取1000条 LogConsumerConfig config = new LogConsumerConfig("TEST_REGION_NAME", "TEST_PROJECT","TEST_LOG_GROUP_ID","TEST_LOG_STREAM_ID","ACCESS_KEY_ID","ACCESS_KEY_SECRET","CONSUMER_GROUP_NAME", 1685444710000000000L); // 设置batchSize = 500,即每次拉取500条 LogConsumerConfig config = new LogConsumerConfig("TEST_REGION_NAME", "TEST_PROJECT","TEST_LOG_GROUP_ID","TEST_LOG_STREAM_ID","ACCESS_KEY_ID","ACCESS_KEY_SECRET","CONSUMER_GROUP_NAME", 1685444710000000000L, 500); 指定消费开始时间,且指定结束时间。 例如StartTimeNs = 0L,EndTimeNs=1685444710000000000L。即从头开始一直拉取到EndTimeNs所代表的时间。不会拉取这段时间范围以外的数据。 例如StartTimeNs = 1685444710000000000L,EndTimeNs=1685445470192043318L。即从StartTimeNs所代表的时间开始一直拉取到EndTimeNs所代表的时间。不会拉取这段时间范围以外的数据。 // 不设置batchSize,即每次拉取1000条 LogConsumerConfig config = new LogConsumerConfig("TEST_REGION_NAME", "TEST_PROJECT","TEST_LOG_GROUP_ID","TEST_LOG_STREAM_ID","ACCESS_KEY_ID","ACCESS_KEY_SECRET","CONSUMER_GROUP_NAME",1685444710000000000L, 1685445470192043318L); // 设置batchSize = 500,即每次拉取500条 LogConsumerConfig config = new LogConsumerConfig("TEST_REGION_NAME", "TEST_PROJECT","TEST_LOG_GROUP_ID","TEST_LOG_STREAM_ID","ACCESS_KEY_ID","ACCESS_KEY_SECRET","CONSUMER_GROUP_NAME",1685444710000000000L, 1685445470192043318L, 500);
  • 开启智能冷存储 登录云日志服务控制台。 在日志管理中,单击日志组名称对应的按钮。 单击“创建日志流”,配置相关参数。 表1 智能冷存储 参数 说明 日志组名称 所选日志组名称。 日志流名称 日志流的名称。只支持输入英文、数字、中文、中划线、下划线及小数点,且不能以小数点、下划线开头或以小数点结尾 企业项目 选择需要的企业项目,也可单击“查看企业项目”,在企业项目管理页面查看全部企业项目。 日志存储时间(天) 日志存储时间,单位:天,取值范围1~365。 您可以在1 ~ 365天之间设置, 超出存储时间的日志将会被自动删除, 您可以按需将日志数据转储至OBS桶中长期存储。 说明: 目前白名单用户的日志存储时间支持1095天,如有需要,请提工单申请。 关闭开关: 使用日志组的日志存储时间。 打开开关: 使用日志流的日志存储时间。 智能冷存储 开启智能冷存储开关,开启智能冷存储功能。 说明: 开启智能冷存储需要日志存储时间大于7天。 标准存储层数据保存时间 标准存储层数据的保存时间,单位:天,取值范围7~364天。 标准存储数据至少需保存7天才能转换为智能冷存储层数据,当保存时间大于标准层数据保存时间,且小于日志存储时间时,数据将自动转换为智能冷存储层数据存储。 标签 自定义设置标签值,按照“标签键=标签值”的形式填写,例如a=b,详细请参考标签管理。 备注 自定义日志流备注信息。 完成后,单击“确定”。
  • 创建快速分析 可通过日志结构化打开“快速分析”按钮进行创建。也可通过如下步骤进行创建。 登录云日志服务控制台,在左侧导航栏中选择“日志管理”。 快速分析以日志流为单位,请在“日志管理”页面选择目标日志组和日志流。 支持两种方式创建快速分析: 单击进入设置详情页面,在索引配置页签的字段索引下方,添加字段时开启快速分析。 在云端结构化解析页签,开启自动配置索引和快速分析,默认是开启状态。开启后将使用结构化字段配置字段索引并打开快速分析。 在搜索分析页签,单击“创建快速分析”,跳转到索引配置页面添加需要快速分析的字段。 单击“确定”,快速分析创建完成。 图1 查看快速分析 表示String类型字段。 表示float类型字段。 表示long类型字段。 快速分析的字段长度最大为2000字节。 快速分析字段展示前100条数据。 单击即可查看一键生成的图表展示,string类型的字段支持展示字段分布值统计和智能聚合时间折线图,long和float数值类型的字段只支持展示智能聚合时间折线图。单击图表即可进入详情页面。 图2 string类型展示的图形 图3 long和float数值类型展示的图形 单击字段分布值统计或智能聚合时间折线图,会自动跳转到可视化界面并生成对应的SQL查询语句进行查询,更加直观地展示字段值的分布和变化趋势。更多信息请参见可视化。
  • 处理方法 Header: 在调用指南页签上最多可以获取到两个api地址,分别是支持IAM/AKSK认证的地址以及支持APP认证的地址,对于支持不同认证方式的地址, 对header的组织也不同,具体如下: IAM/AKSK认证方式:需要在header的X-Auth-Token字段上填入该租户在该region的domain级别的token。具体指导参见连接:获取IAM用户Token。 APP认证的方式:APP认证方式又可以细分为AppCode认证和APP签名认证。 AppCode认证需要在header的X-Apig-AppCode字段上填入绑定给该在线服务的APP的AppCode。 APP签名认证需要在header的X-Sdk-Date和Authorization字段中填入通过sdk或者工具使用该在线服务绑定的APP的AppKey和AppSecret所生产的这两个字段的值,以完成对该请求的签名认证。具体指导参见链接:访问在线服务(APP认证)。 Body: body的组装和模型强相关,不同来源的模型body的组装方式不同。 模型为从容器镜像中导入的:需要按照自定义镜像的要求组织,请咨询该镜像的制作人。 模型为从对象存储(OBS)导入的:此时对body的要求会在推理代码中体现,具体在推理代码的_preprocess方法中,该方法将输入的http body转换成模型期望的输入,具体的指导可以查看文档:模型推理代码编写说明。 模型从AI Gallery中获取的:请查看AI Gallery中的调用说明或者咨询该模型的提供方。
  • 原因分析 在线服务部署完成且服务处于运行中状态后,可以通过调用指南页签的调用地址对模型发起预测请求,出于安全考虑,ModelArts会通过相关的认证鉴权机制避免在线服务被无关人员非法调用。所以在预测请求的header信息中包含的是调用者的身份信息,在body部分是需要进行预测的内容。 header的部分需要按照华为云的相关机制进行认证,body部分需要根据模型的要求如前处理脚本的要求,如自定义镜像的要求进行输入。
  • ModelArts自动学习与ModelArts PRO的区别 ModelArts自动学习,提供了AI初学者,零编码、零AI基础情况下,可使用自动学习功能,开发用于图像分类、物体检测、预测分析、文本分类、声音分类等场景的模型。 而ModelArts PRO是一款为企业级AI应用打造的专业开发套件。用户可根据预置工作流生成指定场景模型,无需深究底层模型开发细节。ModelArts PRO底层依托ModelArts平台提供数据标注、模型训练、模型部署等能力。也可以理解过增强版的自动学习,提供行业AI定制化开发套件,沉淀行业知识,让开发者聚焦自身业务。 父主题: 功能咨询
  • 解决方案 使用当前帐号登录OBS管理控制台,确认当前帐号是否能访问OBS。 是,请执行步骤2。 否,请执行步骤3。 如能访问OBS,单击右上方登录的用户,在下拉列表中选择“我的凭证”。请根据“如何管理访问密钥”操作指导,确认当前AK/SK是否是当前帐号创建的AK/SK。 是,请联系提交工单处理。 否,请根据“如何管理访问密钥”操作指导更换为当前帐号的AK/SK。 请确认当前帐号是否欠费。 是,请给帐号充值。操作指导请参见华为云帐户充值。 否,且提示资源已过保留期,需要提工单给OBS开通资源。
  • 如何导入大文件到Notebook中? 大文件(大于100MB的文件) 针对大文件,建议使用OBS服务上传文件。使用OBS客户端,将本地文件上传至OBS桶中,然后使用ModelArts SDK从OBS下载文件至Notebook本地。 使用OBS客户端上传文件的操作指导:上传文件。 使用ModelArts SDK或Moxing接口从OBS下载文件请参见如何在Notebook中上传下载OBS文件?。 文件夹 将文件夹压缩成压缩包,上传方式与大文件相同。将文件上传至Notebook后, 可在Terminal中解压压缩包。 unzip xxx.zip #在xxx.zip压缩包所在路径直接解压 解压命令的更多使用说明可以在主流搜索引擎中查找Linux解压命令操作。 父主题: 文件上传下载
  • 自动学习模型训练图片异常? 使用自动学习的图像分类或物体检测算法时,标注完成的数据在进行模型训练后,训练结果为图片异常。针对不同的异常情况说明及解决方案参见表1。 表1 自动学习训练中图片异常情况说明(图像分类和物体检测) 序号 图片异常显示字段 图片异常说明 解决方案字段 解决方案说明 1 load failed 图片无法被解码且不能修复 ignore 系统已自动过跳过这张图片,不需要用户处理。 2 tf-decode failed 图片无法被TensorFlow解码且不能修复 ignore 系统已跳过这张图片,不需要用户处理。 3 size over 图片大于5MB resize to small 系统已将图片压缩到5MB以内处理,不需要用户处理。 4 mode illegal 图片非RGB模式 convert to rgb 系统已将图片转成RGB格式处理,不需要用户处理。 5 type illegal 非图片文件,但可以转换成JPG convert to jpg 系统已将图片转换成JPG格式处理,不需要用户处理。 父主题: 模型训练
  • Notebook实例重新启动后,需要删除本地known_hosts才能连接 可以在本地的ssh config文件中对这个Notebook配置参数“StrictHostKeyChecking no”和“UserKnownHostsFile=/dev/null”,如下参考所示: Host roma-local-cpu HostName x.x.x.x #IP地址 Port 22522 User ma-user IdentityFile C:/Users/my.pem StrictHostKeyChecking no ForwardAgent yes 提示:因为SSH登录时会忽略known_hosts文件,有安全风险 父主题: VS Code使用技巧
  • 示例及说明 ip_to_province函数 统计请求总数Top3的省份 查询和分析语句 SELECT count(*) AS PV, ip_to_province(client_ip) AS province GROUP BY province ORDER BY PV desc LIMIT 3 查询和分析结果 表2 查询和分析结果 PV province 101 广东 83 上海 78 山东 ip_to_country函数 统计请求总数的Top3的国家或地区 查询和分析语句 SELECT count(*) AS PV, ip_to_country(client_ip) AS county GROUP BY country ORDER BY PV desc LIMIT 3 查询和分析结果 表3 查询和分析结果 PV country 100 中国 76 美国 55 加拿大 ip_to_city函数 统计请求总数的Top3的城市 查询和分析语句 SELECT count(*) AS PV, ip_to_city(client_ip) AS city GROUP BY city ORDER BY PV desc LIMIT 3 查询和分析结果 表4 查询和分析结果 PV city 109 广州 89 上海 23 西安 ip_to_provider函数 统计请求总数的Top3的运营商 查询和分析语句 SELECT count(*) AS PV, ip_to_provider(client_ip) AS provider GROUP BY provider ORDER BY PV desc LIMIT 3 查询和分析结果 表5 查询和分析结果 PV provider 115 电信 65 att.com 44 联通 ip_to_geo函数 根据传入的ip返回经纬度。 查询和分析语句 SELECT count(*) AS PV, ip_to_geo (client_ip) AS geo GROUP BY province ORDER BY PV desc LIMIT 3 查询和分析结果 表6 PV geo 101 *, * 83 47.369013, -68.326674 78 32.715891, -117.161588
  • IP函数语句 表1 IP函数语句 语句 说明 示例 ip_to_province 分析目标IP地址所属省份。 ip_to_province(x) ip_to_country 分析目标IP地址所属国家或地区。 ip_to_country(x) ip_to_city 分析目标IP地址所属城市。 ip_to_city(x) ip_to_provider 分析目标IP地址所对应的网络运营商。 ip_to_provider(x) ip_to_geo 根据传入的ip返回ip所在的经纬度。 ip_to_geo(x)
  • 响应参数 状态码: 201 表3 响应Body参数 参数 参数类型 描述 application_id String 应用ID 状态码: 400 表4 响应Body参数 参数 参数类型 描述 error_code String 错误码 error_msg String 错误消息 request_id String 请求ID 状态码: 401 表5 响应Body参数 参数 参数类型 描述 error_code String 错误码 error_msg String 错误消息 request_id String 请求ID 状态码: 403 表6 响应Body参数 参数 参数类型 描述 error_code String 错误码 error_msg String 错误消息 request_id String 请求ID 状态码: 500 表7 响应Body参数 参数 参数类型 描述 error_code String 错误码 error_msg String 错误消息 request_id String 请求ID
  • URI GET /v1/{domain_id}/groups/{group_id}/nodes 表1 路径参数 参数 是否必选 参数类型 描述 domain_id 是 String 租户ID group_id 是 String 节点组ID 表2 Query参数 参数 是否必选 参数类型 描述 offset 否 Integer 索引位置的偏移量。从第一条数据偏移offset条数据后开始查询。 必须为数字,不能为负数。 默认值:0,含义为偏移0条数据,即从第一条数据开始查询。 limit 否 Integer 分页大小
  • 响应参数 状态码: 200 表4 响应Body参数 参数 参数类型 描述 count Long 总数量 node_infos Array of NodeInfo objects 节点信息 表5 NodeInfo 参数 参数类型 描述 node_id String 节点ID node_name String 节点名称 group_id String 节点组ID resource_id String 订单ID status String 节点状态 IDLE:空置 FREE:空闲 ALLOCATING:纳管中 RECYCLING:回收中 WORKING:工作中 ECSREADY:机器就绪 APPREADY:应用就绪 BUSY:繁忙 INUSE:已发布一个应用 ERROR:异常 PUBLISHING_APP:发布应用中 UNLOADING_APP:卸载应用中 LOST_HEARTBEAT:心跳超时 CREATE_EXCEPTION:节点创建异常 CREATE_TIMEOUT:节点创建超时 DELETE_EXCEPTION:删除节点异常 UPGRADING:升级中 error_info String 错误信息 agent_id String Agent包ID engine_id String Engine包ID create_time Long 节点创建时间,单位:毫秒 update_time Long 节点最后更新时间 状态码: 400 表6 响应Body参数 参数 参数类型 描述 error_code String 错误码 error_msg String 错误消息 request_id String 请求ID 状态码: 401 表7 响应Body参数 参数 参数类型 描述 error_code String 错误码 error_msg String 错误消息 request_id String 请求ID 状态码: 403 表8 响应Body参数 参数 参数类型 描述 error_code String 错误码 error_msg String 错误消息 request_id String 请求ID 状态码: 500 表9 响应Body参数 参数 参数类型 描述 error_code String 错误码 error_msg String 错误消息 request_id String 请求ID
  • 响应参数 状态码: 200 表3 响应Body参数 参数 参数类型 描述 session_info SessionInfo object 会话信息 表4 SessionInfo 参数 参数类型 描述 session_id String 会话ID application_id String 应用ID status String 服务器会话当前的状态 ACTIVATING:激活中 ACTIVE:活跃 TERMINATING:终止中 TERMINATED:终止 ERROR:异常 token String 端侧接入鉴权使用的Token create_time String 标识session创建的时间。为UTC时间,且遵循RFC3339规范 close_time String 标识session终止的时间。为UTC时间,且遵循RFC3339规范 状态码: 400 表5 响应Body参数 参数 参数类型 描述 error_code String 错误码 error_msg String 错误消息 request_id String 请求ID 状态码: 401 表6 响应Body参数 参数 参数类型 描述 error_code String 错误码 error_msg String 错误消息 request_id String 请求ID 状态码: 403 表7 响应Body参数 参数 参数类型 描述 error_code String 错误码 error_msg String 错误消息 request_id String 请求ID 状态码: 500 表8 响应Body参数 参数 参数类型 描述 error_code String 错误码 error_msg String 错误消息 request_id String 请求ID
  • 响应参数 状态码: 400 表3 响应Body参数 参数 参数类型 描述 error_code String 错误码 error_msg String 错误消息 request_id String 请求ID 状态码: 401 表4 响应Body参数 参数 参数类型 描述 error_code String 错误码 error_msg String 错误消息 request_id String 请求ID 状态码: 403 表5 响应Body参数 参数 参数类型 描述 error_code String 错误码 error_msg String 错误消息 request_id String 请求ID 状态码: 500 表6 响应Body参数 参数 参数类型 描述 error_code String 错误码 error_msg String 错误消息 request_id String 请求ID
共100000条