华为云用户手册

  • 启动服务 启动OpenAI服务器服务,具体操作命令如下,可以根据参数说明修改配置。 export ATB_LAYER_INTERNAL_TENSOR_REUSE=1 python -m vllm.entrypoints.openai.api_server --model ${container_model_path} \ --max-num-seqs=256 \ --max-model-len=4096 \ --max-num-batched-tokens=4096 \ --dtype=float16 \ --tensor-parallel-size=1 \ --block-size=128 \ --host=${docker_ip} \ --port=8080 \ --gpu-memory-utilization=0.9 \ --trust-remote-code \ --served-model-name="baichuan-13b-chat" 具体参数说明如下: --model ${container_model_path}:模型地址,模型格式是HuggingFace的目录格式。即Step4 获取权重文件上传的HuggingFace权重文件存放目录。 --max-num-seqs:最大同时处理的请求数,超过后拒绝访问。 --max-model-len:推理时最大输入+最大输出tokens数量,输入超过该数量会直接返回。 --max-num-batched-tokens:prefill阶段,最多会使用多少token,必须大于或等于--max-model-len,推荐使用4096或8192。 --dtype:模型推理的数据类型,当前只支持float16。 --tensor-parallel-size:模型并行数,13B模型一般为1即可。 --block-size:PagedAttention的block大小,推荐设置为128。 --host=${docker_ip}:服务部署的IP,${docker_ip}替换为容器实际的IP地址。可以在宿主机上通过docker inspect 容器ID |grep IPAddress 命令查询。 --port:服务部署的端口,和Step4 启动容器镜像中设置的端口保持一致,否则不能在容器外访问推理服务。 --gpu-memory-utilization:NPU使用的显存比例,复用原vLLM的入参名称,默认为0.9。 --trust-remote-code:是否相信远程代码,baichuan-13b必须增加此项。 --served-model-name:模型名称。
  • Step5 获取训练镜像 建议使用官方提供的镜像部署训练服务。 镜像地址{image_url}为: 西南-贵阳一: swr.cn-southwest-2.myhuaweicloud.com/llm_eimodelarts/llama_ascend_pytorch_2_1:0.0.1-standard swr.cn-southwest-2.myhuaweicloud.com/llm_eimodelarts/vllm-npu:0.0.1-standard
  • Step2 安装Docker 检查docker是否安装。 docker -v #检查docker是否安装 如尚未安装,运行以下命令安装docker。 yum install -y docker-engine.aarch64 docker-engine-selinux.noarch docker-runc.aarch64 配置IP转发,用于容器内的网络访问。执行以下命令查看net.ipv4.ip_forward配置项的值,如果为1,可跳过此步骤。 sysctl -p | grep net.ipv4.ip_forward 如果net.ipv4.ip_forward配置项的值不为1,执行以下命令配置IP转发。 sed -i 's/net\.ipv4\.ip_forward=0/net\.ipv4\.ip_forward=1/g' /etc/sysctl.conf sysctl -p | grep net.ipv4.ip_forward
  • 镜像地址 本教程中用到的训练和推理的基础镜像地址和配套版本关系如下表所示,请提前了解。 表1 基础容器镜像地址: 镜像用途 镜像地址 训练基础镜像 西南-贵阳一:docker pull swr.cn-southwest-2.myhuaweicloud.com/llm_eimodelarts/llama_ascend_pytorch_2_1:0.5.3 推理基础镜像 西南-贵阳一:docker pull swr.cn-southwest-2.myhuaweicloud.com/llm_eimodelarts/vllm-npu:0.0.1-standard 表2 模型镜像版本 模型 版本 CANN 7.0.1 PyTorch 2.1.0
  • 数据处理具体操作 增量预训练数据处理具体操作步骤如下。 单击“作业列表”右侧“+”新建训练作业任务 图1 新建训练作业 设置作业名称、描述、作业模式,根据需求选择镜像、资源规格和节点数。 图2 设置训练作业基本信息 单击alpaca-ft文件夹右侧“设为输出”,完成输出目录的挂载。 图3 设置输出目录 设置“tokenizers/llama2-13b-hf”目录挂载权重目录“obs://standard-llama2-13b/llama-2-13b-chat-hf/”,设置“datasets/data”目录挂载数据目录“obs://standard-llama2-13b/alpaca/llama2-13B”。 图4 设置挂载数据目录 输入启动命令。 python ${MA_JOB_DIR}/6.3.902-Ascend/llm_train/AscendSpeed/ModelLink/tools/preprocess_data.py --input ${MA_JOB_DIR}/6.3.902-Ascend/datasets/data/alpaca_data.json --output-prefix ${MA_JOB_DIR}/6.3.902-Ascend/datasets/alpaca-ft/alpaca-ft --tokenizer-type PretrainedFromHF --tokenizer-name-or-path ${MA_JOB_DIR}/6.3.902-Ascend/tokenizers/llama2-13b-hf --tokenizer-not-use-fast --handler-name GeneralInstructionHandler 单击“提交作业”完成作业创建,待作业运行完成后,在输出挂载目录下生成转换后的数据文件。
  • 数据预处理 使用数据预处理脚本preprocess_data.py脚本重新生成.bin和.idx格式的增量预训练数据。preprocess_data.py存放在AscendCloud-3rdLLM-6.3.902-xxx/6.3.902-Ascend/llm_train/AscendSpeed/ModelLink/tools目录中,脚本具体内容如下。 python ${MA_JOB_DIR}/6.3.902-Ascend/llm_train/AscendSpeed/ModelLink/tools/preprocess_data.py --input alpaca_data.json\ --output-prefix $DATA_PATH \ --tokenizer-type PretrainedFromHF \ --tokenizer-name-or-path $TOKENIZER_PATH \ --tokenizer-not-use-fast \ --handler-name GeneralInstructionHandler 参数说明: input:增量预训练数据的存放路径。 output-prefix:处理后的数据集保存路径+数据集名称前缀(例如:alpaca-ft)。 tokenizer-type:tokenizer的类型,可选项有['BertWordPieceLowerCase', 'BertWordPieceCase','GPT2BPETokenizer', 'PretrainedFromHF'],设置为PretrainedFromHF。 tokenizer-name-or-path:tokenizer的存放路径。 handler-name:生成数据集的用途,这里是生成的指令数据集,用于微调。 输出结果: alpaca-ft_packed_attention_mask_document.bin alpaca-ft_packed_attention_mask_document.idx alpaca-ft_packed_input_ids_document.bin alpaca-ft_packed_input_ids_document.idx alpaca-ft_packed_labels_document.bin alpaca-ft_packed_labels_document.idx 训练的时候指定的路径为/path/to/alpaca-ft不加文件类型后缀。 此处提供一个实际的数据转换脚本代码示例:
  • 代码目录介绍 AscendCloud-3rdLLM-6.3.902代码包结构介绍如下: 6.3.902-Ascend ├──llm_evaluation #推理评测代码包 ├──benchmark_eval #精度评测 ├──benchmark_tools #性能评测 ├──llm_train #模型训练代码包 ├──AscendSpeed #基于AscendSpeed的训练代码 ├──Megatron-LM #三方依赖:megatron ├──ModelLink #基于AscendSpeed的训练代码 ├──scripts/ #训练需要的启动脚本 本教程需要使用到的训练相关代码存放在AscendCloud-3rdLLM-6.3.902-xxx/6.3.902-Ascend/llm_train/AscendSpeed目录下,具体文件介绍如下: ├──llm_train #模型训练代码包 ├──AscendSpeed #基于AscendSpeed的训练代码 ├──Megatron-LM #三方依赖megatron ├──ModelLink #基于AscendSpeed的训练代码,数据预处理脚本 ├──scripts/ #训练需要的启动脚本,调用ModelLink ├──tools #权重转换脚本 ├──llama2 #Llama2的训练代码 ├──llama2.sh #Llama2训练主脚本 ├──lora-llama2-13b.sh #LoRA微调训练脚本 ├──pretrain-llama2-13b.sh #预训练脚本 ├──retrain-llama2-13b.sh #断点续训练脚本 ├──sft-llama2-13b.sh #增量预训练脚本
  • Step1 获取数据集 动态benchmark需要使用数据集进行测试,可以使用公开数据集,例如Alpaca、ShareGPT。也可以根据业务实际情况,使用generate_datasets.py脚本生成和业务数据分布接近的数据集。 公开数据集下载地址: ShareGPT: https://huggingface.co/datasets/anon8231489123/ShareGPT_Vicuna_unfiltered/resolve/main/ShareGPT_V3_unfiltered_cleaned_split.json Alpaca: https://github.com/tatsu-lab/stanford_alpaca/blob/main/alpaca_data.json 使用generate_datasets.py脚本生成数据集方法: generate_datasets.py脚本通过指定输入输出长度的均值和标准差,生成一定数量的正态分布的数据。具体操作命令如下,可以根据参数说明修改参数。 cd benchmark_tools python generate_datasets.py --datasets custom_datasets.json --tokenizer /path/to/tokenizer \ --min-input 100 --max-input 3600 --avg-input 1800 --std-input 500 \ --min-output 40 --max-output 256 --avg-output 160 --std-output 30 --num-requests 1000 generate_datasets.py脚本执行参数说明如下: --datasets:数据集保存路径,如custom_datasets.json --tokenizer:tokenizer路径,可以是HuggingFace的权重路径 --min-input:输入tokens最小长度,可以根据实际需求设置。 --max-input:输入tokens最大长度,可以根据实际需求设置。 --avg-input:输入tokens长度平均值,可以根据实际需求设置。 --std-input:输入tokens长度方差,可以根据实际需求设置。 --min-output:最小输出tokens长度,可以根据实际需求设置。 --max-output:最大输出tokens长度,可以根据实际需求设置。 --avg-output:输出tokens长度平均值,可以根据实际需求设置。 --std-output:输出tokens长度标准差,可以根据实际需求设置。 --num-requests:输出数据集的数量,可以根据实际需求设置。
  • Step2 使用数据集测试动态benchmark 执行脚本benchmark_serving.py测试动态benchmark。具体操作命令如下,可以根据参数说明修改参数。 cd benchmark_tools python benchmark_serving.py --backend vllm --host 127.0.0.1 --port 8085 --dataset custom_dataset.json --dataset-type custom \--tokenizer /path/to/tokenizer --request-rate 0.01 1 2 4 8 10 20 --num-prompts 10 1000 1000 1000 1000 1000 1000 \--max-tokens 4096 --max-prompt-tokens 3768 --benchmark-csv benchmark_serving.csv --backend:服务类型,如"tgi",vllm","mindspore" --host:服务IP地址,如127.0.0.1 --port:服务端口 --datasets:数据集路径 --datasets-type:支持三种 "alpaca","sharegpt","custom"。custom为自定义数据集。 --tokenizer:tokenizer路径,可以是huggingface的权重路径 --request-rate:请求频率,支持多个,如 0.1 1 2。实际测试时,会根据request-rate为均值的指数分布来发送请求以模拟真实业务场景。 --num-prompts:某个频率下请求数,支持多个,如 10 100 100,数量需和--request-rate的数量对应 --max-tokens:输入+输出限制的最大长度,模型启动参数--max-input-length值需要大于该值 --max-prompt-tokens:输入限制的最大长度,推理时最大输入tokens数量,模型启动参数--max-total-tokens值需要大于该值,tokenizer建议带tokenizer.json的FastTokenizer --benchmark-csv:结果保存路径,如benchmark_serving.csv 脚本运行完后,测试结果保存在benchmark_serving.csv中,示例如下图所示。 图1 动态benchmark测试结果
  • HuggingFace权重转换操作 下载Llama2-13b的预训练权重和词表文件,并上传到OBS桶对应目录下。具体下载地址请参见表1。如果已下载,忽略此步骤。 设置“tokenizers/llama2-13b-hf”目录挂载权重目录“obs://standard-llama2-13b/llama-2-13b-chat-hf/”。 图1 挂载权重目录 单击输出目录“weight/llama2-13b-ckpt/”右侧的“设为输出”完成OBS桶中文件夹的挂载。 图2 挂载OBS桶中文件夹 设置启动命令。 export PYTHONPATH=$PYTHONPATH:${MA_JOB_DIR}/6.3.902-Ascend/llm_train/AscendSpeed/ModelLink/ && python ${MA_JOB_DIR}/6.3.902-Ascend/llm_train/AscendSpeed/ModelLink/tools/ckpt_convert/llama/convert_weights_from_huggingface.py --input-model-dir ${MA_JOB_DIR}/6.3.902-Ascend/tokenizers/llama2-13b-hf --output-model-dir ${MA_JOB_DIR}/6.3.902-Ascend/weight/llama2-13b-ckpt --tensor-model-parallel-size 8 --pipeline-model-parallel-size 1 --type 13B --merge-mlp 单击“提交作业”完成作业创建。 待作业完成后,“设为输出”的挂载目录下查看转换后的权重文件。
  • 配置ModelArts IDE插件 本文档将采用VS Code插件完成大语言模型预训练、微调以及权重的合并转化,通过以下步骤安装ModelArts-HuaweiCloud插件并完成工作目录、存储目录配置。 方式一(线下插件包安装):请联系华为技术支持获取插件包。在本地打开VS Code软件,单击左侧导航栏的图标,如下图方式选择“Install from VSIX”,并选择插件包。 待左侧导航出现图标,表示插件安装完成。 图1 安装插件 方式二(在线安装):通过VS Code IDE插件市场,安装ModelArts-HuaweiCloud插件。(插件市场暂未上线插件,该方式暂不支持) 单击左侧导航的图标,单击“登录”进入登录页面,输入对应的登录信息。 单击“获取AccessKey”即可跳转到AK/SK获取教程页面。 图2 登录VS Code插件 单击“线下开发”场景,单击“选择工作目录”,设置“AscendCloud-3rdLLM-6.3.902-xxx\6.3.902-Ascend”为工作目录。 图3 设置工作目录 选择准备OBS桶中创建存储代码的文件夹目录设置为存储目录。 图4 设置OBS桶 父主题: 准备工作
  • Step1 获取推理代码 根据下表链接下载“ascendcloud-llmframework_6.3.902_*.tar.gz”解压获得ascend-vllm代码包,将文件夹中的vllm-dev文件夹上传至OBS中预训练权重合并及转换或LoRA微调权重合并及转换输出的模型同级目录下。 表1 准备代码 代码包名称 代码说明 下载地址 ascendcloud-llmframework_6.3.902_*.tar.gz Ascend-vllm插件 获取路径:Support网站。 说明: 如果没有下载权限,请您联系所在企业的华为方技术支持购买资源。 创建推理脚本run-vllm.sh,脚本内容如下: source /home/ma-user/.bashrc export ASCEND_RT_VISIBLE_DEVICES=${ASCEND_RT_VISIBLE_DEVICES} export PYTHONPATH=$PYTHONPATH:/home/mind/model/vllm-dev cd /home/mind/model/vllm-dev/ python /home/mind/model/vllm-dev/vllm/entrypoints/api_server.py --model="${model_path}" --ssl-keyfile="/home/mind/model/key.pem" --ssl-certfile="/home/mind/model/cert.pem" --tensor-parallel-size 1 --gpu-memory-utilization 0.95 --max-model-len=4096 --trust-remote-code --dtype="float16" --host=0.0.0.0 --port=8080 并将推理脚本上传至OBS中预训练权重合并及转换或LoRA微调权重合并及转换输出的模型同级目录下。 参数说明: ${ASCEND_RT_VISIBLE_DEVICES} 使用的NPU卡,单卡设为0即可,4卡可设为:0,1,2,3。 ${model_path} 模型路径,填写为'/home/mind/model/权重文件夹名称',如:'home/mind/model/llama2-13b-sft-hf'。 --tensor-parallel-size并行卡数。 --hostname服务部署的IP,使用本机IP 0.0.0.0。 --port服务部署的端口。 推理启动脚本必须名为run_vllm.sh,不可修改其他名称。 hostname和port也必须分别是0.0.0.0和8080不可更改。 通过openssl创建ssl pem证书,并上传至OBS桶。 以预训练权重合并及转换为例,在转换后的模型目录“obs://standard-llama2-13b/code/outputs/job-name”上传上述文件后,结果如下: 图1 上传ssl pem证书
  • 创建训练任务 在VS Code中修改“\6.3.902-Ascend\llm_train\AscendSpeed\scripts\llama2\sft-llama2-13b.sh”脚本,修改脚本内容如下: #!/bin/bash set -ex source /usr/local/Ascend/ascend-toolkit/set_env.sh # The number of parameters is not aligned export LD_LIBRARY_PATH=/usr/local/lib:/usr/local/lib:/root/miniconda3/lib:$LD_LIBRARY_PATH # 以下环境变量和多机网络通信相关,可以在容器内使用ifconfig查看 export HCCL_CONNECT_TIMEOUT=3600 # 多机通信等待时间 export AZUREML_EXPERIMENT_ID=0 # 多机训练时,数据多机编译 export GLOO_SOCKET_IFNAME=${NCCL_SOCKET_IFNAME} # 多机之间使用gloo通信时需要指定网口名称, export TP_SOCKET_IFNAME=${NCCL_SOCKET_IFNAME} # 多机之间使用TP通信时需要指定网口名称 # 以下变量和性能优化相关 export HCCL_OP_BASE_FFTS_MODE_ENABLE=TRUE export COMBINED_ENABLE=1 export MULTI_STREAM_MEMORY_REUSE=1 # export INF_NAN_MODE_ENABLE=1 # model args export MODEL_TYPE=13B #模型加载类型 # learning rate args export LR=0.00001 export MIN_LR=0.000003 export TRAIN_ITERS=100 #训练迭代周期 export LR_WARMUP_ITERS=2000 export MBS=4 #流水线并行中一个micro batch所处理的样本量 export GBS=64 #训练中所有机器一个step所处理的样本量,建议单机64,双机128。 # data args PWD=`pwd` export DATASET_PATH=${MA_JOB_DIR}/6.3.902-Ascend/datasets/alpaca-ft/alpaca-ft #预处理后的数据地址:*注意:一般为数据地址/数据前缀名 export TOKENIZER_PATH=${MA_JOB_DIR}/6.3.902-Ascend/tokenizers/llama2-13b-hf/ #tokeneizer地址 export SAVE_PATH=$PWD/ckpt #中间保存结果 包含日志 export SAVE_CKPT_PATH=${SAVE_PATH}/ckpt-llama2-13b-sft #训练ckpt保存地址 export MODEL_PATH=${MA_JOB_DIR}/6.3.902-Ascend/weight/llama2-13b-ckpt #增量预训练权重加载地址 # megatron args export TP=8 #张量并行 export PP=1 #流水线并行 export SEED=1234 export RUN_TYPE=sft #训练类型:pretrain、sft、loral,sft表示训练类型是增量预训练 bash $PWD/scripts/llama2/llama2.sh 在“\6.3.902-Ascend\llm_train\AscendSpeed”路径下创建“ckpt/ckpt-llama2-13B-sft”目录,并设置为输出目录。 在“\6.3.902-Ascend\datasets\alpaca-ft”目录挂载4.1.1中的输出目录。 设置“tokenizers/llama2-13b-hf”目录挂载权重目录“obs://standard-llama2-13b/llama-2-13b-chat-hf/”。设置“weight/llama2-13b-ckpt”目录挂载增量预训练权重转换的输出路径。 图1 设置输出和挂载目录 设置启动命令如下。 cd ${MA_JOB_DIR}/6.3.902-Ascend/llm_train/AscendSpeed/ && bash scripts/llama2/sft-llama2-13b.sh 单击“提交作业”完成作业创建。 图2 提交作业
  • benchmark方法介绍 性能benchmark包括两部分。 静态性能测试:评估在固定输入、固定输出和固定并发下,模型的吞吐与首token延迟。该方式实现简单,能比较清楚的看出模型的性能和输入输出长度、以及并发的关系。 动态性能测试:评估在请求并发在一定范围内波动,且输入输出长度也在一定范围内变化时,模型的延迟和吞吐。该场景能模拟实际业务下动态的发送不同长度请求,能评估推理框架在实际业务中能支持的并发数。 性能benchmark验证使用到的脚本存放在代码包AscendCloud-3rdLLM-x.x.x.zip的llm_evaluation目录下。 代码目录如下: benchmark_tools ├── benchmark_parallel.py # 评测静态性能脚本 ├── benchmark_serving.py # 评测动态性能脚本 ├── generate_dataset.py # 生成自定义数据集的脚本 ├── benchmark_utils.py # 工具函数集 ├── benchmark.py # 执行静态,动态性能评测脚本 父主题: 推理性能测试
  • 准备OBS桶 ModelArts使用对象存储服务(Object Storage Service,简称OBS)进行数据存储以及模型的备份和快照,实现安全、高可靠和低成本的存储需求。因此,在使用ModelArts之前通常先创建一个OBS桶,然后在OBS桶中创建文件夹用于存放数据。 本文档也以将运行代码以及输入输出数据存放OBS为例,请参考创建OBS桶,例如桶名:standard-llama2-13b。并在该桶下创建文件夹目录用于后续存储代码使用,例如:code 父主题: 准备资源
  • 自定义数据 用户也可以自行准备训练数据。数据要求如下: 使用标准的.json格式的数据,通过设置--json-key来指定需要参与训练的列。 请注意huggingface中的数据集具有如下this格式。可以使用–json-key标志更改数据集文本字段的名称,默认为text。在维基百科数据集中,它有四列,分别是id、url、title和text。可以指定–json-key标志来选择用于训练的列。 { 'id': '1', 'url': 'https://simple.wikipedia.org/wiki/April', 'title': 'April', 'text': 'April is the fourth month...' }
  • Alpaca数据 Alpaca是由OpenAI的text-davinci-003引擎生成的包含52k条指令和演示的数据集。这些指令数据可以用来对语言模型进行指令调优,使语言模型更好地遵循指令。 预训练数据集下载:https://huggingface.co/datasets/tatsu-lab/alpaca/resolve/main/data/train-00000-of-00001-a09b74b3ef9c3b56.parquet,数据大小:24M左右。 增量预训练、LoRA微调训练数据集下载: http://github.com/tatsu-lab/stanford_alpaca/blob/main/alpaca_data.json,数据大小:22M左右。
  • 准备数据集 准备数据集,例如根据Alpaca数据部分给出的预训练数据集、增量预训练、LoRA微调训练数据集下载链接下载数据集。 参考OBS文档在准备OBS桶创建的桶下创建文件夹用以存放数据,例如在桶standard-llama2-13b中创建文件夹alpaca。 参考文档利用OBS-Browser-Plus工具将步骤1下载的数据集上传至步骤2创建的文件夹目录下。得到OBS下数据集结构: obs://standard-llama2-13b/alpaca/llama2-13B/ ├── alpaca_data.json ├── train-00000-of-00001-a09b74b3ef9c3b56.parquet
  • IndexPut算子替换 在tensor类型的赋值和切片操作时,会使用IndexPut算子执行,一般都在AICPU上执行,可以转换为等价的tensor操作转换到CUBE单元上执行。例如: masked_input[input_mask] = 01 建议替换为: masked_input *= ~input_mask 1 此处是将IndexPut的masked_input是float类型的tensor数据,input_mask是和masked_input shape 一致的bool类型tensor或者01矩阵。由于是赋0操作,所以先对input_mask 取反后再进行乘法操作。 以赋0操作为例,在shape = (512, 32, 64) 类型float32 数据上测试,替换前耗时: 9.639978408813477 ms,替换之后耗时为 0.1747608184814453 ms Profiling分析算子下发发现,替换前:总体耗时在9.902ms,Host下发到device侧执行5个算子,其中aclnnIndexPutImpl_IndexPut_IndexPut是执行在 AICPU上。 图3 替换前 替换后:总体耗时226.131us。下发三个执行算子,均执行在AI CORE上。 图4 替换后
  • ArgMin算子优化 ArgMin在CANN 6.3 RC2 版本上 算子下发到 AICPU执行,在 CANN 7.0RC1上下发到AI_CORE 上边执行。出现此类情形建议升级 CANN 包版本。 在 shape 大小是 (1024, 1024) 的 tensor 上测试,结果如下: CANN 6.3.RC2上,单算子执行时间 2.603 ms。 图5 单算子执行时间(CANN 6.3.RC2) CANN7.0 RC1上,单算子执行时间 223.516 us。 图6 单算子执行时间(CANN7.0 RC1)
  • 权重和词表文件介绍 下载完毕后的HuggingFace原始权重文件包含以下内容,此处以llama2-13B为例。 llama2-13B ├── config.json ├── generation_config.json ├── gitattributes.txt ├── LICENSE.txt ├── Notice.txt ├── pytorch_model-00001-of-00003.bin ├── pytorch_model-00002-of-00003.bin ├── pytorch_model-00003-of-00003.bin ├── pytorch_model.bin.index.json ├── README.md ├── special_tokens_map.json ├── tokenizer_config.json ├── tokenizer.json ├── tokenizer.model └── USE_POLICY.md 参考OBS文档在准备OBS桶创建的桶下创建文件夹用以存放权重和词表文件,例如在桶standard-llama2-13b中创建文件夹llama2-13B-chat-hf。 参考文档利用OBS-Browser-Plus工具将步骤1下载的权重文件上传至步骤2创建的文件夹目录下。 得到OBS下数据集结构: obs://standard-llama2-13b/llama-2-13b-chat-hf/ ├── config.json ├── generation_config.json ├── gitattributes.txt ├── LICENSE.txt ├── Notice.txt ├── pytorch_model-00001-of-00003.bin ├── pytorch_model-00002-of-00003.bin ├── pytorch_model-00003-of-00003.bin ├── pytorch_model.bin.index.json ├── README.md ├── special_tokens_map.json ├── tokenizer_config.json ├── tokenizer.json ├── tokenizer.model └── USE_POLICY.md
  • 修订记录 发布日期 修订记录 2024-04-30 第六十九次正式发布。 本次更新说明如下: 刷新配置双端固定章节相关内容。 2024-01-15 第六十八次正式发布。 本次更新说明如下: 配置双端固定章节示例三增加桶策略配置样例2。 2023-12-28 第六十七次正式发布。 本次更新说明如下: 配置双端固定章节增加配置样例。 2023-11-16 第六十六次正式发布。 本次更新说明如下: 配置WORM章节新增手动彻底删除WORM对象和配置生命周期规则删除WORM对象操作描述。 2023-11-15 第六十五次正式发布。 本次更新说明如下: 刷新对象存储服务监控指标说明章节监控指标。 2023-11-13 第六十四次正式发布。 本次更新说明如下: 配置静态网站托管章节新增桶策略列表页面截图,优化配置参数描述。 2023-10-25 第六十三次正式发布。 本次更新说明如下: 刷新删除弹窗相关内容。 2023-10-23 第六十二次正式发布。 本次更新说明如下: 刷新配置数据回源规则章节内容,补充说明源站透传客户端支持的HTTP header列表。 2023-10-16 第六十一次正式发布。 本次更新说明如下: 刷新搜索对象或文件夹章节内容。 刷新对象列表相关页面截图。 2023-10-11 第六十次正式发布。 本次更新说明如下: 在线解压功能新增开放区域“亚太-新加坡”。 2023-09-27 第五十九次正式发布。 新增查看桶策略解析结果章节。 2023-09-26 第五十八次正式发布。 对象存储服务监控指标说明刷新请求类监控指标。 2023-09-12 第五十七次正式发布。 在线解压功能由公测阶段转商用阶段。 2023-09-08 第五十六次正式发布。 刷新使用模板创建桶策略章节内容。 刷新自定义创建桶策略(可视化视图)章节内容。 刷新配置静态网站托管章节桶策略配置内容。 2023-09-06 第五十五次正式发布。 刷新查看桶的信息章节内容。 刷新配置桶ACL章节内容。 刷新配置对象ACL章节内容。 2023-07-31 第五十四次正式发布。 本次更新说明如下: 优化约束与限制。 2023-07-18 第五十三次正式发布。 本次更新说明如下: 优化桶列表结构和功能。 2023-06-28 第五十二次正式发布。 本次更新说明如下: 对象存储服务监控指标说明新增监控指标“cdn回源带宽”和“cdn回源流量”,新增HTTP状态码“499”和“650”。 2023-06-25 第五十一次正式发布。 本次更新说明如下: 优化文档目录结构。 2023-06-21 第五十次正式发布。 本次更新说明如下: SSE-KMS加密方式新增SM4加密算法选择项。 2023-05-30 第四十九次正式发布。 本次更新说明如下: 管理资源包章节新增升配资源包内容。 2023-05-15 第四十八次正式发布。 本次更新说明如下: 新增配置双端固定章节。 2023-05-12 第四十七次正式发布。 本次更新说明如下: 新增SSE-OBS服务端加密方式相关内容。 2023-04-28 第四十六次正式发布。 本次更新说明如下: 刷新域名管理相关内容。 2023-04-27 第四十五次正式发布。 本次更新说明如下: 刷新直接分享文件夹相关内容。 2023-04-23 第四十四次正式发布。 本次更新说明如下: 新增配置WORM章节。 2023-02-06 第四十三次正式发布。 本次更新说明如下: 新增配置加速域名章节。 2023-02-02 第四十二次正式发布。 本次更新说明如下: 新增创建刷新策略章节。 2023-01-13 第四十一次正式发布。 本次更新说明如下: 下线SMN通知功能。 2022-12-27 第四十次正式发布。 本次更新说明如下: 刷新深度归档存储(受限公测中)相关章节。 2021-08-25 第三十九次正式发布。 本次更新说明如下: 新增桶配置信息复制功能。 2021-04-17 第三十八次正式发布。 本次更新说明如下: 新增部分请求和存储类监控指标。 2020-12-16 第三十七次正式发布。 本次更新说明如下: 桶策略配置流程优化改版。 2020-09-10 第三十六次正式发布。 本次更新说明如下: 新增Data+特性相关说明。 2020-09-05 第三十五次正式发布。 本次更新说明如下: 新增深度归档存储相关说明。 2020-06-30 第三十四次正式发布。 本次更新说明如下: 新增镜像回源特性相关说明。 2020-01-20 第三十三次正式发布。 本次更新说明如下: 更新IAM权限相关说明。 2019-12-31 第三十二次正式发布。 本次更新说明如下: 更新控制台界面风格。 2019-12-25 第三十一次正式发布。 本次更新说明如下: 新增了桶加密功能。 2019-11-30 第三十次正式发布。 本次更新说明如下: 更新IAM策略相关说明。 2019-08-14 第二十九次正式发布。 本次更新说明如下: 跨区域复制中新增了同步历史对象功能。 2019-07-18 第二十八次正式发布。 本次更新说明如下: 新增了归档数据直读的功能。 2019-06-28 第二十七次正式发布。 本次更新说明如下: 新增了桶清单的功能。 2019-06-13 第二十六次正式发布。 本次更新说明如下: 新增了批量上传文件的功能。 2019-05-22 第二十五次正式发布。 本次更新说明如下: 更新了权限控制描述。 2019-04-19 第二十四次正式发布。 本次更新说明如下: 桶的访问权限增加了应用示例三~五。 对象的访问权限增加了应用示例二。 更新了对象元数据Content-Type介绍。 2019-03-18 第二十三次正式发布。 本次更新说明如下: 增加了OBS访问权限控制的描述。 2019-01-29 第二十二次正式发布。 本次更新说明如下: 更新了日志记录、标签、事件通知、生命周期管理、静态网站托管、跨域资源共享和防盗链的配置步骤。 更新了“无法在浏览器中打开对象URL”的原因。 2019-01-04 第二十一次正式发布。 本次更新说明如下: 软件框架更新,同步更新了日志记录、标签、事件通知、生命周期管理、静态网站托管、跨域资源共享和防盗链的配置步骤。 增加了桶策略应用示例一和二。 增加了任务管理功能操作描述。 2018-11-30 第二十次正式发布。 本次更新说明如下: 更新了桶信息界面参数。 更新了“多版本控制”功能的配置入口。 新增了批量修改对象存储类别功能。 增加了“对象策略”功能。 更新了对象元数据。 2018-11-16 第十九次正式发布。 本次更新说明如下: 新增了复制对象路径功能。 2018-10-31 第十八次正式发布。 本次更新说明如下: “创建桶”新增了“多AZ”配置。 2018-10-19 第十七次正式发布。 本次更新说明如下: 更新了多版本控制简介。 事件通知增加说明:“文件夹是以“/”结尾的,“/”前的字符为文件夹名称。对文件夹的相关操作做事件通知时,如果要匹配后缀,后缀必须以“/”结尾”。 2018-10-10 第十六次正式发布。 本次更新说明如下: 更新了桶级监控内容。 更新了界面截图。 2018-09-21 第十五次正式发布。 本次更新说明如下: 更新了自定义域名绑定介绍。 更新了日志记录参数描述。 更新了界面截图。 2018-08-31 第十四次正式发布。 本次更新说明如下: 更新了多版本对象操作入口。 更新了界面截图。 2018-08-15 第十三次正式发布。 本次更新说明如下: 自定义域名绑定增加了CDN加速功能。 更新了界面截图。 2018-07-30 第十二次正式发布。 本次更新说明如下: 更新了桶策略描述和配置。 增加了文件分享功能。 更新了界面截图。 2018-07-15 第十一次正式发布。 本次更新说明如下: 增加了云审计功能。 更新了界面截图。 2018-06-30 第十次正式发布。 本次更新说明如下: 增加了tag功能。 增加了用户权限配置步骤。 更新了界面截图。 2018-06-08 第九次正式发布。 本次更新说明如下: 增加了Cloud Eye管理控制台监控指标。 2018-05-31 第八次正式发布。 本次更新说明如下: 增加了多版本控制开启后,取消删除文件操作步骤。 增加了多版本控制开启后,多版本文件操作步骤。 增加了自定义域名绑定功能。 增加了创建密钥截图。 更新了界面截图。 2018-04-30 第七次正式发布。 本次更新说明如下: 更新了跨区域复制配置步骤。 增加了桶级监控。 更新了桶和对象ACL描述和配置。 更新了重定向描述。 更新了界面截图。 2018-04-15 第六次正式发布。 本次更新说明如下: 增加跨区域复制。 更新了界面截图。 2018-03-16 第五次正式发布。 本次更新说明如下: 增加流量监控功能。 增加了对象级存储类别。 增加了修改桶和对象的存储类别的功能。 购买指南中删除计费介绍和计费案例,详细的服务资费费率标准请参见价格说明。 更新了界面截图。 2017-12-20 第四次正式发布。 本次更新说明如下: 在《控制台指南》中增加如下内容: “配置事件通知”中增加多项目。 “出现“客户端与服务器的时间相差15分钟”的报错”章节。 创建桶时增加了一键式设置桶策略功能。 2017-10-30 第三次正式发布。 本次更新说明如下: 在《控制台指南》的“查看桶的基本信息”中增加“Endpoint”和“访问域名”。 在《控制台指南》的“通过对象(URL)访问对象”中修改URL的格式。 在《控制台指南》的“配置桶策略”中增加了一键式配置通用策略。 在《控制台指南》的“异常处理”中增加“配置事件通知失败”章节。 在《购买指南》中删除余额小于100的限制。 在《快速入门》的“注册云服务账号”中删除“隐私保护”。 2017-09-28 第二次正式发布。 本次更新说明如下: 在《产品简介》中增加“文档导读”。 在《快速入门》中增加“相关操作”。 在《控制台指南》中修改“配置桶策略”章节、新增“动作和条件的详细解释”章节。 2017-08-20 第一次正式发布。
  • 配置加速域名 使用CDN加速域名后,可配置网站加速、文件下载加速和点播加速。详细应用场景请参见应用场景。通过CDN实现OBS文件下载加速的详细配置方法请参见最佳实践。 CDN加速需收费,具体请参见CDN价格说明。同时OBS提供更加优惠的回源流量包,可以减少CDN加速场景下获取数据时产生的流量费用。 CDN加速非实时生效,配置域名后请刷新域名管理列表查看状态。只有当CNAME域名状态为“已开启”时,才表示CDN加速生效。 如果开启了自动刷新缓存,在CNAME域名状态变为“已开启”后,还需要等待最长约5分钟,自动刷新缓存配置才生效。 在OBS管理控制台左侧导航栏选择“桶列表”。 在OBS管理控制台桶列表中,单击待操作的桶,进入“对象”页面。 在左侧导航栏选择“域名管理”,进入“域名管理”界面。 图1 域名管理界面 单击页面上方的“配置加速域名”,如果没有绑定自定义域名也可以在页面下方的配置加速域名卡片中单击“配置加速域名”,弹出“配置加速域名”页面,如图2所示。 如果还没有开通CDN服务,单击“配置加速域名”后会出现弹窗,根据弹窗提示,单击开通CDN服务。 图2 配置加速域名 选择“服务范围”,选择“业务类型”,设置“加速域名”,单击“确定加速”。如果您在填写加速域名时,需要OBS控制台为您呈现已有华为云域名下拉列表,您想要在下拉列表中直接点选,则您需要拥有域名注册服务Domains的Domains:domains:getDetails权限,请联系管理员使用IAM为您授权。如果无该权限,您需要手动输入加速域名。 如果您的OBS桶开启了静态网站托管功能,请在配置CDN加速域名时勾选“静态网站托管”,这样用户访问时就不会显示桶中所有文件列表。 根据页面提示,支持单击“一键解析”,或手动完成解析CNAME,单击右下角的“我已了解”,如图3所示。 华为云域名支持一键解析添加CNAME记录;非华为云域名不支持一键解析,请用户自行配置解析规则。 图3 解析CNAME 如果您绑定了域名,还可以在域名管理列表,找到需要开启加速的域名卡片,单击“开启加速”,后续具体操作请参见上文内容。 图4 加速域名 父主题: 数据访问
  • 一站式接入 场景介绍 一站式接入购买物理连接,指华为云向用户提供整合基础运营商网络资源和端口的一站式上云服务。 整体接入流程请参考图4 一站式接入功能目前已开通区域:华北-北京一、华北-北京四、华东-上海一、华东-上海二、华南-广州、华南-深圳、西南-贵阳一。 图4 一站式物理连接接入流程 操作步骤 提交需求信息。 登录控制台,选择并进入云专线服务,在物理连接页面单击 “一站式接入”,进入物理连接需求信息页面。 根据界面提示,在物理连接需求信息页面配置机房信息、华为云接入点等信息,详细请参照表3输入相关参数。 图5 一站式接入 表3 购买物理连接参数 参数 说明 您的机房地址 用户填写机房地址,需要精确到房间和机柜号。例如上海市浦东新区华京路xx号xx楼xx机房xx机柜。 可进线的专线运营商 用户机房允许进线的运营商。 设备端口类型 用户机房出口设备的端口类型,物理线路会连接到此端口。 区域 物理连接开通的区域。用户可以在管理控制台左上角或购买页面切换区域。 华为云接入点 物理连接接入点的位置。 端口类型 物理连接接入端口的类型:1GE,10GE、40GE、100GE。 物理连接名称 用户将要创建的物理连接的名称(可自定义)。 专线带宽 物理连接的带宽大小,请在下拉框中选择对应的带宽。 计费模式 专线服务付费方式,目前仅支持包年方式付费。 购买时长 购买服务的时长。 企业项目 企业项目是一种云资源管理方式,企业项目管理服务提供统一的云资源按项目管理,以及项目内的资源管理、成员管理。 联系人姓名 用户侧专线负责人姓名。 联系人手机 用户侧专线负责人手机号码。 联系人Email 用户侧专线负责人邮箱地址。 单击“提交”。 华为云工勘。 华为云评估用户需求和运营商资源,与用户确认可满足用户需求的产品信息,回填信息后将订单返回给用户。 华为云工勘一般需要3个工作日。 确认配置支付订单。 在物理连接页面,单击目标物理连接操作列的“确认配置”。 在确认配置页面,确认物理连接配置方案和费用信息,单击“立即支付”。 用户在购买前须阅读并接受《一站式接入服务声明》,并在确认配置页面中勾选。 在购买页面,选择付款方式,单击“确认付款”。 用户选择“申请线上合同请款后支付”时,前往合同页面中申请并下载合同,线下申请款项后再完成支付;您已选择的折扣优惠会保存至相应的待支付订单。 华为云施工。 运营商线路施工。 华为云与用户侧进线对接。 机房楼内线施工。 工勘回填信息为一站式接入高级且包括楼内线产品时涉及机房楼内线施工。 端口开通。 开通确认。 在物理连接页面,单击目标物理连接操作列的“确认施工完成”。 在弹窗中,单击“确认”。确认物理连接已创建完成,华为云开始计费。
  • 操作场景 当物理连接创建成功后,您可以查看已添加的标签,还可以添加、编辑以及删除标签。 标签是物理连接的标识,包括键和值。可以为物理连接创建20个标签。 如果已经通过TMS的预定义标签功能预先创建了标签,则可以直接选择对应的标签键和值。 预定义标签的详细内容,请参见预定义标签简介。 如您的组织已经设定云专线服务的相关标签策略,则需按照标签策略规则为物理连接添加标签。标签如果不符合标签策略的规则,则可能会导致物理连接创建失败,请联系组织管理员了解标签策略详情。
  • 修订记录 发布日期 修改说明 2024-04-30 第二十六次正式发布。文档内容更新如下: 增加全球接入网关 根据控制台最新样式全文更新操作截图 2023-10-30 第二十五次正式发布。文档内容更新如下: 表1增加“bgp_receive_route_num_v4”、“bgp_receive_route_num_v6”。 2023-06-15 第二十四次正式发布。文档内容更新如下: 创建虚拟接口参数表增加参数“虚拟接口优先级”。 用户通过单专线静态路由访问VPC、用户通过单专线BGP协议访问VPC、用户通过双专线双接入点BGP协议访问VPC、用户通过云专线访问多个VPC 章节虚拟接口参数表增加参数“虚拟接口优先级”。 2023-05-05 第二十三次正式发布。文档内容更新如下: 增加云专线倒换测试 增加物理专线带宽测试方法 2022-11-30 第二十二次正式发布。文档内容更新如下: 快速入门:更新“入门指引”、“准备工作”、“物理连接接入”中物理连接配置流程相关内容。 2022-08-30 第二十一次正式发布。文档内容更新如下: 增加网络拓扑图 2022-06-30 第二十次正式发布。文档内容更新如下: 支持使用标签标识物理连接。 2021-05-30 第十九次正式发布。文档内容更新如下: 整体优化文档。 2021-01-30 第十八次正式发布。文档内容更新如下: 快速入门:“创建虚拟端口”增加参数配置说明。 用户指南:“创建跨账号虚拟接口”增加参数配置说明。 常见问题:增加“1GE和10GE是什么意思?两者有什么区别?” 整体优化文档。 2020-06-30 第十七次正式发布。文档内容更新如下: 快速入门:“物理连接接入”。 最佳实践。 常见问题。 2020-05-30 第十六次正式发布。文档内容更新如下: 产品介绍:“专线接入点”。 快速入门:“流程简介”、“准备工作”。 用户指南:“监控”。 常见问题:整合分类优化。 2020-04-30 第十五次正式发布。文档内容更新如下: 产品介绍:“网络规划”、“计费说明”。 快速入门:“准备工作”。 常见问题。 2020-03-30 第十四次正式发布。文档内容更新如下: 更新“产品概述”、“网络规划”“监控”。 新增“计费说明”、“准备工作”。 新增用户常见问题。 整体优化文档。 2020-02-29 第十三次正式发布。文档内容更新如下: 整体优化文档。 更新用户常见问题。 2019-12-30 第十二次正式发布。文档内容更新如下: 更新快速入门:物理连接接入。 更新用户指南:修改物理连接。 新增常见问题:购买云专线,怎样选择运营商? 更新价格说明。 2019-11-30 第十一次正式发布。文档内容更新如下: 增加一站式接入流程。 更新快速入门和用户指南。 新增常见问题:云专线《一站式接入服务声明》的内容是什么? 2019-10-30 第十次正式发布。文档内容更新如下: 增加监控 更新物理连接接入流程。 优化最佳实践。 2019-09-30 第九次正式发布。文档内容更新如下: 整体优化文档。 更新用户常见问题。 2019-07-30 第八次正式发布。文档内容更新如下: 更新云专线操作流程。 2019-05-07 第七次正式发布。文档内容更新如下: 整体优化文档。 2018-08-30 第六次正式发布。文档内容更新如下: 新增云专线自动化特性。 2018-05-30 第五次正式发布。文档内容更新如下: 增加记录云专线章节。 2017-10-30 第四次正式发布。文档内容更新如下: 根据最新管理控制台界面刷新查看云专线详情和修改云专线的步骤。 2017-07-30 第三次正式发布。文档内容更新如下: 在开通云专线时,新增参数“项目名称”。 2017-04-28 第二次正式发布。 新增以下FAQ: 云专线是否支持续订?怎么续订? 云专线如何退订? 云专线冻结后,是否可以正常使用? 2016-10-19 第一次正式发布。
  • 应用场景 云下用户数据中心和云上不同区域的VPC互通 全球接入网关与中心网络下的不同区域的企业路由器通过华为云骨干网络搭建连接,降低时延,简化网络拓扑,降低网络管理难度,提升网络运维效率。 图1 全球接入网关与不同区域的VPC互通 云下用户数据中心和云上同区域的VPC互通 全球接入网关与同区域的企业路由器通过华为云骨干网络搭建连接,降低时延,简化网络拓扑,降低网络管理难度,提升网络运维效率。 图2 全球接入网关与同区域的VPC互通
  • 操作场景 当全球接入网关创建成功后,您可以查看已添加的标签,还可以添加、编辑以及删除标签。 标签是全球接入网关的标识,包括键和值。可以为全球接入网关创建20个标签。 如果已经通过TMS的预定义标签功能预先创建了标签,则可以直接选择对应的标签键和值。 预定义标签的详细内容,请参见预定义标签简介。 如您的组织已经设定云专线服务的相关标签策略,则需按照标签策略规则为全球接入网关添加标签。标签如果不符合标签策略的规则,则可能会导致全球接入网关创建失败,请联系组织管理员了解标签策略详情。
  • IEF权限 默认情况下,管理员创建的IAM用户没有任何权限,需要将其加入用户组,并给用户组授予策略或角色,才能使得用户组中的用户获得对应的权限,这一过程称为授权。授权后,用户就可以基于被授予的权限对云服务进行操作。 IEF部署时通过物理区域划分,为项目级服务。授权时,“作用范围”需要选择“区域级项目”,然后在指定区域(如华北-北京四)对应的项目(cn-north-4)中设置相关权限,并且该权限仅对此项目生效;如果在“所有项目”中设置权限,则该权限在所有区域项目中都生效。访问IEF时,需要先切换至授权区域。 权限根据授权精细程度分为角色和策略。 角色:IAM最初提供的一种根据用户的工作职能定义权限的粗粒度授权机制。具有Tenant Administrator系统角色的用户可以操作IEF所有资源。 策略:IAM最新提供的一种细粒度授权的能力,可以精确到具体服务的操作、资源以及请求条件等。基于策略的授权是一种更加灵活的授权方式,能够满足企业对权限最小化的安全管控要求。多数细粒度策略以API接口为粒度进行权限拆分。 如表1所示,包括了IEF的所有系统权限。 表1 IEF系统权限 系统角色/策略名称 描述 类别 依赖关系 IEF FullAccess IEF管理员权限,拥有该权限的用户可以操作并使用IEF的基本资源。注意:如需操作IEF所有资源,请配置Tenant Administrator系统角色。 系统策略 无 IEF ReadOnlyAccess IEF只读权限,拥有该权限的用户仅能查看IEF资源。 系统策略 无 表2列出了IEF常用操作与系统权限的授权关系,您可以参照该表选择合适的系统权限。 表2 常用操作与系统权限的关系 操作 IEF FullAccess IEF ReadOnlyAccess Tenant Administrator 创建/删除/修改服务实例 √ x √ 查看服务实例 √ √ √ 切换实例 √ √ √ 创建/删除/修改边缘节点 √ x √ 查看边缘节点 √ √ √ 创建/删除/修改边缘节点组 √ x √ 查看边缘节点组 √ √ √ 创建/删除/修改边缘容器应用 √ x √ 查看边缘容器应用 √ √ √ 创建/删除/修改设备 √ x √ 查看设备 √ √ √ 创建/删除/修改应用部署 √ x √ 查看应用部署 √ √ √ 创建/删除/修改应用模板 √ x √ 查看应用模板 √ √ √ 创建/删除/修改节点注册作业 √ x √ 查看节点注册作业 √ √ √ 创建/删除/修改消息端点 √ x √ 查看消息端点 √ √ √ 创建/删除/修改消息路由 √ x √ 查看消息路由 √ √ √ 创建/删除/修改批量作业 √ x √ 查看批量作业 √ √ √ 创建/删除/修改配置项 √ x √ 查看配置项 √ √ √ 创建/删除/修改密钥 √ x √ 查看密钥 √ √ √ 创建/删除/修改加密数据 √ x √ 查看加密数据 √ √ √ 创建/删除/修改系统订阅 √ x √ 查看系统订阅 √ √ √ 创建/删除/修改插件 √ x √ 查看插件 √ √ √
  • 为什么选择智能边缘平台 云计算是集中化的,离终端设备(如摄像头、传感器等)较远,对于实时性要求高的计算需求,把计算放在云上会引起网络延时变长、网络拥塞、服务质量下降等问题。而终端设备通常计算能力不足,无法与云端相比。在此情况下,边缘计算顺应而生,通过在靠近终端设备的地方建立边缘节点,将云端计算能力延伸到靠近终端设备的边缘节点,从而解决上述问题。 智能边缘平台(Intelligent EdgeFabric)通过纳管您的边缘节点,提供将云上应用延伸到边缘的能力,联动边缘和云端的数据,满足客户对边缘计算资源的远程管控、数据处理、分析决策、智能化的诉求,同时,在云端提供统一的边缘节点/应用监控、日志采集等运维能力,为企业提供边、云协同的一体化边缘计算解决方案。
共100000条