日本熟妇hd丰满老熟妇,中文字幕一区二区三区在线不卡 ,亚洲成片在线观看,免费女同在线一区二区

GetSparkAppMetrics - 查詢Spark App指標數據

更新時間:

獲取Spark App指標數據。

接口說明

  • 地域的公網接入地址:adb.<region-id>.aliyuncs.com。示例:adb.cn-hangzhou.aliyuncs.com
  • 地域的 VPC 接入地址:adb-vpc.<region-id>.aliyuncs.com。示例:adb-vpc.cn-hangzhou.aliyuncs.com
說明 如果華北 1(青島)、華南 1(深圳)、華南 3(廣州)、中國香港發起請求時,遇到 409 錯誤,請聯系技術支持。

調試

您可以在OpenAPI Explorer中直接運行該接口,免去您計算簽名的困擾。運行成功后,OpenAPI Explorer可以自動生成SDK代碼示例。

授權信息

下表是API對應的授權信息,可以在RAM權限策略語句的Action元素中使用,用來給RAM用戶或RAM角色授予調用此API的權限。具體說明如下:

  • 操作:是指具體的權限點。
  • 訪問級別:是指每個操作的訪問級別,取值為寫入(Write)、讀取(Read)或列出(List)。
  • 資源類型:是指操作中支持授權的資源類型。具體說明如下:
    • 對于必選的資源類型,用背景高亮的方式表示。
    • 對于不支持資源級授權的操作,用全部資源表示。
  • 條件關鍵字:是指云產品自身定義的條件關鍵字。
  • 關聯操作:是指成功執行操作所需要的其他權限。操作者必須同時具備關聯操作的權限,操作才能成功。
操作訪問級別資源類型條件關鍵字關聯操作
adb:GetSparkAppMetricsget
*SparkApplication
acs:adb:{#regionId}:{#accountId}:dbcluster/{#DBClusterId}/resourcegroup/{#ResourceGroup}/sparkapp/{#SparkAppId}

請求參數

名稱類型必填描述示例值
AppIdstring

應用 ID。

s202204221525hzca7d8140000003
DBClusterIdstring

企業版、基礎版或湖倉版集群 ID。

說明 您可以調用 DescribeDBClusters 接口查詢目標地域中所有集群的集群 ID。
amv-bp1ggnu61d77****

返回參數

名稱類型描述示例值
object

結構體

RequestIdstring

Id of the request

1AD222E9-E606-4A42-BF6D-8A4442913CEF
Dataobject

返回數據。

AppIdstring

應用 ID。

s202302051515shfa865f8000****
AttemptIdstring

Spark 應用的重試 ID。

s202301061000hz57d797b0000201-****
Finishedboolean

解析是否結束:

  • true:已結束。
  • false:未結束。
True
EventLogPathstring

Event 日志路徑。

oss://path/to/eventLog
ScanMetricsobject

指標數據。

OutputRowsCountlong

掃描行數。

1000
TotalReadFileSizeInBytelong

掃描字節大小。

10000

示例

正常返回示例

JSON格式

{
  "RequestId": "1AD222E9-E606-4A42-BF6D-8A4442913CEF",
  "Data": {
    "AppId": "s202302051515shfa865f8000****",
    "AttemptId": "s202301061000hz57d797b0000201-****",
    "Finished": true,
    "EventLogPath": "oss://path/to/eventLog",
    "ScanMetrics": {
      "OutputRowsCount": 1000,
      "TotalReadFileSizeInByte": 10000
    }
  }
}

錯誤碼

HTTP status code錯誤碼錯誤信息描述
400Spark.InvalidStateThe object of the operation is in an invalid state: %s操作對象處于非合法狀態。
400Spark.InvalidParameterInvalid parameter value: %s輸入參數不正確: %s。
400Spark.AnalyzeTask.AppStateNotAcceptedOnly Spark applications in the terminated state can be analyzed. The specified application %s does not meet the requirement.只允許分析處于終止狀態的 Spark app。指定 app 不滿足條件。
400Spark.AnalyzeTask.FailedToKillFailed to terminate the Spark log analysis task %s, because the task status has changed. Obtain the latest status and try again.殺死Spark日志分析任務的請求執行失敗,因為對應任務狀態已經發生了變化。請獲取分析任務最新狀態后執行。
400Spark.AnalyzeTask.InvalidStateWhenAnalyzingAppOnly logs of Spark applications in the terminated state can be analyzed. The specified application %s does not meet the requirement.僅允許針對處于終止狀態的Spark作業執行日志分析程序。當前作業不滿足條件。
400Spark.App.InvalidResourceSpecThe requested resource type is not supported:\n %s-
400Spark.App.KillOperationFailedFailed to kill the application %s, please retry in a few seconds.殺死 Spark 應用失敗,請稍后重試。
400Spark.App.ParameterConflictConflicting parameters submitted:\n %s-
400Spark.CancelNotebookStatementFailedFailed to cancel the execution of notebook statements.-
400Spark.CloseNotebookKernelFailedFailed to disable the notebook kernel.-
400Spark.Config.invalidConnectorsThe spark.adb.connectors configuration is invalid: %sspark.adb.connectors配置不正確。
400Spark.Config.RoleArnVerifyFailedRoleARN parameter verification failed. Error msg: %s when verify RoleArn %sRoleARN參數校驗失敗。
400Spark.ExecuteNotebookStatementFailedFailed to execute notebook statements.-
400Spark.GetNotebookKernelFailedFailed to start the notebook kernel. Try again later.-
400Spark.GetNotebookKernelStateFailedFailed to obtain the status of the notebook kernel.Notebook Kernel 狀態查詢失敗
400Spark.GetNotebookStatementLogFailedFailed to obtain notebook statement logs.-
400Spark.GetNotebookStatementResultFailedFailed to obtain notebook statement execution results.-
400Spark.GetNotebookStatementUiFailedFailed to obtain notebook statement UI.-
400Spark.Log.IllegalPathInvalid job log URI: %s.配置的Spark日志路徑不合法:%s。
400Spark.Log.InvalidStateFailed to obtain the logs of the Spark job %s in the %s state.無法獲取指定Spark作業的日志。
400Spark.NotebookKernelBusyToo many jobs in the notebook kernel. Try again later.-
400Spark.NotebookKernelExpiredThe notebook kernel has expired. Restart the kernel.-
400Spark.NotebookKernelInvalidStatusThe status of the notebook kernel is invalid.-
400Spark.NotebookKernelNotStartupThe notebook kernel has not been startedNotebook Kernel未啟動,請先啟動
400Spark.NotebookKernelStartingThe notebook kernel is starting. Try again later.-
400Spark.NotebookNamingDuplicateThe name of the notebook is duplicated, please change the nameNotebook命名重復,請重新命名。
400Spark.NotebookNotFoundThe notebook is not foundNotebook不存在,請聯系管理員
400Spark.NotebookParagraphMissingProgramCodeThe notebook paragraph program code is missingNotebook段落缺少執行代碼
400Spark.NotebookParagraphNotFoundThe notebook paragraph is not foundNotebook段落不存在,請聯系管理員
400Spark.NotebookParagraphNotRunningThe notebook paragraph has not been runningNotebook段落未運行,請先執行語句
400Spark.Oss.InternalErrorAn OSS internal error occurred: %sOSS內部錯誤,請求失敗。
400Spark.RoleArn.Invalid%s is not found, or the RAM role has not been authorized.RoleArn不存在或子賬號未授權。
400Spark.SQL.NotFoundExecutableSQLErrorNo executable statements are submitted. Please check the input SQL.Spark作業的SQL信息中不包含可執行語句。
400Spark.SQL.ParserErrorFailed to parse the SQL %s. Error message: %s.Spark作業信息中的SQL無法解析。
400Spark.TemplateFile.BadFileTypeThe requested template %s is not a file.請求的模板文件ID不是文件類型的。
403Spark.ForbiddenNo permissions to access the resources: %s權限不足,拒絕訪問相關資源。您當前申請訪問的信息是:%s。
404Spark.AnalyzeTask.NotFoundThe requested analysis task %s is not found.請求查看的日志分析任務 %s 不存在。
404Spark.App.ContentNotFoundThe requested content %s of the Spark application is not found.找不到指定Spark作業的提交內容。
404Spark.Log.PodLogNotFoundCan't find logs of the pod by podName[%s] in the namespace[%s].無法通過podName找到對應pod的日志 [%s]。
404Spark.ObjectNotFoundThe object is not found. More information: %s操作對象不存在。關聯信息:%s。
404Spark.TemplateFile.FileNotFoundThe template file %s is not found.未能找到輸入的模板文件。
404Spark.TemplateFile.TemplateNotFoundThe template %s is not found.模板文件未找到。
406Spark.App.KillNotAcceptableCan't kill the application %s in %s state.不能刪除處于不可刪除狀態下的 Spark 應用。
500Spark.ServerErrorThe Spark control component system encountered an error, please create a ticket to solve the problem or concat the supported engineer on duty. Error message: %sSpark管控組件系統遇到錯誤,請提交工單,或聯系值班工程師。
500Spark.Resources.LoadFileFromClasspathFailedCan't load the content from file: %s加載資源文件失敗。

訪問錯誤中心查看更多錯誤碼。

變更歷史

變更時間變更內容概要操作
2023-11-24OpenAPI 錯誤碼發生變更、OpenAPI 入參發生變更查看變更詳情
2023-06-28OpenAPI 錯誤碼發生變更查看變更詳情