日本熟妇hd丰满老熟妇,中文字幕一区二区三区在线不卡 ,亚洲成片在线观看,免费女同在线一区二区

GetSparkAppLog - 查詢Spark應(yīng)用日志

更新時(shí)間:

查詢Spark應(yīng)用的日志。

接口說(shuō)明

  • 地域的公網(wǎng)接入地址:adb.<region-id>.aliyuncs.com。示例:adb.cn-hangzhou.aliyuncs.com
  • 地域的 VPC 接入地址:adb-vpc.<region-id>.aliyuncs.com。示例:adb-vpc.cn-hangzhou.aliyuncs.com
說(shuō)明 如果華北 1(青島)、華南 1(深圳)、華南 3(廣州)、中國(guó)香港發(fā)起請(qǐng)求時(shí),遇到 409 錯(cuò)誤,請(qǐng)聯(lián)系技術(shù)支持。

調(diào)試

您可以在OpenAPI Explorer中直接運(yùn)行該接口,免去您計(jì)算簽名的困擾。運(yùn)行成功后,OpenAPI Explorer可以自動(dòng)生成SDK代碼示例。

授權(quán)信息

下表是API對(duì)應(yīng)的授權(quán)信息,可以在RAM權(quán)限策略語(yǔ)句的Action元素中使用,用來(lái)給RAM用戶或RAM角色授予調(diào)用此API的權(quán)限。具體說(shuō)明如下:

  • 操作:是指具體的權(quán)限點(diǎn)。
  • 訪問(wèn)級(jí)別:是指每個(gè)操作的訪問(wèn)級(jí)別,取值為寫(xiě)入(Write)、讀取(Read)或列出(List)。
  • 資源類型:是指操作中支持授權(quán)的資源類型。具體說(shuō)明如下:
    • 對(duì)于必選的資源類型,用背景高亮的方式表示。
    • 對(duì)于不支持資源級(jí)授權(quán)的操作,用全部資源表示。
  • 條件關(guān)鍵字:是指云產(chǎn)品自身定義的條件關(guān)鍵字。
  • 關(guān)聯(lián)操作:是指成功執(zhí)行操作所需要的其他權(quán)限。操作者必須同時(shí)具備關(guān)聯(lián)操作的權(quán)限,操作才能成功。
操作訪問(wèn)級(jí)別資源類型條件關(guān)鍵字關(guān)聯(lián)操作
adb:GetSparkAppLogget
*DBClusterLakeVersion
acs:adb:{#regionId}:{#accountId}:dbcluster/{#DBClusterId}/resourcegroup/{#ResourceGroup}/sparkapp/{#SparkAppId}
    無(wú)
無(wú)

請(qǐng)求參數(shù)

名稱類型必填描述示例值
AppIdstring

應(yīng)用 ID。

說(shuō)明 調(diào)用 ListSparkApps 接口查詢 Spark 應(yīng)用的 ID。
s202206061441hz22a35ab000****
LogLengthlong

日志的行數(shù)。取值范圍為 1~500,默認(rèn)值為 300。

20
DBClusterIdstring

企業(yè)版、基礎(chǔ)版或湖倉(cāng)版集群 ID。

說(shuō)明 您可以調(diào)用 DescribeDBClusters 接口查看目標(biāo)地域下所有集群的集群 ID。
amv-2ze6fl8ud7t***
PageNumberinteger

讀取日志的頁(yè)碼號(hào)。

1
PageSizeinteger

單頁(yè)數(shù)據(jù)行數(shù)。

500

返回參數(shù)

名稱類型描述示例值
object
RequestIdstring

請(qǐng)求 ID。

C3A9594F-1D40-4472-A96C-8FB8AA20D38C
Dataobject

日志詳情。

LogContentstring

日志內(nèi)容。

22/04/22 15:30:49 INFO Utils: Start the dump task because s202206061441hz22a35ab000****-0001 app end, the interval is 238141ms;22/04/22 15:30:49 INFO AbstractConnector: Stopped Spark@5e774d9d{HTTP/1.1, (http/1.1)}{0.0.0.0:4040}
Messagestring

返回告警信息,如任務(wù)執(zhí)行失敗或資源不足等,無(wú)告警時(shí)則返回為空。

WARNING: log file maybe deleted, please check oss path: oss://TestBucketName/applog/
DBClusterIdstring

企業(yè)版、基礎(chǔ)版或湖倉(cāng)版集群 ID。

amv-clusterxxx
LogSizeinteger

日志的行數(shù),0 代表沒(méi)有有效日志。

3517972480

示例

正常返回示例

JSON格式

{
  "RequestId": "C3A9594F-1D40-4472-A96C-8FB8AA20D38C",
  "Data": {
    "LogContent": "22/04/22 15:30:49 INFO Utils: Start the dump task because s202206061441hz22a35ab000****-0001 app end, the interval is 238141ms;22/04/22 15:30:49 INFO AbstractConnector: Stopped Spark@5e774d9d{HTTP/1.1, (http/1.1)}{0.0.0.0:4040}",
    "Message": "WARNING:  log file maybe deleted, please check oss path: oss://TestBucketName/applog/",
    "DBClusterId": "amv-clusterxxx",
    "LogSize": 3517972480
  }
}

錯(cuò)誤碼

HTTP status code錯(cuò)誤碼錯(cuò)誤信息描述
400Spark.InvalidStateThe object of the operation is in an invalid state: %s操作對(duì)象處于非合法狀態(tài)。
400Spark.InvalidParameterInvalid parameter value: %s輸入?yún)?shù)不正確: %s。
400Spark.RoleArn.Invalid%s is not found, or the RAM role has not been authorized.RoleArn不存在或子賬號(hào)未授權(quán)。
400Spark.Oss.InternalErrorAn OSS internal error occurred: %sOSS內(nèi)部錯(cuò)誤,請(qǐng)求失敗。
400Spark.Log.IllegalPathInvalid job log URI: %s.配置的Spark日志路徑不合法:%s。
400Spark.AnalyzeTask.AppStateNotAcceptedOnly Spark applications in the terminated state can be analyzed. The specified application %s does not meet the requirement.只允許分析處于終止?fàn)顟B(tài)的 Spark app。指定 app 不滿足條件。
400Spark.AnalyzeTask.FailedToKillFailed to terminate the Spark log analysis task %s, because the task status has changed. Obtain the latest status and try again.殺死Spark日志分析任務(wù)的請(qǐng)求執(zhí)行失敗,因?yàn)閷?duì)應(yīng)任務(wù)狀態(tài)已經(jīng)發(fā)生了變化。請(qǐng)獲取分析任務(wù)最新?tīng)顟B(tài)后執(zhí)行。
400Spark.AnalyzeTask.InvalidStateWhenAnalyzingAppOnly logs of Spark applications in the terminated state can be analyzed. The specified application %s does not meet the requirement.僅允許針對(duì)處于終止?fàn)顟B(tài)的Spark作業(yè)執(zhí)行日志分析程序。當(dāng)前作業(yè)不滿足條件。
400Spark.App.InvalidResourceSpecThe requested resource type is not supported:\n %s-
400Spark.App.ParameterConflictConflicting parameters submitted:\n %s-
400Spark.Config.invalidConnectorsThe spark.adb.connectors configuration is invalid: %sspark.adb.connectors配置不正確。
400Spark.Config.RoleArnVerifyFailedRoleARN parameter verification failed. Error msg: %s when verify RoleArn %sRoleARN參數(shù)校驗(yàn)失敗。
400Spark.Log.InvalidStateFailed to obtain the logs of the Spark job %s in the %s state.無(wú)法獲取指定Spark作業(yè)的日志。
400Spark.SQL.NotFoundExecutableSQLErrorNo executable statements are submitted. Please check the input SQL.Spark作業(yè)的SQL信息中不包含可執(zhí)行語(yǔ)句。
400Spark.SQL.ParserErrorFailed to parse the SQL %s. Error message: %s.Spark作業(yè)信息中的SQL無(wú)法解析。
403Spark.ForbiddenNo permissions to access the resources: %s權(quán)限不足,拒絕訪問(wèn)相關(guān)資源。您當(dāng)前申請(qǐng)?jiān)L問(wèn)的信息是:%s。
404Spark.Log.PodLogNotFoundCan't find logs of the pod by podName[%s] in the namespace[%s].無(wú)法通過(guò)podName找到對(duì)應(yīng)pod的日志 [%s]。
404Spark.AnalyzeTask.NotFoundThe requested analysis task %s is not found.請(qǐng)求查看的日志分析任務(wù) %s 不存在。
404Spark.App.ContentNotFoundThe requested content %s of the Spark application is not found.找不到指定Spark作業(yè)的提交內(nèi)容。
404Spark.ObjectNotFoundThe object is not found. More information: %s操作對(duì)象不存在。關(guān)聯(lián)信息:%s。
404Spark.TemplateFile.FileNotFoundThe template file %s is not found.未能找到輸入的模板文件。
404Spark.TemplateFile.TemplateNotFoundThe template %s is not found.模板文件未找到。
500Spark.ServerErrorThe Spark control component system encountered an error, please create a ticket to solve the problem or concat the supported engineer on duty. Error message: %sSpark管控組件系統(tǒng)遇到錯(cuò)誤,請(qǐng)?zhí)峤还危蚵?lián)系值班工程師。

訪問(wèn)錯(cuò)誤中心查看更多錯(cuò)誤碼。

變更歷史

變更時(shí)間變更內(nèi)容概要操作
2024-01-18OpenAPI 錯(cuò)誤碼發(fā)生變更、OpenAPI 入?yún)l(fā)生變更、OpenAPI 返回結(jié)構(gòu)發(fā)生變更查看變更詳情
2023-11-24OpenAPI 錯(cuò)誤碼發(fā)生變更、OpenAPI 入?yún)l(fā)生變更查看變更詳情
2023-06-28OpenAPI 錯(cuò)誤碼發(fā)生變更查看變更詳情