コード例 #1
0
 def jsonDict(self):
     return {
         "id": self.id(),
         "startEpochSeconds": dt2Epoch(self.mStartDt),
         "endEpochSeconds": dt2Epoch(self.mEndDt),
         "tasks": [task.jsonDict() for task in self.mTasks.values()]
     }
コード例 #2
0
ファイル: MesosJob.py プロジェクト: dilip/spark_log_analyzer
 def jsonDict(self):
     return {
             "id": self.id(),
             "startEpochSeconds": dt2Epoch(self.mStartDt),
             "endEpochSeconds": dt2Epoch(self.mEndDt),
             "tasks": [task.jsonDict() for task in self.mTasks.values()]
         }
コード例 #3
0
ファイル: SparkJob.py プロジェクト: dilip/spark_log_analyzer
 def jsonDict(self):
     return {
         "startEpochSeconds": dt2Epoch(self.mStartDt),
         "endEpochSeconds": dt2Epoch(self.mEndDt),
         "durationSeconds": self.mDurationSeconds,
         "mesosJobs": [mesosJob.jsonDict() for mesosJob in self.mMesosJobs]
     }
コード例 #4
0
ファイル: SparkJob.py プロジェクト: dilip/spark_log_analyzer
 def jsonDict(self):
     return {
             "startEpochSeconds": dt2Epoch(self.mStartDt),
             "endEpochSeconds": dt2Epoch(self.mEndDt),
             "durationSeconds": self.mDurationSeconds,
             "mesosJobs": [mesosJob.jsonDict() for mesosJob in self.mMesosJobs]
         }
コード例 #5
0
ファイル: TaskRun.py プロジェクト: dilip/spark_log_analyzer
 def jsonDict(self):
     return {
             "tid": self.tid(),
             "startEpochSeconds": dt2Epoch(self.mStartDt),
             "endEpochSeconds": dt2Epoch(self.mEndDt)
         }