コード例 #1
0
    plt.ylabel(' '.join((tr.stats.channel, '-', str('%0.0f' % rngkm), 'km')),
               fontsize=15)
    plt.legend(fontsize=10)


###############################################################################
# set velocity mdel
###############################################################################
model = TauPyModel(model="iasp91")

##############################################################################
# parse eq list
##############################################################################
#gadat = parse_ga_event_query('earthquakes_export_2012-16_250.edit.csv')
evdict = parse_ga_event_query('au_ge_4.4_earthquakes_export_edit.csv')

##############################################################################
# read ga sta list
##############################################################################
'''
iris_sta_list = parse_iris_stationlist('/nas/active/ops/community_safety/ehp/georisk_earthquake/hazard/Networks/AU/gmap-stations-noarray.txt')
network = 'AU'
iris_sta_list = parse_iris_stationlist('/nas/active/ops/community_safety/ehp/georisk_earthquake/hazard/Networks/IU/iu-gmap-stations-autrim.txt')
network = 'IU'
'''
###############################################################################
# parse records
###############################################################################
outtxt = ''
"""records = 'preferred_records_edit.csv'
コード例 #2
0
mw_src = dictlist2array(cat, 'mw_src')
ml_region = dictlist2array(cat, 'ml_region')
nsah18_auth = dictlist2array(cat, 'auth')
nsah18_lats = dictlist2array(cat, 'lat')
nsah18_lons = dictlist2array(cat, 'lon')
nsah18_deps = dictlist2array(cat, 'dep')
nsah18_dt = dictlist2array(cat, 'datetime')

################################################################################
# parse updated GA catalogue
################################################################################

ga_csv = 'earthquakes_export_from_1840_sorted.csv'

# parse  csv
cat = parse_ga_event_query(ga_csv)
neac_mag = dictlist2array(cat, 'mag')
neac_magType = dictlist2array(cat, 'magType')
neac_lons = dictlist2array(cat, 'lon')
neac_lats = dictlist2array(cat, 'lat')
neac_deps = dictlist2array(cat, 'dep')
neac_dt = dictlist2array(cat, 'datetime')

# get ml zone
print('Getting MLa zone...')
neac_ml_zone = get_au_ml_zone(neac_lons, neac_lats)

################################################################################
# build arrays to append
################################################################################
コード例 #3
0
cmap = remove_last_cmap_colour(cmap)
#cmap = remove_last_cmap_colour(cmap)
cs = (cmap(arange(ncolours-1)))
'''

import matplotlib as mpl
mpl.style.use('classic')

fig = plt.figure(1, figsize=(8, 6))
ax = plt.subplot(111)

##############################################################################
# get 2012-2015
##############################################################################
#gadat = parse_ga_event_query('earthquakes_export_2012-16_250.edit.csv')
gadat = parse_ga_event_query('2014-2016_earthquakes_export.edit.csv')

eqdt = dictlist2array(gadat, 'datetime')
#mindate = dt.datetime(2012,1,1)
mindate = dt.datetime(2014, 1, 1)
ndays = max(eqdt) - mindate
difftime = eqdt - mindate

diffdays = []
for dift in difftime:
    diffdays.append(dift.days)

counts, bins = histogram(diffdays, bins=ndays.days)

cum = 0
コード例 #4
0
from io_catalogues import parse_ga_event_query
import matplotlib.pyplot as plt
from misc_tools import dictlist2array
from mapping_tools import distance
from data_fmt_tools import return_sta_data, parse_iris_stationlist, get_iris_data
import datetime as dt
from numpy import arange, array, where, zeros_like, histogram
#from gmt_tools import cpt2colormap
#from misc_tools import remove_last_cmap_colour
from os import getcwd

##############################################################################
# parse eq list
##############################################################################
#gadat = parse_ga_event_query('earthquakes_export_2012-16_250.edit.csv')
gadat = parse_ga_event_query('au_ge_4.4_earthquakes_export_edit.csv')
recent_csv = 'au_ge_4.4_earthquakes_export_recent.csv'
gadat = parse_ga_event_query(recent_csv)

##############################################################################
# read ga sta list
##############################################################################

if getcwd().startswith('/nas'):

    iris_sta_list = parse_iris_stationlist(
        '/nas/active/ops/community_safety/ehp/georisk_earthquake/hazard/Networks/AU/gmap-stations-noarray.txt'
    )
    network = 'AU'
    '''
    iris_sta_list = parse_iris_stationlist('/nas/active/ops/community_safety/ehp/georisk_earthquake/hazard/Networks/IU/iu-gmap-stations-autrim.txt')
コード例 #5
0
from io_catalogues import parse_ga_event_query
from misc_tools import listdir_extension, remove_first_cmap_colour
from numpy import array, isnan, nan, unique, mean, percentile, arange, where, hstack
from os import path, getcwd
from mapping_tools import make_street_map, get_map_polygons, mask_outside_polygons, annotate_cities, distance
from datetime import datetime

###############################################################################
# parse catalogue
###############################################################################

gacsv = 'earthquakes_export_edit.csv'
gacsv = 'earthquakes_export_feb_2022_edit.csv'

events = parse_ga_event_query(gacsv)

###############################################################################
# grab 10-km aggregated
###############################################################################
json_folder = '2019_all_felt_reports_aggregated'
json_folder = '2022_bulk_felt_reports_geojson'

# getting aggregated files
all_geojson = listdir_extension(json_folder, 'geojson')

# now just keep 10-km agg
geojson_10 = []
for jsonfile in all_geojson:
    #if jsonfile.endswith('10km_filtered.geojson'):
    if jsonfile.endswith('5km.geojson'):