def search_scopus(query: str, *, limit: int = None) -> DocumentSet: """ Submit the given query to the Scopus API. :param limit: Restrict results the first `limit` documents. """ from pybliometrics.scopus import ScopusSearch search = ScopusSearch(query, view='STANDARD') eids = list(search.get_eids()) docs = [] if limit is not None and len(eids) > limit: random.seed(0) random.shuffle(eids) eids = eids[:limit] for eid in progress_bar(eids): doc = ScopusDocument.from_eid(eid) docs.append(doc) return DocumentSet(docs)
# Configurando os critérios de pesquisa. query = 'TITLE-ABS-KEY("protected area" OR "conservation" OR "ecology" OR "marine protected" OR "national forest")' \ ' AND TITLE-ABS-KEY("remote sensing" OR "earth observation" OR "Landsat" OR "Lidar" OR "MODIS" OR "Radar")' \ ' AND TITLE-ABS-KEY("Brazil" OR "Brasil")' \ ' AND PUBYEAR BEF 2021 AND PUBYEAR AFT 1999' \ ' AND LANGUAGE(english OR portuguese)' # Cria um objeto de pesquisa ScopusSearch contendo as informações para busca. scopus = ScopusSearch(query, max_entries=None, subscriber=False, verbose=True) # Retorna o número de registros coletados pela API. print("Número total de publicações: {}.".format(scopus.get_results_size())) # Obtêm uma lista contendo todos os identificadores digitais (EID) resgatados da API durante a busca. eids_documentos = scopus.get_eids() # Coleta as informações sobre os artigos, a partir dos EID e da função auxiliar. df = coletar_artigos(eids_documentos, api_view) # Armazena todas as entradas em um arquivo .csv, para consulta posterior df.to_csv("data/resultado_pesquisa_scopus.csv", index=False, quoting=csv.QUOTE_ALL) """------------------------------------------------------------- EXTRA: Plotando o histórico temporal de publicações -------------------------------------------------------------""" # Converte o tipo de dado da coluna "data_publicacao" para datetime datetimes = pd.to_datetime( df["data_publicacao"] ) # realiza a conversão utilizando a função pd.to_datetime()
from pybliometrics.scopus import AuthorRetrieval from lxml import etree as et import os import requests from config import dcmappings saf_root_directory = 'saf' science_direct_base_url = 'https://api.elsevier.com/content/article/doi/' apiKey = os.environ['SCOPUS_API_KEY'] scopus_search_string = os.environ['SCOPUS_SEARCH_STRING'] s = ScopusSearch(scopus_search_string, refresh=True, view='COMPLETE') print(s.get_results_size()) eids = s.get_eids() counter = 0 orcid_mapping = { 'schema': 'local', 'attributes': { 'element': 'contributor', 'qualifier': 'author_orcid_id' } } def GetOrcidFromScopusID(scopus_id): try: author = AuthorRetrieval(scopus_id) except: