Search Results

Now showing 1 - 10 of 61
  • Item
    First results of a model user survey on a micro-scale model data standard
    (2020) Voss, Vivien; Schlünzen, K.Heinke; Grawe, David; Heydebreck, Daniel; Ganske, Anette
    Micro-scale models are important to assess processes in complex domains, for example cities. The most common data standard for atmospheric model output data are the CF-conventions, a data standard for netCDF files, but this standard is not adapted to the model output of micro-scale models. As a part of the project AtMoDat (Atmospheric Model Data) we want to develop a model data standard for obstacle resolving models (ORM), including the additional variables (i.e. building structures, wall temperatures) used by these models. In order to involve the micro-scale modeller community in this process, a web based survey was developed and distributed in the modeller community via conferences and email. With this survey we want to find out which micro-scale ORMs are currently in use, their model specifics (e.g. used grid, coordinate system), and the handling of the model result data. Furthermore, the survey provides the opportunity to include suggestions and ideas, what we should consider in the development of the standard. Between September 2019 and July 2020, the survey was accessed 29 times, but only 12 surveys were completed. The finished surveys refer to eight different models and their corresponding model information. Results show that these different models use different output formats and processing tools, which results in different model result handling routines. The participants suggested to use the netCDF data format and to provide information on model initialization, model settings and model input along with the model output data. This would enable an easier intercomparison between different models and repetition of model simulations. Standardized model output and variable names would also enhance the development of shared routines for the analysis of micro-scale model data and a better findability of the data with search engines. This survey will remain open with regular assessments of contents (i.e. November 2020, May 2021; https://uhh.de/orm-survey).
  • Item
    Making the Maturity of Data and Metadata Visible with Datacite DOIs
    (Washington, DC : ESSOAr, 2020) Kaiser, Amandine; Heydebreck, Daniel; Ganske, Anette; Kraft, Angelina
    Data maturity describes the degree of the formalisation/standardisation of a data object with respect to FAIRness and quality of the (meta-) data. Therefore, a high (meta-) data maturity increases the reusability of data. Moreover, it is an important topic in data management, which is reflected by a growing number of tools and theories trying to measure it, e.g. the FAIR testing tools assessed by RDA(1) or the NOAA maturity matrix(2). If the results of stewardship tasks cannot be shown directly in the metadata, reusers of data cannot easily recognise which data is easy to reuse. For example, the DataCite Metadata Schema does not provide an explicit property to link/store information on data maturity (e.g. FAIRness or quality of data/metadata). The AtMoDat project (3, Atmospheric Model Data) aims to improve the reusability of published atmospheric model data by scientists, the public sector, companies, and other stakeholders. These data are valuable because they form the basis to understand and predict natural events, including the atmospheric circulation and ultimately the atmospheric and planetary energy budget. As most atmospheric data has been published with DataCite DOIs, it is of high importance that the maturity of the datasets can be easily found in the DOI’s Metadata. Published data from other fields of research would also benefit from easily findable maturity information. Therefore, we developed a Maturity Indicator concept and propose to introduce it as a new property in the DataCite Metadata Schema. This indicator is generic and independent of any scientific discipline and data stewardship tool. Hence, it can be used in a variety of research fields. 1 https://doi.org/10.15497/RDA00034 2 Peng et al., 2015: https://doi.org/10.2481/dsj.14-049 3 www.atmodat.de
  • Item
    The ATMODAT Standard enhances FAIRness of Atmospheric Model data
    (Washington, DC : ESSOAr, 2020) Heydebreck, Daniel; Kaiser, Amandine; Ganske, Anette; Kraft, Angelina; Schluenzen, Heinke; Voss, Vivien
    Within the AtMoDat project (Atmospheric Model Data, www.atmodat.de), a standard has been developed which is meant for improving the FAIRness of atmospheric model data published in repositories. Atmospheric model data form the basis to understand and predict natural events, including atmospheric circulation, local air quality patterns, and the planetary energy budget. Such data should be made available for evaluation and reuse by scientists, the public sector, and relevant stakeholders. Atmospheric modeling is ahead of other fields in many regards towards FAIR (Findable, Accessible, Interoperable, Reusable, see e.g. Wilkinson et al. (2016, doi:10.1101/418376)) data: many models write their output directly into netCDF or file formats that can be converted into netCDF. NetCDF is a non-proprietary, binary, and self-describing format, ensuring interoperability and facilitating reusability. Nevertheless, consistent human- and machine-readable standards for discipline-specific metadata are also necessary. While standardisation of file structure and metadata (e.g. the Climate and Forecast Conventions) is well established for some subdomains of the earth system modeling community (e.g. the Coupled Model Intercomparison Project, Juckes et al. (2020, https:doi.org/10.5194/gmd-13-201-2020)), other subdomains are still lacking such standardisation. For example, standardisation is not well advanced for obstacle-resolving atmospheric models (e.g. for urban-scale modeling). The ATMODAT standard, which will be presented here, includes concrete recommendations related to the maturity, publication, and enhanced FAIRness of atmospheric model data. The suggestions include requirements for rich metadata with controlled vocabularies, structured landing pages, file formats (netCDF), and the structure within files. Human- and machine-readable landing pages are a core element of this standard and should hold and present discipline-specific metadata on simulation and variable level.
  • Item
    X-Sprint: Climate and Migration - 100% Open Research for Climate Change
    (Meyrin : CERN, 2020-06-13) Worthington, Simon
    X-Sprint: Climate and migration - Workshop - Infrastructure for the Year to come Summer School 2020 #OCK @OCKProject - 10 June 2020. From the Open Climate Knowledge project. https://github.com/OCKProject
  • Item
    A Fair and Comprehensive Comparison of Multimodal Tweet Sentiment Analysis Methods
    (Ithaka : Cornell University, 2021) Cheema, Gullal S.; Hakimov, Sherzod; Müller-Budack, Eric; Ewerth, Ralph
    Opinion and sentiment analysis is a vital task to characterize subjective information in social media posts. In this paper, we present a comprehensive experimental evaluation and comparison with six state-of-the-art methods, from which we have re-implemented one of them. In addition, we investigate different textual and visual feature embeddings that cover different aspects of the content, as well as the recently introduced multimodal CLIP embeddings. Experimental results are presented for two different publicly available benchmark datasets of tweets and corresponding images. In contrast to the evaluation methodology of previous work, we introduce a reproducible and fair evaluation scheme to make results comparable. Finally, we conduct an error analysis to outline the limitations of the methods and possibilities for the future work.
  • Item
    Der Publikationsfonds für Open-Access-Monografien Brandenburg - der erste seiner Art auf Bundeslandebene
    (Zenodo, 2022) Eppelin, Anita; Zeltner, Anja; Falkenburg, Philipp
    Seit Herbst 2021 steht Angehörigen der acht Hochschulen des Landes Brandenburg ein landesweiter Publikationsfonds für Open-Access-Monografien zur Verfügung. Dieser wird vom Ministerium für Wissenschaft, Forschung und Kultur Brandenburg (MWFK) bereitgestellt, von der Vernetzungs- und Kompetenzstelle Open Access Brandenburg (VuK) koordiniert und gemeinsam mit der AG Publikationsfonds für Open-Access-Monografien Brandenburg weiterentwickelt. Im Poster werden Förderziele und -kriterien sowie der Workflow zwischen Autor:innen, VuK, Bibliotheken und Verlagen dargestellt. Zusätzlich gibt das Poster einen zahlenmäßigen Überblick zur bisherigen Nutzung des Fonds und stellt Herausforderungen und Erfahrungen aus einem Jahr Publikationsfonds-Betrieb dar (Stand Juni 2022). Gestaltung: Nora Ancheva, https://www.togettr.de
  • Item
    KOALA - ein Diamond-Open-Access-Modell als Angebot und Chance für die bibliothekarische Erwerbung
    (Reutlingen : Berufsverband Information Bibliothek e. V., 2024) Schenke, Julian; Stork, Karin Silvia; Tullney, Marco
    Diamond-Open-Access-Finanzierung ohne Autorengebühren kann funktionieren und hat das Potenzial, die Open-Access-Transformation sowohl maßgeblich zu beschleunigen als auch nachhaltig auszugestalten - das belegen u.a. die ersten erfolgreich erzielten KOALA-Konsortien. Doch wie können Open-Access-Konsortien für im Diamond OA erscheinende qualitätsgesicherte Publikationsorgane in Deutschland weiter ausgebaut und verankert werden? Dieser Frage widmet sich die Arbeit des Projekts KOALA-AV ("Konsortiale Open-Access-Lösungen aufbauen, ausbauen und verankern"). Mehrere Maßnahmen sollen die Chance für einen dauerhaften Erfolg von Open-Access-Konsortien nach dem Vorbild des KOALA-Modells in Deutschland zu verbessern. Dazu gehören eine systematische Erhebung der Bedarfe der Entscheidungsträger*innen, der Aufbau von Communities aus Periodika und Bibliotheken, die Bereitstellung vereinfachter, standardisierter Abläufe zur Konsortialgründung und -durchführung, die Ermöglichung internationaler Ko-Finanzierung und die Unterstützung der Gründung von Open-Access-Konsortien an weiteren deutschen Standorten. Der Vortrag stellt die Arbeit des Projekts KOALA-AV vor und rückt dabei neue Erkenntnisse zu verbleibenden Teilnahmehürden aus bibliothekarischer Erwerbungsperspektive sowie zur stärkeren Bedarfsorientierung der Konsortialbeteiligungsinstrumente in den Fokus. Das vom Bundesministerium für Bildung und Forschung (BMBF) geförderte Projekt KOALA-AV wird von September 2023 bis August 2025 durch die Technische Informationsbibliothek (TIB) und das Kommunikations-, Informations-, Medienzentrum (KIM) der Universität Konstanz bearbeitet. Die im Kontext des Vorgängerprojekts KOALA (2021-2023) aufgebaute gleichnamige Dienstleistung wird an der TIB dauerhaft angeboten.
  • Item
    ConfIDent: Enter the Feedback Loop
    (Meyrin : CERN, 2020-01-29) Strömert, Philip
    Slides from session at PIDapalooza2020, January 29th 2020, Lisbon, Portugal.
  • Item
    Conference Identifiers : the story so far and how to proceed
    (Meyrin : CERN, 2020-02-07) Franken, Julian; Strömert, Philip; Eckert, Kai; Benchekroun, Sami
    The Conference ID working group has a simple goal: identify conferences in a landscape of many similarly named organizations and constantly changing elements like organizers, names, publishers and so on. The idea is simple, the implementation not so much. In this session, we would like to introduce briefly the current state of the working group, as well as some current issues for the audience to be discussed. Issues include for example: Are use cases for conference identifiers missing? What identifiers to use? Who should manage the issuing of the identifiers? How do we promote the new identifiers?
  • Item
    Bestandscontrolling bei elektronischen Ressourcen – Entscheidungshilfen für die Lizenzierung
    (2021) Vosberg, Dana; Lütjen, Andreas
    Ein Beitrag mit diesem Titel wurde in der Zeitschrift o-bib eingereicht und positiv begutachtet. Eine Veröffentlichung ist für März 2021 vorgesehen. Im Vortrag könnten die wichtigsten Untersuchungsergebnisse im Überblick vorgestellt und die Inhalte der Freitextfelder ausführlicher ausgewertet werden. Zusammenfassung: Jede Bibliothek steht vor der Herausforderung, das zur Verfügung stehende Erwerbungsbudget im Einklang mit dem jeweiligen Bibliotheksauftrag möglichst effizient und zielgerichtet einzusetzen. Eine Umfrage unter 181 Einrichtungen zeigt, dass neben den klassischen Kosten pro Download auch eine Vielzahl anderer Entscheidungsparameter eine wichtige Rolle spielt. Dabei besteht ein starkes Interesse am bibliotheksübergreifenden Austausch, der die einrichtungsspezifische Definition von Entscheidungskriterien erleichtern und optimieren könnte. In Anbetracht der zunehmenden Komplexität der Lizenzmodelle ist ein systematisches und kontinuierliches Bestandscontrolling – unabhängig vom hektischen Jahresendgeschäft – eine wesentliche Voraussetzung dafür, fundierte Lizenzierungsentscheidungen treffen zu können.