Search Results

Now showing 1 - 10 of 64
Loading...
Thumbnail Image
Item

First results of a model user survey on a micro-scale model data standard

2020, Voss, Vivien, Schlünzen, K.Heinke, Grawe, David, Heydebreck, Daniel, Ganske, Anette

Micro-scale models are important to assess processes in complex domains, for example cities. The most common data standard for atmospheric model output data are the CF-conventions, a data standard for netCDF files, but this standard is not adapted to the model output of micro-scale models. As a part of the project AtMoDat (Atmospheric Model Data) we want to develop a model data standard for obstacle resolving models (ORM), including the additional variables (i.e. building structures, wall temperatures) used by these models. In order to involve the micro-scale modeller community in this process, a web based survey was developed and distributed in the modeller community via conferences and email. With this survey we want to find out which micro-scale ORMs are currently in use, their model specifics (e.g. used grid, coordinate system), and the handling of the model result data. Furthermore, the survey provides the opportunity to include suggestions and ideas, what we should consider in the development of the standard. Between September 2019 and July 2020, the survey was accessed 29 times, but only 12 surveys were completed. The finished surveys refer to eight different models and their corresponding model information. Results show that these different models use different output formats and processing tools, which results in different model result handling routines. The participants suggested to use the netCDF data format and to provide information on model initialization, model settings and model input along with the model output data. This would enable an easier intercomparison between different models and repetition of model simulations. Standardized model output and variable names would also enhance the development of shared routines for the analysis of micro-scale model data and a better findability of the data with search engines. This survey will remain open with regular assessments of contents (i.e. November 2020, May 2021; https://uhh.de/orm-survey).

Loading...
Thumbnail Image
Item

X-Sprint: Climate and Migration - 100% Open Research for Climate Change

2020-06-13, Worthington, Simon

X-Sprint: Climate and migration - Workshop - Infrastructure for the Year to come Summer School 2020 #OCK @OCKProject - 10 June 2020. From the Open Climate Knowledge project. https://github.com/OCKProject

Loading...
Thumbnail Image
Item

Warum hat mir das keiner gesagt?

2023, Slawig, Diana

Poster zur Thematik der Publikationsberatung für Promovierende, vorgestellt im Rahmen der Open-Access-Tage 2023 in Berlin

Loading...
Thumbnail Image
Item

Mehr als PDFs im Internet – Knowledge Exchange Analysis Report on Alternative Publishing Platforms

2023, van Edig, Xenia, Beucke, Daniel

Immer neue Publikationsplattformen mit unterschiedlichsten Funktionalitäten und Zielen entstehen und bieten ihre Services an. Viele Ansätze bilden dabei ein Gegengewicht zu den “klassischen” Abläufen im Verlagswesen. Die Einbeziehung von Preprints, die Verknüpfung unterschiedlicher Forschungs-Outputs (wie Daten, Laborprotokolle oder Softwarecode), offene Begutachtungsverfahren oder neue Geschäftsmodelle sind nur einige Aspekte, die von den unterschiedlichen Plattformen adressiert werden. Im Rahmen einer Task and Finish Group von Knowledge Exchange (KE) wird eine Taxonomie über solche alternativen Publikationsplattformen erstellt. Diese Taxonomie soll dabei helfen, einen besseren Überblick über die diversen Plattformen zu erhalten und sie sichtbarer zu machen. Der erste Schritt der T&F Group war die Erstellung eines Scoping-Papers (https://doi.org/10.21428/996e2e37.3ebdc864), in dem sich diesem Thema genähert wurde. Das Dokument selbst ist auf der “alternativen” Plattform PubPub entstanden, die eine aktive Mitarbeit der Community erlaubt und die Versionierung des Dokuments übernimmt. Im Frühjahr 2023 hat die T&F Group zur Beteiligung an einer Umfrage aufgerufen, um in einem zweiten Schritt eine Taxonomie der unterschiedlichen Plattformen zu erstellen. Die Umfrage richtete sich an alle Plattformen, die im Bereich des Open-Access-Publizierens tätig sind und in die Taxonomie der alternativen Publikationsplattformen von der Knowledge Exchange aufgenommen werden möchten. Der Vortrag beleuchtet die verschiedenen Wege alternativer Publikationsplattformen und präsentiert erste Ergebnisse aus der Umfrage und gibt somit einen Ausblick auf die angestrebte Taxonomie.

Loading...
Thumbnail Image
Item

Making the Maturity of Data and Metadata Visible with Datacite DOIs

2020, Kaiser, Amandine, Heydebreck, Daniel, Ganske, Anette, Kraft, Angelina

Data maturity describes the degree of the formalisation/standardisation of a data object with respect to FAIRness and quality of the (meta-) data. Therefore, a high (meta-) data maturity increases the reusability of data. Moreover, it is an important topic in data management, which is reflected by a growing number of tools and theories trying to measure it, e.g. the FAIR testing tools assessed by RDA(1) or the NOAA maturity matrix(2). If the results of stewardship tasks cannot be shown directly in the metadata, reusers of data cannot easily recognise which data is easy to reuse. For example, the DataCite Metadata Schema does not provide an explicit property to link/store information on data maturity (e.g. FAIRness or quality of data/metadata). The AtMoDat project (3, Atmospheric Model Data) aims to improve the reusability of published atmospheric model data by scientists, the public sector, companies, and other stakeholders. These data are valuable because they form the basis to understand and predict natural events, including the atmospheric circulation and ultimately the atmospheric and planetary energy budget. As most atmospheric data has been published with DataCite DOIs, it is of high importance that the maturity of the datasets can be easily found in the DOI’s Metadata. Published data from other fields of research would also benefit from easily findable maturity information. Therefore, we developed a Maturity Indicator concept and propose to introduce it as a new property in the DataCite Metadata Schema. This indicator is generic and independent of any scientific discipline and data stewardship tool. Hence, it can be used in a variety of research fields. 1 https://doi.org/10.15497/RDA00034 2 Peng et al., 2015: https://doi.org/10.2481/dsj.14-049 3 www.atmodat.de

Loading...
Thumbnail Image
Item

Open-Access-Konsortien als Instrument gemeinschaftlicher Open-Access-Finanzierung: Kollaboration als Erfolgsfaktor

2022, Benz, Martina, Schulz, Katharina

Open-Access-Konsortien organisieren die gemeinschaftliche Finanzierung von Open-Access-Publikationen. Dabei kann auf Erfahrungen aus dem traditionellen Konsortialbetrieb aufgebaut werden, der durch neue Aufgaben, Anforderungen an Publikationen, Konsorten und Konsortialführung erweitert wird. Vor allem betonen konsortiale Modelle den kollaborativen Charakter der Finanzierung. In unserem Vortrag berichten wir über die bisherigen Erfahrungen aus dem KOALA-Projekt (Konsortiale Open-Access-Lösungen aufbauen, BMBF-Projekt 2021-2023). Dabei gehen wir darauf ein, welche Aspekte wir für eine erfolgreiche Kollaboration in Open-Access-Konsortien identifizieren und wie diese zum Erreichen der Finanzierungsziele beiträgt. Aufbau und Betrieb von Konsortien erfordern eine eng abgestimmte Kooperation verschiedener Institutionen und Akteure. Für KOALA als Konsortialführerin bedeutet dies, eine Mittler-und Koordinationsrolle zwischen unterschiedlichen Denkweisen, Workflows und Begrifflichkeiten einzunehmen. Dies ist entscheidend, um arbeitsfähige Kooperationsstrukturen zu etablieren, gemeinsame Standards festzusetzen und schließlich eine gemeinschaftliche Open-Access-Finanzierung aufzubauen. So haben wir bspw. in der Akquise mit zahlreichen Herausgeber*inInnen, Redaktionen und Verlagen Gespräche geführt, die uns die Bandbreite institutioneller Kontexte, Bedarfe und Arbeitsweisen vor Augen geführt haben. Ihnen gegenüber erläutert KOALA bibliothekarische Mindeststandards und ein Verständnis der Prozesse einer Finanzverwaltung. Auf der anderen Seite unterstützt KOALA Bibliotheken, deren Erwerbungsentscheidungen auf Logiken aus der Subskriptionszeit basieren, Ausgaben für APC-freies Open Access argumentativ zu begründen. Schließlich befähigt KOALA Redaktionen, Verlage, Herausgeber*inInnen und Bibliotheken, innerhalb einer kollaborativen Konsortialstruktur die Open-Access-Transformation voranzutreiben. Interessengegensätze, z.B. zwischen Verlagen und Bibliotheken oder Zeitschriften lösen sich dabei nicht in Kollaborationsbeziehungen auf; die Kooperation im Konsortium erleichtert es aber, gemeinsame Standards zu etablieren, z.B. in Punkto Kostentransparenz gegenüber Verlagen. Über die erfolgreiche Finanzierung konkreter Publikationen hinaus sind die in KOALA gesammelten Erfahrungen wertvoll für die Diskussion von Möglichkeiten und Grenzen konsortialer Modelle als Instrumente gemeinschaftlicher Open-Access-Finanzierung.

Loading...
Thumbnail Image
Item

FAIRly connected - Ressourcen vernetzen

2022, Burger, Felix

Damit eine veröffentlichte Ressource die FAIR-Prinzipien erfüllen kann, bedarf es qualitativ hochwertiger Metadaten, welche nicht nur die Ressource selbst, sondern auch mit ihr in Verbindung stehende Objekte beschreiben. Diese Verknüpfungen werden vom Poster anhand des DataCite-Metadatenschemas dargestellt. Der Fokus liegt hierbei auf dem Property "relatedIdentifier". Mittels ausgewählter Beispiele werden die FAIR-Kategorien illustriert und Anregungen geliefert, sowie exemplarische Herausforderungen und Fragestellungen bei der DOI-Metadatenvergabe vorgestellt.

Loading...
Thumbnail Image
Item

The ATMODAT Standard enhances FAIRness of Atmospheric Model data

2020, Heydebreck, Daniel, Kaiser, Amandine, Ganske, Anette, Kraft, Angelina, Schluenzen, Heinke, Voss, Vivien

Within the AtMoDat project (Atmospheric Model Data, www.atmodat.de), a standard has been developed which is meant for improving the FAIRness of atmospheric model data published in repositories. Atmospheric model data form the basis to understand and predict natural events, including atmospheric circulation, local air quality patterns, and the planetary energy budget. Such data should be made available for evaluation and reuse by scientists, the public sector, and relevant stakeholders. Atmospheric modeling is ahead of other fields in many regards towards FAIR (Findable, Accessible, Interoperable, Reusable, see e.g. Wilkinson et al. (2016, doi:10.1101/418376)) data: many models write their output directly into netCDF or file formats that can be converted into netCDF. NetCDF is a non-proprietary, binary, and self-describing format, ensuring interoperability and facilitating reusability. Nevertheless, consistent human- and machine-readable standards for discipline-specific metadata are also necessary. While standardisation of file structure and metadata (e.g. the Climate and Forecast Conventions) is well established for some subdomains of the earth system modeling community (e.g. the Coupled Model Intercomparison Project, Juckes et al. (2020, https:doi.org/10.5194/gmd-13-201-2020)), other subdomains are still lacking such standardisation. For example, standardisation is not well advanced for obstacle-resolving atmospheric models (e.g. for urban-scale modeling). The ATMODAT standard, which will be presented here, includes concrete recommendations related to the maturity, publication, and enhanced FAIRness of atmospheric model data. The suggestions include requirements for rich metadata with controlled vocabularies, structured landing pages, file formats (netCDF), and the structure within files. Human- and machine-readable landing pages are a core element of this standard and should hold and present discipline-specific metadata on simulation and variable level.

Loading...
Thumbnail Image
Item

B!SON - an open tool to help researchers find suitable Open Access journals for their work

2023, Eppelin, Anita

The poster presents key facts on B!SON, an open recommendation service for Open Access journals. There is a whole range of web-based services designed to help researchers find a suitable journal for their findings. Few of them, however, are inherently oriented towards the needs and interests of the research community: they are often provided by commercial actors, only include journals of one single (major) publisher, the procedures for the recommendations are not transparent, the source code is not publicly available, their sustainability is unclear or they are merely aggregated journal lists with advanced filter functions. B!SON has set out to do things differently: It is a tool developed and provided by two major German academic libraries - TIB (Technische Informationsbibliothek) and SLUB (Saxonian State and University Library Dresden). It includes only genuine Open Access journals, uses only community-based, open data sources from DOAJ and OpenCitations, discloses its recommendation algorithm based on semantic and bibliometric methods, handles user data sensitively and has been designed with sustainability in mind. B!SON's simple user interface with input fields for a manuscript's title, abstract and references provides users with a list of DOAJ-listed journals in which similar research has been published. A similarity score is provided for each journal listed, along with the underlying articles where similarity was found, to make the recommendation verifiable.

Loading...
Thumbnail Image
Item

Treffen sich zwei Artikel hinter einer Paywall. Kommt eine Zweitveröffentlichungsoption vorbei…

2022, Dellmann, Sarah, Deppe, Arvid, Härkönen, Sonja, Voigt, Michaela

Das Material dokumentiert einen 90-minütigen Workshop bei den Open-Access-Tagen 2022. Die Inhalte wurden im Workshop in Kleingruppen erarbeitet: An fünf Tischen diskutierten die Teilnehmer*innen jeweils ca. zehn Minuten die gleiche Fragen (insgesamt gab es fünf Fragen) und notierten Ideen & Lösungsansätze, welche nach jeder Runde im Plenum kurz vorgetragen und kurz diskutiert wurden. Die Fragen stammten von den Teilnehmenden selbst – bei der Anmeldung zum Workshop waren sie gefragt worden: “Welche Frage im Alltagsgeschäft der Zweitveröffentlichungen wollten Sie schon immer mal an die Community stellen?” Die so eingereichten Fragen wurden im Vorfeld durch die Workshopkoordinator*innen thematisch geclustert (1. Motivation/Argumentation, 2. Services & Tools, 3. Metadaten, 4. Postprints, 5. Rechtliches). Einige Fragen konnten aus Zeitgründen nicht im Workshop behandelt werden; sind der Vollständigkeit halber auch dokumentiert.