Search Results

Now showing 1 - 10 of 204
  • Item
    Advancing Research Data Management in Universities of Science and Technology
    (Meyrin : CERN, 2020-02-13) Björnemalm, Matthias; Cappellutti, Federica; Dunning, Alastair; Gheorghe, Dana; Goraczek, Malgorzata Zofia; Hausen, Daniela; Hermann, Sibylle; Kraft, Angelina; Martinez Lavanchy, Paula; Prisecaru, Tudor; Sànchez, Barbara; Strötgen, Robert
    The white paper ‘Advancing Research Data Management in Universities of Science and Technology’ shares insights on the state-of-the-art in research data management, and recommendations for advancement. A core part of the paper are the results of a survey, which was distributed to our member institutions in 2019 and addressed the following aspects of research data management (RDM): (i) the establishment of a RDM policy at the university; (ii) the provision of suitable RDM infrastructure and tools; and (iii) the establishment of RDM support services and trainings tailored to the requirements of science and technology disciplines. The paper reveals that while substantial progress has been made, there is still a long way to go when it comes to establishing “advanced-degree programmes at our major universities for the emerging field of data scientist”, as recommended in the seminal 2010 report ‘Riding the Wave’, and our white paper offers concrete recommendations and best practices for university leaders, researchers, operational staff, and policy makers. The topic of RDM has become a focal point in many scientific disciplines, in Europe and globally. The management and full utilisation of research data are now also at the top of the European agenda, as exemplified by Ursula von der Leyen addressat this year’s World Economic Forum.However, the implementation of RDM remains divergent across Europe. The white paper was written by a diverse team of RDM specialists, including data scientists and data stewards, with the work led by the RDM subgroup of our Task Force Open Science. The writing team included Angelina Kraft (Head of Lab Research Data Services at TIB, Leibniz University Hannover) who said: “The launch of RDM courses and teaching materials at universities of science and technology is a first important step to motivate people to manage their data. Furthermore, professors and PIs of all disciplines should actively support data management and motivate PhD students to publish their data in recognised digital repositories.” Another part of the writing team was Barbara Sanchez (Head of Centre for Research Data Management, TU Wien) and Malgorzata Goraczek (International Research Support / Data Management Support, TU Wien) who added:“A reliable research data infrastructure is a central component of any RDM service. In addition to the infrastructure, proper RDM is all about communication and cooperation. This includes bringing tools, infrastructures, staff and units together.” Alastair Dunning (Head of 4TU.ResearchData, Delft University of Technology), also one of the writers, added: “There is a popular misconception that better research data management only means faster and more efficient computers. In this white paper, we emphasise the role that training and a culture of good research data management must play.”
  • Item
    Digitale Langzeitarchivierung - Was ist das? Was hat das mit DOIs zu tun? Und was macht die TIB in der LZA?
    (Hannover : Technische Informationsbibliothek, PID Competence Center, 2023-05-02) Lindlar, Micky
    Folien zum Thema Langzeitarchivierung für den virtuellen Workshop "Frühlings TIB DOI Konsortium Workshop - Retrodigitalisierung und Langzeitarchivierung".
  • Item
    In wenigen Schritten zur Zweitveröffentlichung: Ein Leitfaden für Mitarbeiter:innen in Publikationsservices
    (Zenodo, 2024-02-08) Dellmann, Sarah; Deuter, Franziska; Hulin, Sylvia; Kuhlmeier, Antje; Matuszkiewicz, Kai; Schneider, Corinna; Schröer, Cäcilia; Weisheit, Silke; Strauß, Helene
    Viele wissenschaftliche Bibliotheken bieten den Angehörigen der eigenen Einrichtung einen Zweitveröffentlichungsservice an. Um den Austausch zu diesem Thema zu fördern, wurde im Jahr 2021 die „Digitale Fokusgruppe Zweitveröffentlichung“ im Rahmen der Kompetenz- und Vernetzungsplattform „open-access.network“ gegründet. Der vorliegende Leitfaden ist aus dem Bedarf entstanden, Kolleg:innen bei Einrichtung und Ausbau eines Zweitveröffentlichungsservices zu unterstützen. Er richtet sich daher vor allem an Kolleg:innen, die (neu) im Themenfeld Zweitveröffentlichung arbeiten oder die sich z. B. im Rahmen der bibliothekarischen Ausbildung mit diesem Thema beschäftigen. Der Leitfaden entstand in einem kollaborativen Schreibprozess von Mitgliedern der Fokusgruppe Zweitveröffentlichung zwischen Dezember 2022 und November 2023.
  • Item
    In wenigen Schritten zur Zweitveröffentlichung : Workflows für Publikationsservices
    (Zenodo, 2022) Dellmann, Sarah; Drescher, Katharina; Hofmann, Andrea; Hulin, Sylvia; Jung, Jakob; Kobusch, Alexander; Kuhlmeier, Antje; Matuszkiewicz, Kai; Pfeifer, Mats; Schneider, Corinna; Slavcheva, Adriana; Steinecke, Mascha; Ziegler, Barbara
    Zweitveröffentlichungen von bereits veröffentlichten Publikationen haben eine freie Nutzbarmachung zum Ziel und nutzen den "Grünen Weg" im Open Access. Der Zweitveröffentlichungsworkflow umfasst mehrere Schritte, deren Reihenfolge zum Teil flexibel ist. Für die genaue Umsetzung der einzelnen Schritte gibt es stets verschiedene Optionen, die je nach den Rahmenbedingungen der jeweiligen Einrichtung (z. B. technische Infrastruktur, Personalressourcen) festgelegt werden. Dabei sollten bei der Planung bzw. Weiterentwicklung des Workflows möglichst die Automatisierungspotenziale einzelner Prozesse genutzt werden. Basierend auf einem Workflow-Vergleich der Zweitveröffentlichungsservices der beteiligten Einrichtungen empfiehlt die Unterarbeitsgruppe Workflows (Fokusgruppe Zweitveröffentlichungen) des open-access.network folgende neun Schritte: (1) Auswahl von Informationsquellen zur Identifikation potentieller Zweitveröffentlichungen (2) Rechtliche Prüfung, ob eine Zweitveröffentlichung zulässig ist; (3) Einholen der Publikationsgenehmigung von den Autor*innen; (4) Prüfung, welche Manuskriptversion veröffentlicht werden darf; (5) Bearbeitung der Publikationsdatei; (6) Dublettenprüfung, Eingabe der Metadaten und Ablage der Datei; (7) Dokumentation der Rechtsgrundlage für die Veröffentlichung; (8) Öffentlichkeitsarbeit für die Zweitveröffentlichung; (9) Monitoring und Dokumentation sowie Werbung für den eigenen Service.
  • Item
    Creation of a Knowledge Space by Semantically Linking Data Repository and Knowledge Management System - a Use Case from Production Engineering
    (Laxenburg : IFAC, 2022) Sheveleva, Tatyana; Wawer, Max Leo; Oladazimi, Pooya; Koepler, Oliver; Nürnberger, Florian; Lachmayer, Roland; Auer, Sören; Mozgova, Iryna
    The seamless documentation of research data flows from generation, processing, analysis, publication, and reuse is of utmost importance when dealing with large amounts of data. Semantic linking of process documentation and gathered data creates a knowledge space enabling the discovery of relations between steps of process chains. This paper shows the design of two systems for data deposit and for process documentation using semantic annotations and linking on a use case of a process chain step of the Tailored Forming Technology.
  • Item
    OCK – Open Climate Knowledge
    (Meyrin : CERN, 2020-01-14) Murray-Rust, Peter; Worthington, Simon
    100% open collaborative research for climate change knowledge / using data mining & open science publishing. The climate crisis of the predicted atmosphere temperatures rising to 1.5C + makes it imperative that research related to climate change be put to better use by being open and digitally connected. We are concerned with making all aspects of research open, but as an example, less than 30% of research papers related to climate change are Open Access (Tai and Robinson 2018). This must change now!
  • Item
    Open practice in science and education – a discussion with researchers and educators who tested to be open
    (Meyrin : CERN, 2020-04-09) Heck, Tamara; Blümel, Ina; Fahrer, Sigrid; Lohner, David; Schneider, Jürgen; Visser, Linda
    How can we make the shift from closed to open practice in research and education? What are incentives for researchers to apply open science and open educational practices, and what hinders them to do so? The OPER study (Open Practices of Educational Researchers), funded by the Leibniz Research Alliance Open Science, investigates those questions. Study participants chose open scenarios for their daily research or teaching practices and tested them for six to 12 month. They wrote down their experiences with and opinions on open practices in dairies. The starting workshop was held in April 2019 with the first round of participants. First discussions on relevant topics were collected in Wikiversity and online pads.
  • Item
    10 Jahre Transformationsverträge an der TIB – Resümee und Ausblick einer Konsortialführung
    (Reutlingen : Berufsverband Information Bibliothek e. V., 2024) Bieg, Nicola; Pöche, Alexander
    Sind Transformationsverträge passé? Während hierzulande gerade erst unter dem Banner des DEAL-Konsortiums ein 5-Jahres-Vertrag mit Verlagsgigant Elsevier startet, rufen Akteure aus anderen Ländern das Ende von Transformationsverträgen aus. Die Technische Informationsbibliothek (TIB) sieht sich ebenfalls mit der Frage nach der Zukunft von transformativen Vereinbarungen und damit auch vieler von ihr geführten Konsortien konfrontiert. Seit dem ersten Read & Publish-Vertrag mit der Royal Society of Chemistry aus dem Jahr 2014, hat die TIB kontinuierlich transformative Konsortialverträge mit Verlagen und Fachgesellschaften verhandelt. Abhängig von Größe und Finanzierungskonzept des Anbieters, der inhaltlichen Ausrichtung des Zeitschriftenportfolios und vieler weiterer Faktoren wurden Modelle, die zwar beide Leistungsarten vereinen, aber ansonsten durchaus heterogen sind, entwickelt und implementiert. In diesem Vortrag möchten wir ein Resümee aus 10 Jahren Erfahrung in der Verhandlung und Administration von Transformationsverträgen ziehen: Was wurde erreicht? Was waren die Herausforderungen? Was sind und waren prognostizierte und unerwartete Entwicklungen? Die Bilanz soll nicht nur der Schärfung der strategischen Ausrichtung des eigenen Konsortialgeschäfts dienen, sondern auch einen generellen Beitrag zur Bewertung von Angeboten mit Publish-Komponenten liefern und die Diskussionen dazu bereichern.
  • Item
    Harmonising, Harvesting, and Searching Metadata Across a Repository Federation
    (Hannover : TIB Open Publishing, 2023) Neumann, Steffen; Bach, Felix; Castro, Leyla Jael; Fischer, Tillmann; Hofmann, Stefan; Huang, Pei-Chi; Jung, Nicole; Katabathuni, Bhavin; Mauz, Fabian; Meier, René; Nainala, Venkata Chandra Sekhar; Rayya, Noura; Steinbeck, Christoph; Koepler, Oliver
    The collection of metadata for research data is an important aspect in the FAIR principles. The schema.org and Bioschemas initiatives created a vocabulary to embed markup for many different types, including BioChemEntity, ChemicalSubstance, Gene, MolecularEntity, Protein, and others relevant in the Natural and Life Sciences with immediate benefits for findability of data packages. To bridge the gap between the worlds of semantic-web-driven JSON+LD metadata on the one hand, and established but separately developed interface services in libraries, we have designed an architecture for harmonising, federating and harvesting metadata from several resources. Our approach is to serve JSON+LD embedded in an XML container through a central OAI-Provider. Several resources in NFDI4Chem provide such domain-specific metadata. The CKAN-based NFDI4Chem search service can harvest this metadata using an OAI-PMH harvester extension that can extract the XML-encapsulated JSON+LD metadata, and has search capabilities relevant in the chemistry domain. We invite the community to collaborate and reach a critical mass of providers and consumers in the NFDI.
  • Item
    Publication of Atmospheric Model Data using the ATMODAT Standard
    (Stuttgart : E. Schweizerbart Science Publishers, 2022) Ganske, Anette; Heil, Angelika; Lammert, Andrea; Kretzschmar, Jan; Quaas, Johannes
    Scientific data should be published in a way so that other scientists can benefit from these data, enabling further research. The FAIR Data Principles are defining the basic prerequisite for a good data publication: data should be Findable, Accessible, Interoperable, and Reusable. Increasingly, research communities are developing discipline-specific data publication standards under consideration of the FAIR Data Principles. A very comprehensive yet strict data standard has been developed for the climate model output within the Climate Model Intercomparison Project (CMIP), which largely builds upon the Climate and Forecast Metadata Conventions (CF conventions). There are, however, many areas of atmospheric modelling where data cannot be standardised according to the CMIP data standard because, e.g., the data contain specific variables which are not covered by the CMIP standard. Furthermore, fulfilling the strict CMIP data standard for smaller Model Intercomparison Projects (MIPs) requires much effort (in time and manpower) and hence the outcome of these MIPs often remains non-standardised. For innovative model diagnostics, preexisting standards are also not flexible enough. For that reason, the ATMODAT standard, a quality guideline for atmospheric model data, was created. The ATMODAT standard defines a set of requirements that aim at ensuring the high reusability of atmospheric model data publications. The requirements include the use of the netCDF file format, the application of the CF conventions, rich and standardised file metadata, and the publication of the data with a DataCite DOI. Additionally, a tool for checking the conformity of data and metadata to this standard, the atmodat data checker, was developed and is available on GitHub under an open licence. By using the more flexible ATMODAT standard, the publication of standardised datasets is simplified for smaller MIPs. This standardisation process is presented as an example using the data of an aerosol-climate model from the AeroCOM MIP. Furthermore, the landing pages of ATMODAT-compliant data publications can be highlighted with the EASYDAB logo. EASYDAB (Earth System Data Branding) is a newly developed quality label for carefully curated and highly standardised data publications. The ATMODAT data standardisation can easily be transferred to data from other disciplines and contribute to their improved reusability.