Search Results

Now showing 1 - 3 of 3
  • Item
    Wie FAIR sind unsere Metadaten? : Eine Analyse der Metadaten in den Repositorien des TIB-DOI-Services
    (Marburg : Philipps-Universität, 2021) Burger, Marleen; Cordts, Anette; Habermann, Ted
    Im vorliegenden Erfahrungsbericht stellen wir eine Metadatenanalyse vor, welche die Metadatenqualität von 144 Repositorien des TIB-DOI-Service im Hinblick auf die Erfüllung der FAIR Data Principles, Konsistenz und Vollständigkeit untersucht. Im Ergebnis zeigt sich, dass der Fokus der untersuchten Repositorien schwerpunktmäßig auf der Auffindbarkeit der mit Metadaten beschriebenen Ressourcen liegt und im Gesamtdurchschnitt über die Metadaten-Pflichtfelder hinaus nur wenige weitere Metadaten angegeben werden. Insbesondere mit Blick auf eine angestrebte bessere Nachnutzbarkeit sowie eine stärkere Verknüpfung mit anderen in Beziehung stehenden persistenten Identifikatoren wie ORCID, ROR ID oder DOI-zu-DOI-Beziehungen mit zitierten oder zitierenden Ressourcen, bestehen noch ungenutzte Potenziale, die im Sinne einer offenen, zukunftsweisenden Wissenschaft erschlossen werden sollten. Dahingegen zeigt unsere Analyse auch einzelne Repositorien mit umfangreichen Metadaten als Best-Practice-Beispiele auf, an denen sich andere Repositorien orientieren können. Insgesamt ermöglicht die durchgeführte Metadatenanalyse die Ableitung von Handlungsempfehlungen zur passgenauen Beratung von Repositorien, die ihre Metadatenqualität verbessern möchten.
  • Item
    Generate FAIR Literature Surveys with Scholarly Knowledge Graphs
    (New York City, NY : Association for Computing Machinery, 2020) Oelen, Allard; Jaradeh, Mohamad Yaser; Stocker, Markus; Auer, Sören
    Reviewing scientific literature is a cumbersome, time consuming but crucial activity in research. Leveraging a scholarly knowledge graph, we present a methodology and a system for comparing scholarly literature, in particular research contributions describing the addressed problem, utilized materials, employed methods and yielded results. The system can be used by researchers to quickly get familiar with existing work in a specific research domain (e.g., a concrete research question or hypothesis). Additionally, it can be used to publish literature surveys following the FAIR Data Principles. The methodology to create a research contribution comparison consists of multiple tasks, specifically: (a) finding similar contributions, (b) aligning contribution descriptions, (c) visualizing and finally (d) publishing the comparison. The methodology is implemented within the Open Research Knowledge Graph (ORKG), a scholarly infrastructure that enables researchers to collaboratively describe, find and compare research contributions. We evaluate the implementation using data extracted from published review articles. The evaluation also addresses the FAIRness of comparisons published with the ORKG.
  • Item
    Development of a Domain-Specific Ontology to Support Research Data Management for the Tailored Forming Technology
    (Amsterdam [u.a.] : Elsevier, 2020) Sheveleva, Tatyana; Koepler, Oliver; Mozgova, Iryna; Lachmayer, Roland; Auer, Sören
    The global trend towards the comprehensive digitisation of technologies in product manufacturing is leading to radical changes in engineering processes and requires a new extended understanding of data handling. The amounts of data to be considered are becoming larger and more complex. Data can originate from process simulations, machines used or subsequent analyses, which together with the resulting components serve as a complete and reproducible description of the process. Within the Collaborative Research Centre "Process Chain for Manufacturing of Hybrid High Performance Components by Tailored Forming", interdisciplinary work is being carried out on the development of process chains for the production of hybrid components. The management of the generated data and descriptive metadata, the support of the process steps and preliminary and subsequent data analysis are fundamental challenges. The objective is a continuous, standardised data management according to the FAIR Data Principles so that process-specific data and parameters can be transferred together with the components or samples to subsequent processes, individual process designs can take place and processes of machine learning can be accelerated. A central element is the collaborative development of a domain-specific ontology for a semantic description of data and processes of the entire process chain.