Search Results

Now showing 1 - 10 of 91
  • Item
    Semantic modelling of video annotations – the TIB AV-Portal's metadata structure
    (Zenodo, 2018) Saurbier, Felix
    The TIB AV-Portal (https://av.tib.eu) is an online platform for sharing scientific videos operated by the German National Library of Science and Technology (TIB). Besides the allocation of Digital Object Identifiers (DOI) and Media Fragment Identifiers (MFID) for video citation, long-term preservation of all material and open licenses like Creative Commons, the core feature of the TIB AV-Portal are its various methods of automated metadata extraction to fundamentally improve search functionalities (e.g. fine-grained search and faceting). These comprise of an automated chaptering, extraction of superimposed text, speech to text recognition, and the detection of predefined visual concepts. In addition, extracted metadata are consequently mapped against authority files like the German “Gemeinsame Normdatei” and knowledge bases like DBpedia and Library of Congress Subject Headings via a process of automated named entity linking (NEL) to enable semantic and cross-lingual search. The results of this process are expressed as temporal and/or spatial video annotations, linking extracted metadata to certain key frames and video segments. In order to structure the data, express relations between single entities, and link to external information resources, several common vocabularies, ontologies and knowledge bases are being used. These include amongst others the Open Annotation Data Model, the NLP Interchange Format (NIF), BIBFRAME, the Friend of Friend Vocabulary (FOAF), and Schema.org. Furthermore, all data is stored adhering to the Resource Description Framework (RDF) data model and published as linked open data. This provides third parties with an interoperable and easy to reuse RDF graph representation of the AV-Portal’s metadata. On our poster we illustrate the general structure of the TIB AV-Portal’s comprehensive metadata both authoritative and extracted automatically. Here, the main focus is on the underlying video annotation graph model and on semantic interoperability and reusability of the data. In particular we visualize how the use of vocabularies, ontologies and knowledge bases allows for rich semantic descriptions of video materials as well as for easy metadata publication, interlinking, and opportunities of reuse by third parties (e.g. for information retrieval and enrichment). In doing so, we present the AV-Portal’s metadata structure as an illustrative example for the complexity of modelling temporal and spatial video metadata and as a set of best practices in the field of audio-visual resources.
  • Item
    In wenigen Schritten zur Zweitveröffentlichung: Ein Leitfaden für Mitarbeiter:innen in Publikationsservices
    (Zenodo, 2024-02-08) Dellmann, Sarah; Deuter, Franziska; Hulin, Sylvia; Kuhlmeier, Antje; Matuszkiewicz, Kai; Schneider, Corinna; Schröer, Cäcilia; Weisheit, Silke; Strauß, Helene
    Viele wissenschaftliche Bibliotheken bieten den Angehörigen der eigenen Einrichtung einen Zweitveröffentlichungsservice an. Um den Austausch zu diesem Thema zu fördern, wurde im Jahr 2021 die „Digitale Fokusgruppe Zweitveröffentlichung“ im Rahmen der Kompetenz- und Vernetzungsplattform „open-access.network“ gegründet. Der vorliegende Leitfaden ist aus dem Bedarf entstanden, Kolleg:innen bei Einrichtung und Ausbau eines Zweitveröffentlichungsservices zu unterstützen. Er richtet sich daher vor allem an Kolleg:innen, die (neu) im Themenfeld Zweitveröffentlichung arbeiten oder die sich z. B. im Rahmen der bibliothekarischen Ausbildung mit diesem Thema beschäftigen. Der Leitfaden entstand in einem kollaborativen Schreibprozess von Mitgliedern der Fokusgruppe Zweitveröffentlichung zwischen Dezember 2022 und November 2023.
  • Item
    VIVO-DE-Extension und VIVO-KDSF – Ontologien für den deutschsprachigen Raum
    (Zenodo, 2017) Kasprzik, Anna
    Der Aufbau einer deutschsprachigen Version der Fachinformationssystem-Software VIVO ist nicht so einfach, da sich auf allen Ebenen des Systems sprachspezifische Elemente finden -- von der Anzeige bis hin zu den enthaltenen Ontologien -- und da eine direkte Übersetzung aufgrund kultureller Unterschiede in den Wissenschaftslandschaften oft nicht möglich ist. In dieser Präsentation werden die entsprechenden Aktivitäten der deutschsprachigen VIVO-Community vorgestellt und es wird zur Beteiligung aufgerufen.
  • Item
    In wenigen Schritten zur Zweitveröffentlichung : Workflows für Publikationsservices
    (Zenodo, 2022) Dellmann, Sarah; Drescher, Katharina; Hofmann, Andrea; Hulin, Sylvia; Jung, Jakob; Kobusch, Alexander; Kuhlmeier, Antje; Matuszkiewicz, Kai; Pfeifer, Mats; Schneider, Corinna; Slavcheva, Adriana; Steinecke, Mascha; Ziegler, Barbara
    Zweitveröffentlichungen von bereits veröffentlichten Publikationen haben eine freie Nutzbarmachung zum Ziel und nutzen den "Grünen Weg" im Open Access. Der Zweitveröffentlichungsworkflow umfasst mehrere Schritte, deren Reihenfolge zum Teil flexibel ist. Für die genaue Umsetzung der einzelnen Schritte gibt es stets verschiedene Optionen, die je nach den Rahmenbedingungen der jeweiligen Einrichtung (z. B. technische Infrastruktur, Personalressourcen) festgelegt werden. Dabei sollten bei der Planung bzw. Weiterentwicklung des Workflows möglichst die Automatisierungspotenziale einzelner Prozesse genutzt werden. Basierend auf einem Workflow-Vergleich der Zweitveröffentlichungsservices der beteiligten Einrichtungen empfiehlt die Unterarbeitsgruppe Workflows (Fokusgruppe Zweitveröffentlichungen) des open-access.network folgende neun Schritte: (1) Auswahl von Informationsquellen zur Identifikation potentieller Zweitveröffentlichungen (2) Rechtliche Prüfung, ob eine Zweitveröffentlichung zulässig ist; (3) Einholen der Publikationsgenehmigung von den Autor*innen; (4) Prüfung, welche Manuskriptversion veröffentlicht werden darf; (5) Bearbeitung der Publikationsdatei; (6) Dublettenprüfung, Eingabe der Metadaten und Ablage der Datei; (7) Dokumentation der Rechtsgrundlage für die Veröffentlichung; (8) Öffentlichkeitsarbeit für die Zweitveröffentlichung; (9) Monitoring und Dokumentation sowie Werbung für den eigenen Service.
  • Item
    Ein Leben für den Nachlaß Gerhart Hauptmanns. Zum Tod von Rudolf Ziesche (1930-2013)
    (Zenodo, 2016) Tempel, Bernhard
    Nachruf auf Rudolf Ziesche (1930-2013), bekannt als Autor des vierbändigen Katalogs zum Manuskriptnachlaß Gerhart Hauptmanns.
  • Item
    Umsetzung des KDSF-Datenmodells in VIVO
    (Zenodo, 2017) Walther, Tatiana; Hauschke, Christian
    Im Rahmen des Projekts „Umsetzung Kerndatensatz Forschung in VIVO“ wird am Open Science Lab der Technischen Informationsbibliothek Hannover (TIB) der Versuch unternommen, den Kerndatensatz Forschung in das Forschungsinformationssystem VIVO zu integrieren. Entwurf KDSF-VIVO-Alignment und KDSF-VIVO-Extension: https://github.com/VIVO-DE/VIVO-KDSF-Integration
  • Item
    Discussion on Existing Standards and Quality Criteria in Nanosafety Research : Summary of the NanoS-QM Expert Workshop
    (Zenodo, 2021) Binder, Kunigunde; Bonatto Minella, Christian; Elberskirchen, Linda; Kraegeloh, Annette; Liebing, Julia; Petzold, Christiane; Razum, Matthias; Riefler, Norbert; Schins, Roel; Sofranko, Adriana; van Thriel, Christoph; Unfried, Klaus
    The partners of the research project NanoS-QM (Quality- and Description Standards for Nanosafety Research Data) identified and invited relevant experts from research institutions, federal agencies, and industry to evaluate the traceability of the results generated with the existing standards and quality criteria. During the discussion it emerged that numerous studies seem to be of insufficient quality for regulatory purposes or exhibit weaknesses with regard to data completeness. Deficiencies in study design could be avoided by more comprehensive use of appropriate standards, many of which already exist. The use of Electronic Laboratory Notebooks (ELNs) that allow for early collection of metadata and enrichment of datasets could be one solution to enable data re-use and simplify quality control. Generally, earlier provision and curation of data and metadata indicating their quality and completeness (e.g. guidelines, standards, standard operating procedures (SOPs) that were used) would improve their findability, accessibility, interoperability, and reusability (FAIR) in the nanosafety research field.
  • Item
    Concept for Setting up an LTA Working Group in the NFDI Section "Common Infrastructures"
    (Zenodo, 2022-04-12) Bach, Felix; Degkwitz, Andreas; Horstmann, Wolfram; Leinen, Peter; Puchta, Michael; Stäcker, Thomas
    NFDI consortia have a variety of disparate and distributed information infrastructures, many of which are as yet only loosely or poorly connected. A major goal is to create a Research Data Commons (RDC) . The RDC concept1 includes, for example, shared cloud services, an application layer with access to high-performance computing (HPC), collaborative workspaces, terminology services, and a common authentication and authorization infrastructure (AAI). The necessary interoperability of services requires, in particular, agreement on protocols and standards, the specification of workflows and interfaces, and the definition of long-term sustainable responsibilities for overarching services and deliverables. Infrastructure components are often well-tested in NFDI on a domain-specific basis, but are quite heterogeneous and diverse between domains. LTA for digital resources has been a recurring problem for well over 30 years and has not been conclusively solved to date, getting urgency with the exponential growth of research data, whether it involves demands from funders - the DFG requires 10 years of retention - or digital artifacts that must be preserved indefinitely as digital cultural heritage. Against this background, the integration of the LTA into the RDC of the NFDI is an urgent desideratum in order to be able to guarantee the permanent usability of research data. A distinction must be2 made between the archiving of the digital objects as bitstreams (this can be numeric or textual data or complex objects such as models), which represents a first step towards long-term usability, and the archiving of the semantic and software-technical context of the digital original objects, which entails far more effort. Beyond the technical embedding of the LTA in the system environment of a multi-cloud-based infrastructure, a number of technically differentiated requirements of the NFDI's subject consortia are part of the development of a basic service for the LTA and for the re-use of research data.3 The need for funding for the development of a basic LTA service for the NFDI consortia results primarily from the additional costs associated with the technical and organizational development of a cross-NFDI, decentralized network structure for LTA and the sustainable subsequent use of research data. It is imperative that the technical actors are able to act within the network as a technology-oriented community, and that they can provide their own services as part of the support for also within a federated infrastructure. The working group "Long Term Archiving" (LTA) is to develop the requirements of the technical consortia for LTA and, on this basis, strategic approaches for the implementation of a basic service LTA. The working group consists of members of various NFDI consortia covering the humanities, natural science and engineering disciplines and experts from a variety of pertinent infrastructures with strong overall connections to the nestor long-term archiving competence network. The close linkage of NFDI consortia with experienced4 partners in the field of LTA ensures that a) the relevant technical state-of-the-art is present in the group and b) the knowledge of data producers about contexts of origin and data users interact directly. This composition enables the team to take an overarching view that spans the requirements of the disciplines and consortia, also takes into account interdisciplinary needs, and at the same time brings in the existing know-how in the infrastructure sector.
  • Item
    Publikationen und Gender-Effekte in der Mathematik
    (Zenodo, 2018) Mihaljević, Helena; Santamaría, Lucía; Tullney, Marco
    Die Unterrepräsentation von Frauen in der wissenschaftlichen Mathematik hält trotz steigender Absolventinnenzahlen an. Publikationen sind ein wesentlicher Baustein wissenschaftlicher Karrieren. Deshalb werden sie in unserer Arbeit analysiert. Es werden zentraler Ergebnisse eines Forschungsartikels (https://doi.org/10.1371/journal.pone.0165367) vorgestellt, weitere Forschung angekündigt und schließlich zu einer Diskussion eingeladen. Die Ergebnisse zeigen deutliche Unterschiede beim Publikationsverhalten zwischen Frauen und Männern mit Karrierenachteilen für Frauen. Die Geschlechterzuschreibung erfolgte algorithmisch auf Basis von Einträgen in zbMATH.
  • Item
    Optimierte Erfassung und Veröffentlichung von Artikelmetadaten für eine nachhaltige Metadatenallmende im OA-Ökosystem zur Unterstützung von Auffindbarkeit und Evaluation
    (Zenodo, 2023) Nüst, Daniel; Hauschke, Christian; Coordts, Anette; Yücel, Gazi
    Die Metadatenallmende ist ein wichtiger Baustein für den Wandel hin zu einem diversen Open-Access-Ökosystem. Nur mit offenen und hochwertigen Metadaten, die mindestens die gleiche oder sogar höhere Qualität und Abdeckung als die Metadaten-Silos etablierter kommerzieller Verlage erreichen, können unabhängige Zeitschriften auf Augenhöhe Themen wie Auffindbarkeit und faire Evaluation von Forschenden angehen. Wir stellen einen Arbeitsablauf und Werkzeuge vor, die eine Professionalisierung der Metadatenprozesse von unabhängigen, scholar-led OA-Journals unterstützen. Diese Journals können damit ihre Sichtbarkeit im Wissenschaftssystem und ihre Bedeutung als Publikationsort erhöhen. Dazu wird die global verbreitete Free and Open Source Software (FOSS) Open Journal Systems (OJS) um Funktionen erweitert, die a) Eingabe, Kuratierung und Anreicherung von artikelbezogenen Metadaten durch Autor:innen und Editor:innen und b) den Export dieser Metadaten an offene Datenquellen wie z. B. Wikidata ermöglichen. Diese Erweiterung wird durch OJS-Plugins und auch Anpassung der OJS-Kernsoftware in den folgenden Anwendungsfällen umgesetzt: Erstens ermöglicht die Integration von validierten persistenten Identifikatoren (PIDs) und geographischen Metadaten als Teil der Publikationsmetadaten eine bessere Auffindbarkeit und von Artikeln aus Open-Access-Zeitschriften. PIDs und Geometadaten stellen Verbindungen zu anderen Publikationen, akademischen Events, physischen Proben und wissenschaftlichen Instrumenten her und verknüpfen so verwandte Artikel über Zeitschriften und Wissenschaftsdisziplinen hinweg. Auf Basis dieser Metadaten werden zum Beispiel eine Suchplattform realisiert, die wissenschaftliche Artikel über Disziplingrenzen und Publikationsplatformen hinweg als offene Daten interaktiv auf einer Karte darstellt, und semantisch bedeutsame Links in Artikeln und ihren Landing Pages eingefügt. Zweitens werden Zitationsmetadaten während des Einreichungs- und Begutachtungsprozesses strukturiert erfasst und frei in standardisierten Formaten veröffentlicht. Durch die innovative und benutzerfreundliche Metadatenerfassung im Zuge des wissenschaftlichen Ver­öffentlichungsprozesses können Open-Access-Artikel in transparenten zitationsbasierten Evaluationsmetriken verwendet werden. Diese Neuerungen unterstützen eine offene Publikationskultur und -praxis. In diesem Beitrag berichten wir vom aktuellen Arbeitsstand zu den Anwendungsfällen und beschreiben eine Vision für eine neuartige verteilte Erfassung und Veröffentlichung offener Metadaten.