Search Results

Now showing 1 - 10 of 365
  • Item
    Semantic modelling of video annotations – the TIB AV-Portal's metadata structure
    (Zenodo, 2018) Saurbier, Felix
    The TIB AV-Portal (https://av.tib.eu) is an online platform for sharing scientific videos operated by the German National Library of Science and Technology (TIB). Besides the allocation of Digital Object Identifiers (DOI) and Media Fragment Identifiers (MFID) for video citation, long-term preservation of all material and open licenses like Creative Commons, the core feature of the TIB AV-Portal are its various methods of automated metadata extraction to fundamentally improve search functionalities (e.g. fine-grained search and faceting). These comprise of an automated chaptering, extraction of superimposed text, speech to text recognition, and the detection of predefined visual concepts. In addition, extracted metadata are consequently mapped against authority files like the German “Gemeinsame Normdatei” and knowledge bases like DBpedia and Library of Congress Subject Headings via a process of automated named entity linking (NEL) to enable semantic and cross-lingual search. The results of this process are expressed as temporal and/or spatial video annotations, linking extracted metadata to certain key frames and video segments. In order to structure the data, express relations between single entities, and link to external information resources, several common vocabularies, ontologies and knowledge bases are being used. These include amongst others the Open Annotation Data Model, the NLP Interchange Format (NIF), BIBFRAME, the Friend of Friend Vocabulary (FOAF), and Schema.org. Furthermore, all data is stored adhering to the Resource Description Framework (RDF) data model and published as linked open data. This provides third parties with an interoperable and easy to reuse RDF graph representation of the AV-Portal’s metadata. On our poster we illustrate the general structure of the TIB AV-Portal’s comprehensive metadata both authoritative and extracted automatically. Here, the main focus is on the underlying video annotation graph model and on semantic interoperability and reusability of the data. In particular we visualize how the use of vocabularies, ontologies and knowledge bases allows for rich semantic descriptions of video materials as well as for easy metadata publication, interlinking, and opportunities of reuse by third parties (e.g. for information retrieval and enrichment). In doing so, we present the AV-Portal’s metadata structure as an illustrative example for the complexity of modelling temporal and spatial video metadata and as a set of best practices in the field of audio-visual resources.
  • Item
    Sprints und kollaboratives Wissensmanagement im Confluence-Wiki der Technischen Informationsbibliothek
    (Reutlingen : Berufsverband Information Bibliothek e. V., 2017) Strobel, Sven
    Soziale Softwarewerkzeuge wie Wikis sind in Unternehmen und auch im Bibliotheksbereich längst etabliert. Sie unterstützen das Projekt- und Wissensmanagement der Organisation. Häufig werden die Möglichkeiten, die diese Techniken bieten, allerdings nicht voll ausgeschöpft. Dieser Beitrag zeigt anhand eines Projekts der Technischen Informationsbibliothek (TIB), wie wesentlich das Unternehmenswiki das Wissensmanagement und kollaborative Arbeiten in Projekten unterstützen kann, wenn es intensiv genutzt wird. Die TIB musste nicht erst eine teure und komplizierte Software hinzukaufen, sondern setzte auf das im Haus bereits etablierte Confluence-Wiki. Confluence ist ein Standard-Tool, das in vielen Bibliotheken verwendet wird. Das TIB-Projekt hatte zum Ziel, den Relaunch des AV-Portals (av.tib.eu) zu organisieren. Das Team integrierte in seine Projektarbeit ein Konzept aus dem agilen Produktmanagement: sog. Sprints“. Diese Sprints wurden mit einem differenzierten und rollenbasierten Prozess im Confluence-Wiki abgebildet. In dem von der TIB entwickelten Sprint-Konzept legt der Projektmanager ein Dokument im Wiki an, in dem er erste Anforderungen und Aufgaben für alle Teammitglieder festhält. Die Teammitglieder schreiben das Konzept kollaborativ auf einer Wiki-Seite und arbeiten ihre Aufgaben ab. Der Projektmanager nutzt das Wiki, um Konzeptfortschritt und Aufgabenbearbeitung zu kontrollieren. Sprints liefern am Ende Konzepte, die kollaborativ evaluiert, entwickelt und abgenommen wurden. Sie vereinfachen und beschleunigen komplexe Entscheidungsfindungen und lassen sich in zahlreichen Bereichen des Projekt- und Wissensmanagements anwenden. Der Beitrag stellt Ablauf, Rollen und Dokumente des TIB-Sprint-Workflows detailliert vor.
  • Item
    DDB-KG: The German Bibliographic Heritage in a Knowledge Graph
    (Aachen, Germany : RWTH Aachen, 2021) Tan, Mary Ann; Tietz, Tabea; Bruns, Oleksandra; Oppenlaender, Jonas; Dessì, Danilo; Harald, Sack; Sumikawa, Yasunobu; Ikejiri, Ryohei; Doucet, Antoine; Pfanzelter, Eva; Hasanuzzaman, Mohammed; Dias, Gaël; Milligan, Ian; Jatowt, Adam
    Under the German government’s initiative “NEUSTART Kultur”, the German Digital Library or Deutsche Digitale Bibliothek (DDB) is undergoing improvements to enhance user-experience. As an initial step, emphasis is placed on creating a knowledge graph from the bibliographic record collection of the DDB. This paper discusses the challenges facing the DDB in terms of retrieval and the solutions in addressing them. In particular, limitations of the current data model or ontology to represent bibliographic metadata is analyzed through concrete examples. This study presents the complete ontological mapping from DDB-Europeana Data Model (DDB-EDM) to FaBiO, and a prototype of the DDB-KG made available as a SPARQL endpoint. The suitabiliy of the target ontology is demonstrated with SPARQL queries formulated from competency questions.
  • Item
    Wege zu Open Access: Beispiele aus der Praxis
    (Darmstadt : TU Darmstadt, 2017) Schmeja, Stefan
    [no abstract available]
  • Item
    Advancing Research Data Management in Universities of Science and Technology
    (Meyrin : CERN, 2020-02-13) Björnemalm, Matthias; Cappellutti, Federica; Dunning, Alastair; Gheorghe, Dana; Goraczek, Malgorzata Zofia; Hausen, Daniela; Hermann, Sibylle; Kraft, Angelina; Martinez Lavanchy, Paula; Prisecaru, Tudor; Sànchez, Barbara; Strötgen, Robert
    The white paper ‘Advancing Research Data Management in Universities of Science and Technology’ shares insights on the state-of-the-art in research data management, and recommendations for advancement. A core part of the paper are the results of a survey, which was distributed to our member institutions in 2019 and addressed the following aspects of research data management (RDM): (i) the establishment of a RDM policy at the university; (ii) the provision of suitable RDM infrastructure and tools; and (iii) the establishment of RDM support services and trainings tailored to the requirements of science and technology disciplines. The paper reveals that while substantial progress has been made, there is still a long way to go when it comes to establishing “advanced-degree programmes at our major universities for the emerging field of data scientist”, as recommended in the seminal 2010 report ‘Riding the Wave’, and our white paper offers concrete recommendations and best practices for university leaders, researchers, operational staff, and policy makers. The topic of RDM has become a focal point in many scientific disciplines, in Europe and globally. The management and full utilisation of research data are now also at the top of the European agenda, as exemplified by Ursula von der Leyen addressat this year’s World Economic Forum.However, the implementation of RDM remains divergent across Europe. The white paper was written by a diverse team of RDM specialists, including data scientists and data stewards, with the work led by the RDM subgroup of our Task Force Open Science. The writing team included Angelina Kraft (Head of Lab Research Data Services at TIB, Leibniz University Hannover) who said: “The launch of RDM courses and teaching materials at universities of science and technology is a first important step to motivate people to manage their data. Furthermore, professors and PIs of all disciplines should actively support data management and motivate PhD students to publish their data in recognised digital repositories.” Another part of the writing team was Barbara Sanchez (Head of Centre for Research Data Management, TU Wien) and Malgorzata Goraczek (International Research Support / Data Management Support, TU Wien) who added:“A reliable research data infrastructure is a central component of any RDM service. In addition to the infrastructure, proper RDM is all about communication and cooperation. This includes bringing tools, infrastructures, staff and units together.” Alastair Dunning (Head of 4TU.ResearchData, Delft University of Technology), also one of the writers, added: “There is a popular misconception that better research data management only means faster and more efficient computers. In this white paper, we emphasise the role that training and a culture of good research data management must play.”
  • Item
    In wenigen Schritten zur Zweitveröffentlichung: Ein Leitfaden für Mitarbeiter:innen in Publikationsservices
    (Zenodo, 2024-02-08) Dellmann, Sarah; Deuter, Franziska; Hulin, Sylvia; Kuhlmeier, Antje; Matuszkiewicz, Kai; Schneider, Corinna; Schröer, Cäcilia; Weisheit, Silke; Strauß, Helene
    Viele wissenschaftliche Bibliotheken bieten den Angehörigen der eigenen Einrichtung einen Zweitveröffentlichungsservice an. Um den Austausch zu diesem Thema zu fördern, wurde im Jahr 2021 die „Digitale Fokusgruppe Zweitveröffentlichung“ im Rahmen der Kompetenz- und Vernetzungsplattform „open-access.network“ gegründet. Der vorliegende Leitfaden ist aus dem Bedarf entstanden, Kolleg:innen bei Einrichtung und Ausbau eines Zweitveröffentlichungsservices zu unterstützen. Er richtet sich daher vor allem an Kolleg:innen, die (neu) im Themenfeld Zweitveröffentlichung arbeiten oder die sich z. B. im Rahmen der bibliothekarischen Ausbildung mit diesem Thema beschäftigen. Der Leitfaden entstand in einem kollaborativen Schreibprozess von Mitgliedern der Fokusgruppe Zweitveröffentlichung zwischen Dezember 2022 und November 2023.
  • Item
    VIVO-DE-Extension und VIVO-KDSF – Ontologien für den deutschsprachigen Raum
    (Zenodo, 2017) Kasprzik, Anna
    Der Aufbau einer deutschsprachigen Version der Fachinformationssystem-Software VIVO ist nicht so einfach, da sich auf allen Ebenen des Systems sprachspezifische Elemente finden -- von der Anzeige bis hin zu den enthaltenen Ontologien -- und da eine direkte Übersetzung aufgrund kultureller Unterschiede in den Wissenschaftslandschaften oft nicht möglich ist. In dieser Präsentation werden die entsprechenden Aktivitäten der deutschsprachigen VIVO-Community vorgestellt und es wird zur Beteiligung aufgerufen.
  • Item
    In wenigen Schritten zur Zweitveröffentlichung : Workflows für Publikationsservices
    (Zenodo, 2022) Dellmann, Sarah; Drescher, Katharina; Hofmann, Andrea; Hulin, Sylvia; Jung, Jakob; Kobusch, Alexander; Kuhlmeier, Antje; Matuszkiewicz, Kai; Pfeifer, Mats; Schneider, Corinna; Slavcheva, Adriana; Steinecke, Mascha; Ziegler, Barbara
    Zweitveröffentlichungen von bereits veröffentlichten Publikationen haben eine freie Nutzbarmachung zum Ziel und nutzen den "Grünen Weg" im Open Access. Der Zweitveröffentlichungsworkflow umfasst mehrere Schritte, deren Reihenfolge zum Teil flexibel ist. Für die genaue Umsetzung der einzelnen Schritte gibt es stets verschiedene Optionen, die je nach den Rahmenbedingungen der jeweiligen Einrichtung (z. B. technische Infrastruktur, Personalressourcen) festgelegt werden. Dabei sollten bei der Planung bzw. Weiterentwicklung des Workflows möglichst die Automatisierungspotenziale einzelner Prozesse genutzt werden. Basierend auf einem Workflow-Vergleich der Zweitveröffentlichungsservices der beteiligten Einrichtungen empfiehlt die Unterarbeitsgruppe Workflows (Fokusgruppe Zweitveröffentlichungen) des open-access.network folgende neun Schritte: (1) Auswahl von Informationsquellen zur Identifikation potentieller Zweitveröffentlichungen (2) Rechtliche Prüfung, ob eine Zweitveröffentlichung zulässig ist; (3) Einholen der Publikationsgenehmigung von den Autor*innen; (4) Prüfung, welche Manuskriptversion veröffentlicht werden darf; (5) Bearbeitung der Publikationsdatei; (6) Dublettenprüfung, Eingabe der Metadaten und Ablage der Datei; (7) Dokumentation der Rechtsgrundlage für die Veröffentlichung; (8) Öffentlichkeitsarbeit für die Zweitveröffentlichung; (9) Monitoring und Dokumentation sowie Werbung für den eigenen Service.
  • Item
    Consortial certification processes – The Goportis digital archive. A case study
    (Bern : Swiss National Library, 2016) Friese, Yvonne; Gerdes, Thomas; Schwab, Franziska; Bähr, Thomas
    Subject Libraries. One key area of collaboration is digital preservation. The Goportis Digital Archive is jointly used by the consortial partners. As part of their quality management the partners strive to obtain certifications for trustworthy digital repositories. The Goportis Consortium successfully applied for the Data Seal of Approval (DSA) [1] and is currently working on the application for the nestor Seal [2]. The poster illustrates the collaboration of the Goportis partners during the certification process (distribution of tasks, time frame, etc.). This way it could serve as best-practice example for other institutions interested in consortial certification.
  • Item
    Ontology Design for Pharmaceutical Research Outcomes
    (Cham : Springer, 2020) Say, Zeynep; Fathalla, Said; Vahdati, Sahar; Lehmann, Jens; Auer, Sören; Hall, Mark; Merčun, Tanja; Risse, Thomas; Duchateau, Fabien
    The network of scholarly publishing involves generating and exchanging ideas, certifying research, publishing in order to disseminate findings, and preserving outputs. Despite enormous efforts in providing support for each of those steps in scholarly communication, identifying knowledge fragments is still a big challenge. This is due to the heterogeneous nature of the scholarly data and the current paradigm of distribution by publishing (mostly document-based) over journal articles, numerous repositories, and libraries. Therefore, transforming this paradigm to knowledge-based representation is expected to reform the knowledge sharing in the scholarly world. Although many movements have been initiated in recent years, non-technical scientific communities suffer from transforming document-based publishing to knowledge-based publishing. In this paper, we present a model (PharmSci) for scholarly publishing in the pharmaceutical research domain with the goal of facilitating knowledge discovery through effective ontology-based data integration. PharmSci provides machine-interpretable information to the knowledge discovery process. The principles and guidelines of the ontological engineering have been followed. Reasoning-based techniques are also presented in the design of the ontology to improve the quality of targeted tasks for data integration. The developed ontology is evaluated with a validation process and also a quality verification method.