Search Results

Now showing 1 - 10 of 55
  • Item
    Estimating the information gap between textual and visual representations
    (New York City : Association for Computing Machinery, 2017) Henning, Christian; Ewerth, Ralph
    Photos, drawings, figures, etc. supplement textual information in various kinds of media, for example, in web news or scientific pub- lications. In this respect, the intended effect of an image can be quite different, e.g., providing additional information, focusing on certain details of surrounding text, or simply being a general il- lustration of a topic. As a consequence, the semantic correlation between information of different modalities can vary noticeably, too. Moreover, cross-modal interrelations are often hard to describe in a precise way. The variety of possible interrelations of textual and graphical information and the question, how they can be de- scribed and automatically estimated have not been addressed yet by previous work. In this paper, we present several contributions to close this gap. First, we introduce two measures to describe cross- modal interrelations: cross-modal mutual information (CMI) and semantic correlation (SC). Second, a novel approach relying on deep learning is suggested to estimate CMI and SC of textual and visual information. Third, three diverse datasets are leveraged to learn an appropriate deep neural network model for the demanding task. The system has been evaluated on a challenging test set and the experimental results demonstrate the feasibility of the approach.
  • Item
    Beitragsmodell (arXiv)
    (Berlin : de Gruyter, 2017) Tobschall, Esther
    Auch nach 25 Jahren ist der E-Print-Server arXiv noch immer eine bedeutende Plattform für die schnelle Veröffentlichung von Forschungsergebnissen und we-sentliche Informationsquelle für seine Fachgebiete. arXiv ist zentrales Fachrepo-sitorium und gilt als Prototyp des Open-Access-Publizierens. Dennoch hat Erfolg auch immer seinen Preis: Dieser Beitrag stellt die Informationsplattform arXiv vor und beschreibt die Erfahrungen mit einem Geschäftsmodell, das über Mit-gliedsbeiträge eine nachhaltige Finanzierung erreichen will.
  • Item
    Survey: Open Science in Higher Education
    (Zenodo, 2017) Heck, Tamara; Blümel, Ina; Heller, Lambert; Mazarakis, Athanasios; Peters, Isabella; Scherp, Ansgar; Weisel, Luzian
    Based on a checklist that was developed during a workshop at OER Camp 2016 and presented as a Science 2.0 conference 2016 poster [1], we conducted an online survey among university teachers representing a sufficient variety of subjects. The survey was online from Feb 6th to March 3rd 2017. We got 360 responses, whereof 210 were completes, see raw data [2]. The poster is presented at Open Science Conference, 21.-22.3.2017, Berlin.
  • Item
    A PDF Test-Set for Well-Formedness Validation in JHOVE - The Good, the Bad and the Ugly
    (Zenodo, 2017) Lindlar, Michelle; Tunnat, Yvonne; Wilson, Carl
    Digital preservation and active software stewardship are both cyclical processes. While digital preservation strategies have to be reevaluated regularly to ensure that they still meet technological and organizational requirements, software needs to be tested with every new release to ensure that it functions correctly. JHOVE is an open source format validation tool which plays a central role in many digital preservation workflows and the PDF module is one of its most important features. Unlike tools such as Adobe PreFlight or veraPDF which check against requirements at profile level, JHOVE’s PDF-module is the only tool that can validate the syntax and structure of PDF files. Despite JHOVE’s widespread and long-standing adoption, the underlying validation rules are not formally or thoroughly tested, leading to bugs going undetected for a long time. Furthermore, there is no ground-truth data set which can be used to understand and test PDF validation at the structural level. The authors present a corpus of light-weight files designed to test the validation criteria of JHOVE’s PDF module against “well-formedness”. We conclude by measuring the code coverage of the test corpus within JHOVE PDF validation and by feeding detected inconsistencies of the PDF-module back into the open source development process.
  • Item
    Integrating distributed data sources in VIVO via lookup services
    (Kiel : ZBW - Leibniz Information Centre for Economics, 2017) Walther, Tatiana; Barber, Martin
    Recording information about countries, conferences, organizations and concepts in a Linked Data application like VIVO means at the first stage an initial import of a large number of data items, which beforehand must be transformed into RDF and manually enriched with persistent identifiers, geographic position, short description, and multilingual labels. Collecting, enriching and converting such an amount of information cost considerable temporal and administrative efforts. Storage of the amount of data can slow down the performance, responsiveness and reasoning processes of an application. Lookup services, already developed for VIVO, DSpace-CRIS, Linked Data for Libraries (LD4L) and other projects are aimed to facilitate the integration of external authority data. Whereas some vocabularies and data sources like EuroVoc and Wikidata offer a SPARQL endpoint, other authority data sources such as the Integrated Authority File of the German National Library (GND) provide only data dumps. Our objective is to enable a combined access to external sources via a single interface, using Named Entity Recognition tools, APIs and SKOSMOS in the background. Beside concepts we would also provide integration of such data items as events, organizations and languages, supplemented with additional information, which requires mappings between source and target systems in order to insert and display attributes and relations of the selected entities. Furthermore we investigate the automated transferring of the changes made in external vocabularies to the data in the target system. This presentation outlines our achievements and lessons learned concerning the integration of semantically structured and enriched data from distributed sources via lookup services, similar to the external vocabulary services in VIVO and related projects.
  • Item
    Finanzierungsmodelle innerhalb von Konsortien - ist eine „gerechte“ Kostenverteilung möglich und realisierbar?
    (Reutlingen : Berufsverband Information Bibliothek e. V., 2017) Vosberg, Dana
    Der Zusammenschluss von Bibliotheken zur gemeinschaftlichen Verhandlung und Abwicklung der Lizenzierung elektronischer Ressourcen ist mittlerweile weit verbreitet. Es existiert eine Vielzahl regionaler, überregionaler oder einrichtungsbezogener Konsortien, in denen Bibliotheken ihre Verhandlungsmacht bündeln, um auf diese Weise bessere Vertragskonditionen zu erzielen. Die Höhe möglicher Konsortialrabatte sagt aber noch nichts darüber aus, ob innerhalb eines Konsortiums wirklich alle Bibliotheken gleichermaßen von einer Teilnahme profitieren. Bisher wird die Kostenverteilung in Konsortien meist durch den Verlag und oft noch auf Basis bestehender Print-Abonnements vorgenommen. Es stellt sich die Frage, ob eine solche Kostenverteilung noch zeitgemäß ist und ob sich vielleicht durch die Berücksichtigung weiterer, z.B. nutzungsbezogener Kennzahlen eine angemessenere Kostenbelastung erreichen lässt. Das Ziel des Beitrages besteht deshalb darin, ein Finanzierungsmodell zu entwickeln, dass durch die Einbeziehung und Gewichtung verschiedener einrichtungsbezogener Kennzahlen eine hinreichend "gerechte“ Kostenverteilung zwischen den Konsortialteilnehmern ermöglicht.
  • Item
    Erste Ergebnisse des DFG-geförderten Projekts NOA – Nachnutzung von Open-Access-Abbildungen
    (Zenodo, 2017) Sohmen, Lucia
    Abbildungen haben für die Visualisierung und das Verständnis von Forschungsergebnissen heute eine überragende Bedeutung. Open Access vervielfacht das Potenzial der Nachnutzung solcher Abbildungen, zum Beispiel in der Wikipedia, aber auch in der Forschungsliteratur, sowie in Materialien zur Lehre und Wissensvermittlung, wie digitalen Präsentationsfolien oder Unterrichtsblättern, für die eine Lizensierung von Bildmaterial oft eine Barriere darstellt. Während wissenschaftliche Publikationen durch standardisierte Indizes über Suchmaschinen und in bibliothekarischen Rechercheportalen gefunden und nachgenutzt werden können, fehlt ein vergleichbarer gezielter Zugriff auf die darin enthaltenen oder sie begleitenden Abbildungen. Daher besteht ein Bedarf nach Verfahren zur Sammlung und Erschließung solcher Abbildungen. In unserem Vortrag wollen wir die ersten sichtbaren Ergebnisse des DFG-geförderten Projekts NOA – Nachnutzung von Open-Access-Abbildungen vorstellen. Ziel des Projekts ist es, basierend auf der Infrastruktur von Wikimedia Commons und Wikidata, ein Verfahren zur automatischen Sammlung (Harvesting), Erschließung und Bereitstellung von ingenieurwissenschaftlichen Abbildungen aus einigen qualitätsgesicherten Open-Access-Journals zu entwickeln und als Index sowie Suchservice verfügbar zu machen. Arbeitspakete umfassen das Harvesting von Open-Access-Artikeln, die Aufbereitung und Erschließung des Textes sowie ggf. enthaltener Abbildungen.
  • Item
    VIVO - kollaborative Anpassung eines Open-Source-Forschungsinformationssystems
    (Zenodo, 2017) Hauschke, Christian
    Ontologiearbeit, Wissensmodellierung und kollaborative Weiterentwicklung von Open-Source-Software gehören zu den Zukunftsaufgaben des wissenschaftlichen Bibliothekswesens. Am Beispiel der Aktivitäten der TIB rund um die Open-Source-Software VIVO wird gezeigt, welche Rollen BibliothekarInnen dabei einnehmen können. VIVO ist eine community-basierte Open-Source-Software zur Darstellung vernetzter Forscherprofile im Web. VIVO bietet Erfassung, Suche, Browsing und Visualisierung von Forschungsinformationen. Es hilft bei der Netzwerk-Analyse, der Bewertung der Forschung und als Experten-Suchsystem, alles auf Basis von Linked Data und offenen Standards. Die Software und die dahinter stehende Ontologie zur Beschreibung des akademischen Gegenstandsbereichs entspringen dem US-amerikanischen Wissenschaftssystem. Sie sind folglich dazu gedacht, den Wissenschaftsbetrieb auf die dort übliche Art und Weise vorzustellen. So steht zwar eine große Auswahl an Organisationstypen wie Schools, Colleges oder Academic Departments zur Verfügung. Einige im deutschsprachigen Raum maßgebliche Arten von Organisationseinheiten innerhalb von akademischen Einrichtungen – wie z.B. Fakultäten oder Lehrstühle in Hochschulen – fehlen jedoch. Die Erweiterung der Ontologie auf deutsche Spezifika, aber auch die Übersetzung der Benutzeroberfläche ins Deutsche erfolgte als kollaborative Anstrengung verschiedener Institutionen. Die Technische Informationsbibliothek (TIB) bringt sich ein in die Anpassung der Ontologie und Koordination der deutschsprachigen Community-Aktivitäten. Neben dem hinter dem Kürzel VIVO-DE stehenden Netzwerk gibt es noch eine weitaus größere internationale VIVO-Community, die die Software weiterentwickelt und ihr Nachhaltigkeit durch einen stabilen organisatorischen Rahmen verleiht. Im ersten Teil des Vortrags werden die wesentlichen Merkmale der Software VIVO vorgestellt. Dies umfasst die Vorstellung eines Personenprofils, verschiedene Visualisierungen - z.B. von Ko-Autorschaften oder des Outputs einer Organisationseinheit, aber auch die Eingabe von Daten. Anschließend wird die Systematik der VIVO zugrunde liegenden Ontologien erläutert. Darauf aufbauend wird am konkreten Beispiel ausgeführt, wie VIVO als typisches Beispiel für kollaborative Open-Source-Nachnutzung und Weiterentwicklung durch ein Zusammenspiel verschiedener Akteure weiterentwickelt und an regionale Spezifika angepasst wird. Zur Sprache kommt auch die Interaktion mit der internationalen Entwickler-Community.
  • Item
    Lost in translation – challenges of tailoring VIVO to the needs of the German scholarly landscape
    (Hannover : Technische Informationsbibliothek, 2017) Hauschke, Christian; Barber, Martin; Kasprzik, Anna; Walther, Tatiana
    Every time a research information system is implemented in an academic institution there is a need to adjust the software to local needs. If a system has its roots in a different country, the adjustments can be more comprehensive. In this case, the VIVO ontology and a lot of the underlying assumptions, which are based on the realities of the US scholarly landscape, must be “tailored” to be able to depict “German” academic reality. The differences concern both the meaning of the translated terms and the usage of the terms in the common parlance. The prominent examples for such kind of terms are grants and faculties. ‘Grant’ is an essential concept to describe the funding of research projects. Universities are divided into colleges and schools. The concepts for the description of research funding in Germany are completely different, and universities are usually divided into ‘Fakultäten’ and ‘Lehrstühle’. Furthermore, terms like ‘faculty’, or ‘grant’ are not being used consistently in German academic institutions. On the other hand some concepts which are important for representing the German academic landscape are missing in the VIVO Ontology. There are ongoing efforts to add missing classes and properties. The extension of the VIVO ontology with concepts as universal and interoperable as possible, and which are typical for Germany also requires broad agreement between German VIVO applicants. Due to the above mentioned issues, it was necessary, that, actors from different German institutions build a network to collaborate on these problems. This collaboration takes place in a number of working groups, calls and on GitHub. It has been resulted in a general ontology extension (VIVO-DE) and several drafts of the translation of the VIVO Ontology. Another common task is the translation of the VIVO application files into German and the constant updating of this translation with every new VIVO version. The 'Kerndatensatz Forschung' (The Research Core Dataset - a data model for research reporting) as an extension of the VIVO Ontology is one of the current tasks, which is collaborated on as well. This talk concerns the challenges, efforts and tools of the German VIVO community to address the described issues.
  • Item
    Extending Media Literacy Education: The Popular Science Video Workshop
    (Den Haag : IFLA, 2017) Plank, Margret; Molnár, Attila Dávid; Marín-Arraiza, Paloma
    This article discusses the current relevance of videos for communicating science and presents the state of the art of Media Literacy Education programs for scientists in this area. Some initiatives of these programs are supported by university libraries and specialised libraries, and others by universities and research centres themselves. We introduce a program which is designed to provide scientists with specific training for creating and publishing video abstracts. The participants learn how to write a script for a video and acquire the basic skills they need to record audio and video, and edit footage together into a complete unit. This combines both scientific communication and creativity. The aim of this article is to show how scientists can effectively record video abstracts for their papers on their own, how libraries can support them in this issue, and how important it is to extend Media Literacy Education by programs for scientists.