Search Results

Now showing 1 - 10 of 126
  • Item
    Estimating the information gap between textual and visual representations
    (New York City : Association for Computing Machinery, 2017) Henning, Christian; Ewerth, Ralph
    Photos, drawings, figures, etc. supplement textual information in various kinds of media, for example, in web news or scientific pub- lications. In this respect, the intended effect of an image can be quite different, e.g., providing additional information, focusing on certain details of surrounding text, or simply being a general il- lustration of a topic. As a consequence, the semantic correlation between information of different modalities can vary noticeably, too. Moreover, cross-modal interrelations are often hard to describe in a precise way. The variety of possible interrelations of textual and graphical information and the question, how they can be de- scribed and automatically estimated have not been addressed yet by previous work. In this paper, we present several contributions to close this gap. First, we introduce two measures to describe cross- modal interrelations: cross-modal mutual information (CMI) and semantic correlation (SC). Second, a novel approach relying on deep learning is suggested to estimate CMI and SC of textual and visual information. Third, three diverse datasets are leveraged to learn an appropriate deep neural network model for the demanding task. The system has been evaluated on a challenging test set and the experimental results demonstrate the feasibility of the approach.
  • Item
    Survey: Open Science in Higher Education
    (Zenodo, 2017) Heck, Tamara; Blümel, Ina; Heller, Lambert; Mazarakis, Athanasios; Peters, Isabella; Scherp, Ansgar; Weisel, Luzian
    Based on a checklist that was developed during a workshop at OER Camp 2016 and presented as a Science 2.0 conference 2016 poster [1], we conducted an online survey among university teachers representing a sufficient variety of subjects. The survey was online from Feb 6th to March 3rd 2017. We got 360 responses, whereof 210 were completes, see raw data [2]. The poster is presented at Open Science Conference, 21.-22.3.2017, Berlin.
  • Item
    Service durch Kompetenzbündelung - Das institutionelle Konzept zum Forschungsdatenmanagement der Leibniz Universität Hannover
    (Heidelberg: heiBOOKS, 2017) Meyer, Anneke; Neumann, Janna
    Die Leibniz Universität Hannover hat den bedarfsgerechten Auf- und Ausbau des Unterstützungsangebots zum Umgang mit Forschungsdaten als strategisches Ziel definiert, um den eigenen Forschungsstandort zu stärken. Fachpersonal aus dem Dezernat Forschung, den Leibniz Universität IT Services (LUIS) und der Technischen Informationsbibliothek (TIB) haben dazu ein institutionelles Konzept entworfen, das seit Dezember 2016 umgesetzt wird. Ausgangspunkt des Konzepts bildete eine Umfrage zum Umgang mit Forschungsdaten an der Leibniz Universität Hannover, die durch qualitative Interviews ergänzt wurde. Das institutionelle Konzept umfasst folgende Elemente: Etablierung einer Policy zum Umgang mit Forschungsdaten für die gesamte Universität, Beratung und Schulung für Wissenschaftlerinnen und Wissenschaftler und die Service-Einrichtungen, Auf- und Ausbau eines institutionellen Datenrepositoriums und Entwicklung von Schnittstellen zum Forschungsinformationssystem und zum Volltextrepositorium, Universitätsübergreifende Kooperation & Vernetzung. Die vier Elemente befinden sich in einem unterschiedlichen Umsetzungsstand. Bereits seit 2014 führen die beteiligten Institutionen gemeinsam Beratungen und Schulungen durch und nutzen dafür zur Qualitätssicherung und gegenseitigen Information gemeinsame Dokumentationssysteme. In diesem Bereich konnten in den letzten zwei Jahre Erfahrungen gesammelt werden und Prozesse entsprechend optimiert werden. Die Herausforderung des Ansatzes an der Leibniz Universität besteht darin, ein einrichtungsübergreifendes Service-Angebot vorzuhalten und kollaborativ weiter zu entwickeln. Dadurch ist gewährleistet, dass Kompetenzen effektiv gebündelt werden und sich keine Parallelstrukturen an einzelnen Einrichtungen bilden. Durch die gemeinsam entwickelten Services werden Wissenschaftlerinnen und Wissenschaftler mit einer Stimme und auf mehreren Ebenen zum aktiven und bewussten Umgang mit Forschungsdaten angeregt. In diesem Artikel werden die ersten Erfahrungen in der Umsetzung der einzelnen Elemente des institutionellen Konzepts sowie in der Zusammenarbeit beleuchtet. Außerdem wird ein Ausblick auf die zukünftig angestrebte Entwicklung gegeben.
  • Item
    “Are machines better than humans in image tagging?” - A user study adds to the puzzle
    (Heidelberg : Springer, 2017) Ewerth, Ralph; Springstein, Matthias; Phan-Vogtmann, Lo An; Schütze, Juliane
    “Do machines perform better than humans in visual recognition tasks?” Not so long ago, this question would have been considered even somewhat provoking and the answer would have been clear: “No”. In this paper, we present a comparison of human and machine performance with respect to annotation for multimedia retrieval tasks. Going beyond recent crowdsourcing studies in this respect, we also report results of two extensive user studies. In total, 23 participants were asked to annotate more than 1000 images of a benchmark dataset, which is the most comprehensive study in the field so far. Krippendorff’s α is used to measure inter-coder agreement among several coders and the results are compared with the best machine results. The study is preceded by a summary of studies which compared human and machine performance in different visual and auditory recognition tasks. We discuss the results and derive a methodology in order to compare machine performance in multimedia annotation tasks at human level. This allows us to formally answer the question whether a recognition problem can be considered as solved. Finally, we are going to answer the initial question.
  • Item
    First results of a model user survey on a micro-scale model data standard
    (2020) Voss, Vivien; Schlünzen, K.Heinke; Grawe, David; Heydebreck, Daniel; Ganske, Anette
    Micro-scale models are important to assess processes in complex domains, for example cities. The most common data standard for atmospheric model output data are the CF-conventions, a data standard for netCDF files, but this standard is not adapted to the model output of micro-scale models. As a part of the project AtMoDat (Atmospheric Model Data) we want to develop a model data standard for obstacle resolving models (ORM), including the additional variables (i.e. building structures, wall temperatures) used by these models. In order to involve the micro-scale modeller community in this process, a web based survey was developed and distributed in the modeller community via conferences and email. With this survey we want to find out which micro-scale ORMs are currently in use, their model specifics (e.g. used grid, coordinate system), and the handling of the model result data. Furthermore, the survey provides the opportunity to include suggestions and ideas, what we should consider in the development of the standard. Between September 2019 and July 2020, the survey was accessed 29 times, but only 12 surveys were completed. The finished surveys refer to eight different models and their corresponding model information. Results show that these different models use different output formats and processing tools, which results in different model result handling routines. The participants suggested to use the netCDF data format and to provide information on model initialization, model settings and model input along with the model output data. This would enable an easier intercomparison between different models and repetition of model simulations. Standardized model output and variable names would also enhance the development of shared routines for the analysis of micro-scale model data and a better findability of the data with search engines. This survey will remain open with regular assessments of contents (i.e. November 2020, May 2021; https://uhh.de/orm-survey).
  • Item
    Making the Maturity of Data and Metadata Visible with Datacite DOIs
    (Washington, DC : ESSOAr, 2020) Kaiser, Amandine; Heydebreck, Daniel; Ganske, Anette; Kraft, Angelina
    Data maturity describes the degree of the formalisation/standardisation of a data object with respect to FAIRness and quality of the (meta-) data. Therefore, a high (meta-) data maturity increases the reusability of data. Moreover, it is an important topic in data management, which is reflected by a growing number of tools and theories trying to measure it, e.g. the FAIR testing tools assessed by RDA(1) or the NOAA maturity matrix(2). If the results of stewardship tasks cannot be shown directly in the metadata, reusers of data cannot easily recognise which data is easy to reuse. For example, the DataCite Metadata Schema does not provide an explicit property to link/store information on data maturity (e.g. FAIRness or quality of data/metadata). The AtMoDat project (3, Atmospheric Model Data) aims to improve the reusability of published atmospheric model data by scientists, the public sector, companies, and other stakeholders. These data are valuable because they form the basis to understand and predict natural events, including the atmospheric circulation and ultimately the atmospheric and planetary energy budget. As most atmospheric data has been published with DataCite DOIs, it is of high importance that the maturity of the datasets can be easily found in the DOI’s Metadata. Published data from other fields of research would also benefit from easily findable maturity information. Therefore, we developed a Maturity Indicator concept and propose to introduce it as a new property in the DataCite Metadata Schema. This indicator is generic and independent of any scientific discipline and data stewardship tool. Hence, it can be used in a variety of research fields. 1 https://doi.org/10.15497/RDA00034 2 Peng et al., 2015: https://doi.org/10.2481/dsj.14-049 3 www.atmodat.de
  • Item
    The ATMODAT Standard enhances FAIRness of Atmospheric Model data
    (Washington, DC : ESSOAr, 2020) Heydebreck, Daniel; Kaiser, Amandine; Ganske, Anette; Kraft, Angelina; Schluenzen, Heinke; Voss, Vivien
    Within the AtMoDat project (Atmospheric Model Data, www.atmodat.de), a standard has been developed which is meant for improving the FAIRness of atmospheric model data published in repositories. Atmospheric model data form the basis to understand and predict natural events, including atmospheric circulation, local air quality patterns, and the planetary energy budget. Such data should be made available for evaluation and reuse by scientists, the public sector, and relevant stakeholders. Atmospheric modeling is ahead of other fields in many regards towards FAIR (Findable, Accessible, Interoperable, Reusable, see e.g. Wilkinson et al. (2016, doi:10.1101/418376)) data: many models write their output directly into netCDF or file formats that can be converted into netCDF. NetCDF is a non-proprietary, binary, and self-describing format, ensuring interoperability and facilitating reusability. Nevertheless, consistent human- and machine-readable standards for discipline-specific metadata are also necessary. While standardisation of file structure and metadata (e.g. the Climate and Forecast Conventions) is well established for some subdomains of the earth system modeling community (e.g. the Coupled Model Intercomparison Project, Juckes et al. (2020, https:doi.org/10.5194/gmd-13-201-2020)), other subdomains are still lacking such standardisation. For example, standardisation is not well advanced for obstacle-resolving atmospheric models (e.g. for urban-scale modeling). The ATMODAT standard, which will be presented here, includes concrete recommendations related to the maturity, publication, and enhanced FAIRness of atmospheric model data. The suggestions include requirements for rich metadata with controlled vocabularies, structured landing pages, file formats (netCDF), and the structure within files. Human- and machine-readable landing pages are a core element of this standard and should hold and present discipline-specific metadata on simulation and variable level.
  • Item
    Tagungsbericht VIVO-Workshop 2017 - “Forschungsinformationen in der Praxis”
    (Luzern : Verein Informationspraxis, 2017) Mersmann, Jana; Hauschke, Christian
    Der Wissens- und Erfahrungsaustausch stand im Fokus des 2.VIVO-Workshop 2017 an der Technischen Informationsbibliothek (TIB) in Hannover. Der Workshop, der von rund 40 Teilnehmer/innen aus deutschsprachigen Hochschulen und Universitäten besucht wurde, war in zwei verschiedene Session unterteilt. In vorangestellten Vorträgen wurden sowohl technische Anpassungen und Weiterentwicklungen am Forschungsinformationssystem VIVO an einzelnen Einrichtungen erläutert, als auch Erfahrungsberichte einzelner Anwender/innen geteilt sowie Einsatzmöglichkeiten von VIVO in verschiedenen Kontexten thematisiert. Im anschließenden interaktiven Teil wurden Bedarfe und Herausforderungen diskutiert und gesammelt, die anschließend priorisiert wurden. Als Herausforderungen für die VIVO-Entwickler kristallisierten sich Verbesserungen in den Bereichen Reporting, Datenintegration und einem in den Administrationsbereich integrierten Rollenmanagement heraus. Der Workshop adressierte sehr erfolgreich den ebenso vielfach geäußerten Wunsch nach Vernetzung, Austausch und Fortbildung innerhalb der VIVO-Community und darüber hinaus.
  • Item
    X-Sprint: Climate and Migration - 100% Open Research for Climate Change
    (Meyrin : CERN, 2020-06-13) Worthington, Simon
    X-Sprint: Climate and migration - Workshop - Infrastructure for the Year to come Summer School 2020 #OCK @OCKProject - 10 June 2020. From the Open Climate Knowledge project. https://github.com/OCKProject
  • Item
    Open-Access-Konsortien als Instrument gemeinschaftlicher Open-Access-Finanzierung: Kollaboration als Erfolgsfaktor
    (Zenodo, 2022) Benz, Martina; Schulz, Katharina
    Open-Access-Konsortien organisieren die gemeinschaftliche Finanzierung von Open-Access-Publikationen. Dabei kann auf Erfahrungen aus dem traditionellen Konsortialbetrieb aufgebaut werden, der durch neue Aufgaben, Anforderungen an Publikationen, Konsorten und Konsortialführung erweitert wird. Vor allem betonen konsortiale Modelle den kollaborativen Charakter der Finanzierung. In unserem Vortrag berichten wir über die bisherigen Erfahrungen aus dem KOALA-Projekt (Konsortiale Open-Access-Lösungen aufbauen, BMBF-Projekt 2021-2023). Dabei gehen wir darauf ein, welche Aspekte wir für eine erfolgreiche Kollaboration in Open-Access-Konsortien identifizieren und wie diese zum Erreichen der Finanzierungsziele beiträgt. Aufbau und Betrieb von Konsortien erfordern eine eng abgestimmte Kooperation verschiedener Institutionen und Akteure. Für KOALA als Konsortialführerin bedeutet dies, eine Mittler-und Koordinationsrolle zwischen unterschiedlichen Denkweisen, Workflows und Begrifflichkeiten einzunehmen. Dies ist entscheidend, um arbeitsfähige Kooperationsstrukturen zu etablieren, gemeinsame Standards festzusetzen und schließlich eine gemeinschaftliche Open-Access-Finanzierung aufzubauen. So haben wir bspw. in der Akquise mit zahlreichen Herausgeber*inInnen, Redaktionen und Verlagen Gespräche geführt, die uns die Bandbreite institutioneller Kontexte, Bedarfe und Arbeitsweisen vor Augen geführt haben. Ihnen gegenüber erläutert KOALA bibliothekarische Mindeststandards und ein Verständnis der Prozesse einer Finanzverwaltung. Auf der anderen Seite unterstützt KOALA Bibliotheken, deren Erwerbungsentscheidungen auf Logiken aus der Subskriptionszeit basieren, Ausgaben für APC-freies Open Access argumentativ zu begründen. Schließlich befähigt KOALA Redaktionen, Verlage, Herausgeber*inInnen und Bibliotheken, innerhalb einer kollaborativen Konsortialstruktur die Open-Access-Transformation voranzutreiben. Interessengegensätze, z.B. zwischen Verlagen und Bibliotheken oder Zeitschriften lösen sich dabei nicht in Kollaborationsbeziehungen auf; die Kooperation im Konsortium erleichtert es aber, gemeinsame Standards zu etablieren, z.B. in Punkto Kostentransparenz gegenüber Verlagen. Über die erfolgreiche Finanzierung konkreter Publikationen hinaus sind die in KOALA gesammelten Erfahrungen wertvoll für die Diskussion von Möglichkeiten und Grenzen konsortialer Modelle als Instrumente gemeinschaftlicher Open-Access-Finanzierung.