Search Results

Now showing 1 - 9 of 9
Loading...
Thumbnail Image
Item

Genealogical properties of spatial models in Population Genetics

2023-09, Wirtz, Johannes

At the interface between Phylo- and Population Genetics, and recently heavily inspired by Epidemonology, the discipline of Phylogeography comprises modelling techniques from classical theoretical biology and combines them with a spatial (2D or 3D) aspect, with the purpose of utilizing geographical information in the analysis to understand the evolutionary history of a biological system or aspects of virology such as directionality and seasonality in pandemic outbreaks [1, 2, 3, 4]. An prime example of this are datasets that take into account the sampling locations of its components (geo-referenced genomic data). In this project, we have focused on the model called "spatial Lambda-Fleming-Viot process" ( V [5, 6]) and analzed its statistical properties forward in time as well as in the ancestral (dual) process, with results that may be used for parameter inference. Of particlar interest was the spatial variance, denoted , a parameter controlling the speed at which genetic information is spread across space and therefore an analog of the reproduction number (R0) used in epidemonology e.g. to assess the infectiousness of differing viral strains. We explored the relation of this parameter to the time to coalescence between lineage pairs in this model and described methods of estimating it from sampled data under different circumstances. We have furthermore investigated similarities and differences between this model and classical models in Population Genetics, particularly Birth-Death processes, which are heavily used for all kinds of biological inference problems, but do not by themselves feature a spatial component. We compared the Vto a variant of the Birth-Death process where the location of a live individual changes over the course of its lifetime according to a Brownian motion. This process is not as easily viewed backward in time as the V, but the genalogical process is accessible by Markov-Chain Monte Carlosimulation, as the likelihoods of ancestral positions and branch lengths are easily calculated, making this model easily applicable to data. Our analysis highlights the analogy between the two processes forward in time as well as backward in time; on the other hand, we also observed a divergent behavior of the two models when no prior on the phylogenetic time scale was assumed. Lastly, this project has given rise to a study of combinatorial properties of tree shapes relevant to the V, the Birth-Death and other biological processes. In particular, we were able to identify the combinatorial class genealogical trees generated from these processes belong to and verify a conjecture regarding their enumeration. Preliminary versions of software tools for the aforementioned inference have also been provided.

No Thumbnail Available
Item

QuaMath – A Large-scale Implementation Program to improve Mathematics Education

2024-06-11, Hallemann, Svea

This Mini-Review introduces the QuaMath program (“Developing Quality in Mathematics classrooms and teacher professional development”). The national 10-year program aims to develop the quality of mathematics instruction and teacher professional development in collaboration with the federal states. QuaMath is conducted within the framework of the DZLM (Deutsches Zentrum für Lehrkräftebildung Mathematik (German Center for Mathematics Teacher Education, a network of 12 German universities collaborated with the IPN Leibniz-Institute for Science and Mathematics Education)). Working with teachers and practitioners, the DZLM develops, implements, and researches effective training and support programs in mathematics for teachers and early childhood educators. I address the special role of the 400 facilitators in the implementation and success of the QuaMath program. They themselves receive intense training from the Consortium of Mathematics Education Professors (DZLM).

Loading...
Thumbnail Image
Item

Offene Bildungsinfrastrukturen : Anforderungen an eine OER-förderliche IT-Infrastruktur

2023, Wannemacher, Klaus, Stein, Mathias, Kaemena, Alena

Offene Bildungsinfrastrukturen sollen den freien Zugang zu (Hochschul-)Bildung unterstützen. Sie ermögli-chen Studierenden den uneingeschränkten Zugriff auf frei verfügbare Lehr- und Lernmaterialien (OER Open Educational Resources), erweitern hochschuldidaktische Möglichkeiten und tragen zur Sichtbarkeit von Lehrexpertise bei. Zudem leisten sie einen Beitrag zur Qualitätsförderung von Studium und Lehre und unterstützen den Kompetenzaufbau bei Lehrenden und Studierenden. Die Gesamtheit der offenen Bildungsinfrastrukturen differenziert sich weiter aus. Angesichts der vielfältigen Landschaft der OER-förderlichen IT-Infrastrukturen für die Hochschulen und der unzureichenden Integration von OER-Portalen, -Plattformen und -Tools erscheinen verstärkte Bemühungen um bessere Voraussetzungen zur Herstellung von Interoperabilität zwischen Informations- und Weiterbildungsportalen im Bereich der Hochschullehre geboten. Zu diesem Zweck führten das nordrhein-westfälische OER-Portal ORCA.nrw und das HIS-Institut für Hochschulentwicklung (HIS-HE) in Kooperation mit der Stiftung Innovation in der Hochschullehre eine Untersuchung durch, die auf Grundlage einer Erhebung des gegenwärtigen Entwicklungsstands Anregungen zur Herstellung von Interoperabilität zwischen Informations- und Weiterbildungsportalen im Hochschulkontext ge-ben möchte. Mittels einer Literaturanalyse, eines hybriden Expert:innen-Workshops sowie leitfadengestützter Expert:innen-Interviews wurde eine überblicksartige Darstellung OER-förderlicher IT-Infrastrukturen für den Hochschulbereich unter besonderer Berücksichtigung lehrbezogener und didaktischer Implikationen er-arbeitet. Zudem wurden Anforderungen an eine offene Bildungsinfrastruktur aus technischer, hochschuldidaktischer und bildungsorganisatorischer Perspektive ermittelt und potenzielle künftige Entwicklungsschritte definiert. Im Rahmen der durchgeführten Erhebungsschritte zeigte sich, dass sich die Landschaft der offenen Bildungsinfrastrukturen im Hochschulsektor kontinuierlich ausdifferenziert und durch ein hohes Maß an Vielfalt geprägt ist. Sie umfasst Vernetzungseinrichtungen, OER-Repositorien und -Referatorien, Informations- und Weiterbildungsportale sowie Stand-alone-Lösungen wie lokale Installationen von Lernmanagementsystemen (LMS) an Hochschulen. Das Bestreben zum Schaffen von Aggregationsmechanismen für OER (vgl. OERSI, Digitale Vernetzungsinfrastruktur Bildung u. ä.) befindet sich in einem frühen Stadium. Die dezentrale Verortung offener Bildungsinfrastrukturen scheint dem Ziel der leichten Auffindbarkeit und ausgiebigen Weiternutzung offener Lehr- und Lernmaterialien teilweise entgegenzustehen. Als zentrale Herausforderung erweist sich daher die Vernetzung bestehender Portale und Tools durch die Nutzung eines allgemein anerkannten Metadatenprofils und Standardvokabulars für Lehr- und Lernmaterialien, eine stärkere Vernetzung bestehender Infrastrukturen durch einen Aggregationsmechanismus für digitale Lernressourcen sowie eine verbesserte Interoperabilität entsprechender Infrastrukturen durch das Schaffen von Schnittstellen und das Nutzen von Plugins. Zugleich wurde deutlich, dass technische, organisatorische und didaktische Unterstützungsdienste für eine ausgiebige Nutzung von OER bislang noch zurück-haltend angeboten werden. Es bedarf mittelfristig einer stärkeren Automatisierung im Bereich der Veröffentlichung von OER sowie einer stärkeren Einbeziehung von Communitys of Practice in die weitere Ausdifferenzierung der Infrastrukturen. Auch mangelt es bislang an empirischen Erhebungen zu der Praxis und den Bedarfslagen der Produzent:innen und Nutzer:innen von OER. Zudem wird die Entwicklung OER-förderlicher IT-Infrastrukturen bislang noch zu selten auf einer strategischen Ebene adressiert und forciert. Eine Analyse gängiger Anwendungsfälle für die Entwicklung und Nutzung von OER wurde bislang noch kaum geleistet. Zugleich zeigen sich vielversprechende Bestrebungen zur Etablierung eines auf die spezifischen Belange offener Lehre an den Hochschulen zugeschnittener Metadatenprofile. Auf einer organisationalen Ebene könnten künftig neben OER-Plattformen und Hochschulen mit lokalen Installationen von LMS auch Hochschulbibliotheken als Betreiber und Dienstleister für OER-förderliche IT-Infrastrukturen auftreten.

Loading...
Thumbnail Image
Item

Gutachten zu bestimmten kollisionsrechtlichen Fragen zur umfassenden Nutzung von lizenzierten Bibliotheksbeständen zum Zwecke des Text und Data Mining

2022, Jani, Ole, Vonthien, Maximilian, Technische Informationsbibliothek (TIB)

Die Technische Informationsbibliothek, Stiftung des öffentlichen Rechts („TIB“) ist die Deutsche Zentrale Fachbibliothek für die Gebiete Technik, Architektur, Chemie, Informatik, Mathematik und Physik, welche ihre Bestände Nutzern auf der ganzen Welt anbietet. Die TIB verfügt dabei über Verlagspublikationen sowohl in gedruckter als auch in elektronischer Form. Um Verlagspublikationen in elektronischer Form für ihre Nutzer verfügbar machen zu können, schließt die TIB Lizenzverträge mit den jeweiligen Verlagen ab, welche im Ausland sitzen. Darüber hinaus ist die TIB Mitglied der NFDI4Ing-Initiative, welche das Ziel hat, Forschungsprozesse durch ein nachhaltiges Forschungsdatenmanagement unter Berücksichtigung der FAIR-Prinzipien für Forschungsdaten zu unterstützen. Spezifische Aufgabe der TIB ist es dabei, Guidelines zum Text und Data Mining für Wissenschaftler aufzustellen. Text und Data Mining ist mittlerweile eine gebräuchliche und anerkannte wissenschaftliche Methode, sodass Bibliotheken Wissenschaftlern ihre Bestände möglichst umfassend für das Text und Data Mining zur Verfügung stellen und damit die Forschung zeitgemäß unterstützen möchten. Die Bibliotheken in Deutschland möchten die ihr von Verlagen lizenzierten elektronischen Publikationen im Rahmen der gesetzlichen Bestimmungen über die Zulässigkeit bestimmter Nutzungen urheberrechtlich geschützter Werke („urheberrechtliche Schranken“) zu Zwecken des Text und Data Mining zur Herstellung eines Textcorpus nutzen und das Textcorpus online zur Verfügung stellen. Die Herstellung des Textcorpus soll dabei ausschließlich in Deutschland erfolgen. Das so hergestellte Textcorpus soll dann aber auch Nutzern im Ausland zugänglich und durch solche Nutzer zum Zwecke des Text und Data Mining nutzbar sein. Ferner sollen Forscher nach Maßgabe der gesetzlichen Bestimmungen Schranken zu Zwecken des Text und Data Mining auch die Möglichkeit haben, aus den Bibliotheksbeständen selbst ein Textcorpus zu erstellen und dieses entsprechend auszuwerten. In diesem Zusammenhang möchte die TIB wissen, ob die urheberrechtlichen Schranken zu Zwecken des Text und Data Mining auch auf solche digitalen Bibliotheksbestände anwendbar sind, zu denen die Lizenzverträge zwischen dem Verlag und der Bibliothek die Anwendung des deutschen Rechts auf diese Verträge nicht eindeutig geregelt oder gar ausgeschlossen haben oder in denen die Nutzung der lizenzierten Verlagspublikationen zum Zwecke des Text und Data Mining entweder ganz ausgeschlossen oder verschiedenen Einschränkungen unterworfen ist.

Loading...
Thumbnail Image
Item

Guidelines zum Text und Data Mining für Forschungszwecke in Deutschland

2022-10-28, Brehm, Elke

Im Rahmen dieser Guidelines wird beschrieben, unter welchen Bedingungen Text und Data Mining (TDM) zu wissenschaftlichen Zwecken bei wissenschaftlichen Publikationen auf der Basis von Schrankenregelungen und/oder Verträgen durchgeführt werden darf und was für Risiken bestehen. Zum Abschluss wird dargestellt, wie Publikationen für TDM genutzt werden können, wenn weder eine gesetzliche Schrankenregelung eingreift noch eine vertragliche Erlaubnis gegeben ist.

Loading...
Thumbnail Image
Item

Abschlussbericht für die Deutsche Forschungsgemeinschaft zum DFG-Forschungsvorhaben DE 447/184-1: Einsatzverhalten sintermetallischer Diamantschleifscheiben mit chemisch angebundenen Schleifkörnern

2023-10-23, Lang, Roman, Bergmann, Benjamin, Denkena, Berend

[no abstract available]

Loading...
Thumbnail Image
Item

Datenschutz ab Inkrafttreten der Datenschutz-Grundverordnung - Handreichung für Bibliotheken

2018, Brehm, Elke, Knaf, K., Talke, A.

In den Dokument "Datenschutz ab Inkrafttreten der Datenschutz-Grundverordnung Handreichung für Bibliotheken" werden speziell für Bibliotheken kurz und knapp die Neuerungen durch die Datenschutz-Grundverordnung dargestellt.

Loading...
Thumbnail Image
Item

An Empirical Study on 3D Artefacts in the Scientific Life Cycle

2018, Struß, J.M.

3D models, objects and data are being used in an increasing number of scientific disciplines throughout different points in the research life cycle. In addition to architecture, civil engineering and mechanical engineering – disciplines that traditionally plan and construct in three-dimensional space – they are also used in the fields of electrical engineering and information technology, physics and astronomy as well as in the conservation of cultural heritage. The types of models used differ considerably in the different disciplines. In addition to CAD models, there are for example formats such as point clouds resulting from laser scans, which are used to capture buildings or landscapes. In addition, there are simulations in which the temporal dimension also plays a role. Furthermore printable 3D models that allow the direct generation of a physical object are increasingly being created. The study presented here takes a closer look at the diversity of 3D artefacts, the point of their creation in the research lifecycle as well as the purpose these artefacts serve.

Loading...
Thumbnail Image
Item

Composite forming simulation for non-crimp fabrics based on generalized continuum approaches – AMECOMP : Abschlussbericht / Final project report (DFG 431354059 / ANR-19-CE06-0031)

2024-05, Schäfer, Bastian, Kärger, Luise, Naouar, Naim, Zheng, Ruochen, Schäfer, Bastian, Kärger, Luise, Naouar, Naim, Zheng, Ruochen, Boisse, Philippe, Colmars, Julien, Platzer, Auriane

Continuously carbon fiber reinforced composites are increasingly used for structural applications in various fields of engineering due to their excellent weight-specific mechanical properties. Non-crimp-fabrics (NCF) provide the highest lightweight potential as reinforcement for the composite due to their straight fibers, compared to woven fabrics with undulated fibers. NCFs are made of one (UD-NCF), two (Biax-NCF) or more directions of fibers linked together with a polymer stitching in specific patterns. The deformation behavior of NCFs is challenging due to the interaction between the fibers and the stitching, which also results in a higher susceptibility to forming effects such as roving slippage, fiber waviness and gapping compared to woven fabrics. The aim of the AMECOMP project was to improve the understanding of the forming behavior of NCFs and to develop suitable simulation models to broaden the range of potential applications. Mesoscopic models that accurately describe the architecture of the NCF were developed for virtual material characterization and detailed analysis of forming defects in critical areas. Macroscopic models that describe the relevant deformation mechanisms of NCF in a homogenized way were developed for efficient analysis of large components and multi-layer stacks.