Due to resource constraints, most Diamond Open Access journals publish fewer than 25 articles per year, and 75% of journals are not able to provide their content in XML and HTML, primarily providing ...only PDFs. In order to keep up with larger commercial publishers, a high degree of automation and streamlining of processes is necessary. The Open Source Academic Publishing Suite (OS-APS) project, funded by the German Federal Ministry of Education and Research, aims to achieve this. OS-APS automatically extracts the underlying XML from Word manuscripts and offers optimization and export options in various formats (PDF, HTML, EPUB). The professional corporate design, e.g., of the PDFs, is managed automatically using templates or creating one’s own using a Template Development Kit. OS-APS will also connect to scholarly-led and community-driven publishing platforms such as Open Journal Systems (OJS), Open Monograph Press (OMP), and DSpace: the software will be able to be integrated into a wide range of publication processes, whether at small, low-resource commercial Open Access Publishers, or institutional and Diamond Open Access Publishers.
Aktuelle Geschehnisse wie das Inkrafttreten des Kodex "Leitlinien zur Sicherung guter wissenschaftlicher Praxis" der Deutschen Forschungsgemeinschaft (DFG) oder der Aufbau der Nationalen ...Forschungsdateninfrastruktur (NFDI) und der European Open Science Cloud (EOSC) stellen Anbietende, Produzierende und Nutzende von Forschungsdaten vor fachwissenschaftliche, technische, rechtliche und organisatorische Herausforderungen. Das Praxishandbuch Forschungsdatenmanagement behandelt umfassend alle relevanten Aspekte des Forschungsdatenmanagements und der derzeitigen Rahmenbedingungen im Datenökosystem. Insbesondere die praktischen Implikationen der Datenpolitik und des -rechts, des jeweiligen Datenmarkts, der Datenkultur, der persönlichen Qualifizierung, des Datenmanagements sowie des "FAIR"en Datentransfers und der Datennachnutzung werden untersucht. Das Praxishandbuch gibt überdies einen Überblick über Projekte, Entwicklungen und Herausforderungen beim Forschungsdatenmanagement.
The article describes the use and possible value creation of Non-Fungible Tokens (NFT) in the academic and open access publishing environment. It defines NFTs, describes disadvantages and possible ...solutions, especially in the intended scientific environment. An overview of existing NFT service providers from the publishing environment illustrates that there is not yet a suitable one for researchers. Accordingly, three possible scenarios are shown where NFT services could be located in a science-friendly way. One would be with library- or scholarly-led university presses, repositories, and other publication infrastructures (such as OJS or OMP). Another would be to use centralizing and channelling article submission platforms with which universities have contracts, such asChronosHub. The third and broadest approach would be through Digital ObjectIdentifier (DOI) registration agencies such as ChronosHub and DataCite, although complexities come into play here due to the triangular relationship with publishers registering DOIs (some of them having exclusive usage rights transferred to themselves). This complexity could be reduced by registeringNFTs only for open access publications with a Creative Commons Attribution license. A summary and outlook provide an overview of open questions and initial starting points to get started.
Im Lockdown können nicht alle Bibliotheksangestellten ihre Tätigkeiten in Telearbeit ausführen. Der Artikel gibt eine Liste möglicher Fortbildungsthemen für betroffene Personen. Die Themen werden ...grob anhand vier Bereiche gegliedert: Open Science, Software, Kommunikation und Engagement. Je nach Affinität zu diesen Bereichen, technischer Ausstattung im Home-Office oder individuellen (z.B. IT-)Kompetenzen können Betroffene oder deren Vorgesetzte die Art und Tiefe der Fortbildung festlegen. Der Fokus liegt hierbei auf einer möglichst einfachen und eigenständigen Fortbildung über frei zugängliche Quellen.
Our paper describes the development of research information-based workflows in the Friedrich-Alexander Universität Erlangen-Nürnberg (FAU). We present a data integration platform connecting the ...university's CRIS and library IT systems. Our plan is to create and improve intra-university workflows for secondary publication of open access papers, and also to avoid duplicate work for the university's authors. We address the challenge of multiple start points within the system, meaning publications can be entered either on the CRIS side or in the library IT system.
An der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) entstand durch die Kooperation mehrerer hochschulinterner Einrichtungen ein außergewöhnlich umfassender Service für Forschende bei der ...Drittmittelberatung. Es wird als Best Practice-Beispiel aufgezeigt, wie diese Dienste ineinandergreifen und wie die Einrichtungen ihre Fähigkeiten in den Bereichen Informationsbeschaffung und -vermittlung einbringen können, um den gesamten Forschungsprozess kooperativ zu stützen. Hintergrund sind die Forderungen des Wissenschaftsrates und des Rats für Informationsinfrastrukturen nach einer besseren Koordinierung der Arbeit der Informationsinfrastruktureinrichtungen angesichts aktueller Herausforderungen bspw. im Bereich Open Science und Forschungsdatenmanagement. At Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU), an exceptionally comprehensive service for third-party funding information and consulting has been implemented as a cooperation of several intra-university service institutions (such as Library, Department of Research Services and Research Development, etc.). This best practice example shows how the services fit together and how institutions can bring in their capabilities and skills to support the entire research process in the areas of information gathering and brokering. The background of this project were the demands of the Wissenschaftsrat (Science Council) and the Rat für Informationsinfrastruktureinrichtungen (Council for Scientific Information Infrastructures) for a better coordination of information infrastructure institutes in the view of the current challenges, such as research data management and open science.
Die Grundsätze für den Erwerb DFG-geförderter überregionaler Lizenzen (sog. Allianz-Lizenzen) beinhalten spezifische Regelungen zum Open Access. Die Erfahrung der seit 2011 getätigten ...Allianz-Abschlüsse zeigt allerdings, dass der Kreis berechtigter Autorinnen und Autoren eigenständig kaum Gebrauch ihrer hierdurch erhaltenen Open-Access-Rechte macht. Entsprechend liegt ein großer Schatz wissenschaftlicher Literatur bei den Verlagen, der noch zu heben ist. Das bewilligte DFG-Projekt DeepGreen (Ausschreibung „Open-Access-Transformation" von 2014) zielt darauf ab, die vereinbarten Open-Access-Konditionen der Allianzlizenzen auf technischer Ebene komfortabel auszugestalten und wenn möglich zu automatisieren, so dass nicht mehr Autorinnen und Autoren oder die hierzu berechtigten Bibliotheken die Publikationen manuell in Open-Access-Repositorien einpflegen müssen, sondern die Verlage selbst zyklisch über definierte Schnittstellen abliefern. Dazu bauen die Projektpartner (Universitätsbibliothek Erlangen-Nürnberg, Universitätsbibliothek TU Berlin, Helmholtz Open Science Koordinationsbüro am Deutschen GeoForschungsZentrum, Bayerische Staatsbibliothek München sowie die Verbünde Bibliotheksverbund Bayern und Kooperativer Bibliotheksverbund Berlin-Brandenburg) ein Dark Archive namens DeepGreen auf, in das teilnehmende Allianzlizenz-Verlage ihre Publikationen und Metadaten einspeisen. DeepGreen soll im Anschluss wiederum als Datendrehscheibe für berechtigte Open-Access-Repositorien dienen. Als Pilotpartner konnten die Verlage Karger und SAGE gewonnen werden. Die Universitätsbibliothek Erlangen-Nürnberg als Initiatorin des Projekts und der Kooperative Bibliotheksverbund Berlin-Brandenburg (KOBV) als Hauptentwickler von DeepGreen stellten das Projekt und den Stand der Umsetzung am 6. Bibliothekskongress 2016 in Leipzig vor. The acquisition standards of national licences supported by Deutsche Forschungsgemeinschaft (DFG) (referred to as alliance licences) include specific open access policies. This ensures that both authors and licensees have the right to archive and publish the included content of alliance agreements in repositories under more advantageous conditions than the standard self-archiving policies (e. g. publisher´s version, shortened embargo periods). However, empirical research concerning the alliance licences contracted since 2011 has shown that entitled authors make almost no use of their open access rights. Thus, a tremendous amount of scientific literature has yet to be uncovered from publishers’ closed access systems. The project DeepGreen, approved by DFG (based on the 2014 initiative „Open Access Transformation“), seeks to establish a convenient and automated technical infrastructure to support existing open access agreements. The intended scenario is that publishers will be required to deliver periodically all publications eligible for open access through defined interfaces, instead of authors (or their respective libraries) having to upload these items manually into corresponding open access repositories. To this end, the members of the project consortium (University Libraries of Friedrich-Alexander University Erlangen-Nürnberg (FAU) and TU Berlin, Helmholtz Open Science Office at the German GeoResearch Centre, Bavarian State Library, and two Librarian Network Organizations, BVB and KOBV) will build the platform DeepGreen, essentially a dark archive, into which publications and metadata are fed periodically according to the publishers’ contracted alliance licences. In turn, the platform Deep-Green will deliver these publications to the legitimate repositories automatically. Two publishers, Karger Publishers and SAGE Publications, have agreed to pilot the project as associated partners. This paper presents the project and the current status of the work.
Das von der DFG seit 2016 geförderte Projekt DeepGreen will die Open-Access-Transformation der deutschen Wissenschaft unterstützen, indem Artikel, sofern lizenzrechtlich erlaubt, automatisiert in den ...grünen Weg von Open Access überführt werden. Dazu haben die Projektpartner – die Bibliotheksverbünde Kooperativer Bibliotheksverbund Berlin-Brandenburg (KOBV) und Bibliotheksverbund Bayern (BVB), die Bayerische Staatsbibliothek (BSB), die Universitätsbibliothek der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) und die Universitätsbibliothek der Technischen Universität Berlin (TU Berlin) sowie das Helmholtz Open Science Koordinationsbüro am Helmholtz-Zentrum Potsdam Deutsches GeoForschungsZentrum (GFZ) – prototypisch eine Datendrehscheibe auf Grundlage existierender Softwarebausteine entwickelt. Die beteiligten Verlage können hiermit Metadaten und Volltexte zyklisch über definierte Schnittstellen abliefern, die Daten werden anschließend rechtskonform an die dazu berechtigten institutionellen Repositorien weitergeleitet. Als Pilotpartner konnten S. Karger und SAGE Publications gewonnen werden, weitere Verlage beteiligten sich mit der Zusendung von Testdaten. DeepGreen hat sich in der Projektphase 2016-2017 auf die sogenannten Allianz-Lizenzen fokussiert, die seit 2011 zwischen Verlagen und Bibliotheken verhandelt wurden. Sie beinhalten spezifische Regelungen zum grünen Open Access, die einen enormen Mehrwert gegenüber den üblichen „Self-archiving policies“, also den Regelungen zur Zweitveröffentlichung bei Verlagen darstellen: Autorisierte Autorinnen und Autoren und deren Einrichtungen dürfen ihre Publikationen in der Regel in der publizierten PDF-Version nach verkürzten Embargofristen bzw. teils unmittelbar in ein Repositorium ihrer Wahl einstellen und öffentlich zugänglich machen. Praktisch wurde von dieser Möglichkeit bisher nur sehr eingeschränkt Gebrauch gemacht, DeepGreen soll dies perspektivisch ändern. Darüber hinaus erprobt DeepGreen in der zweiten Projektphase 2018-2020 die Ausweitung des Systems auf andere Lizenzmodelle und neue Datenabnehmer.