Sowohl die (Diamond)-Open-Access-Bewegung als auch das Erstarken der Digital Humanities im geisteswissenschaftlichen Fächerspektrum werden verursacht durch die immer stärkere Durchdringung aller gesellschaftlichen Bereiche durch digitale Methoden, Tools und Prozesse. Digitales Publizieren in den digitalen Geisteswissenschaften führt diese Entwicklungen zusammen: Am Beispiel der Zeitschrift für digitale Geisteswissenschaften nimmt der vorliegende Beitrag zentrale Aspekte für die Gründung und den Betrieb einer Diamond-Open-Access-Zeitschrift in den Blick. Er stellt Fragen nach Community und Autorschaft, nach der Qualitätssicherung als Faktor für Innovation und Reputation und nach der Messbarkeit von Qualität, Reichweite, Reputation und Einfluss und versucht, diese selbstkritisch zu beantworten.
Both the (Diamond) Open Access movement and the increasing importance of digital humanities within the humanities are driven by the ever-growing pervasion of digital methods, tools and processes in all areas of society. Digital publishing in the digital humanities brings these developments together: This article focuses on central aspects for the founding and operation of a Diamond Open Access journal by taking the Zeitschrift für digitale Geisteswissenschaften as an example. This paper poses questions about community and authorship, about quality assurance as a factor for innovation and reputation and about the measurability of quality, reach, reputation and influence, and attempts to answer them self-critically.
Schlagwörter: Diamond Open Access; Digital Humanities; Open Science; Wissenschaftliche Zeitschrift; Wissenschaftskommunikation
Mit der Gründung der Zeitschrift für digitale Geisteswissenschaften1 (ZfdG) im Jahr 2014 verfolgte der Forschungsverbund Marbach Weimar Wolfenbüttel (MWW)2 gemeinsam mit dem Verband Digital Humanities im deutschsprachigen Raum (DHd)3 das Ziel, ein neues E-Journal mit dem Schwerpunkt digitale Geisteswissenschaften herauszugeben und zu etablieren. Da für die Digital Humanities noch keine genuin auf ihre Methoden, Theorien und Diskurse ausgerichtete Zeitschrift im DACH-Raum existierte, sollte mit der Gründung eine Lücke im wissenschaftlichen Publikationswesen geschlossen und der damals noch jungen Wissenschaftsdisziplin ein zentrales Publikationsorgan angeboten werden. Die Gründung der ZfdG war aber auch ein Experiment, um neue Entwicklungen des digitalen Publizierens zu erproben und umzusetzen.4 Die ZfdG wurde daher konsequent als reines E-Journal geplant,5 orientiert an den zu diesem Zeitpunkt bereits etablierten Standards.6 Die Verbindung der Zeitschrift mit dem DHd-Verband und die frühe Bildung einer Fachredaktion, deren Mitglieder unterschiedliche Fachbereiche der Digital Humanities abdecken, sowie die Vorstellung und Diskussion der Konzeption der Zeitschrift auf einschlägigen Fachtagungen verschaffte der Zeitschrift früh eine enge Verbindung zur Forschungscommunity.
Die deutschsprachige DH-Community ist primäre Zielgruppe der Zeitschrift. Gleichzeitig soll die Zeitschrift aber auch als Einstieg für Geisteswissenschaftler*innen dienen, die bisher wenige Berührungspunkte mit den Digital Humanities hatten. Der konsequent deutschsprachige Titel der Zeitschrift resultiert aus diesen Überlegungen. Die damit verbundene Hoffnung, auch kritische Diskussionen zu den Digital Humanities aus Perspektiven eher traditionell arbeitender Geisteswissenschaftler*innen zu ermöglichen, erfüllte sich jedoch nicht. Vielmehr entwickelte sich die Zeitschrift schnell zu einem Organ für die Digital Humanities im deutschsprachigen Raum, in der allerdings auch selbstkritische Beiträge publiziert werden.
Die konsequente Ausrichtung der ZfdG an Open-Access-Grundsätzen verbunden mit dem verlagsunabhängigen, scholar-led Charakter stellen Leitideen dar. Dabei konnte die ZfdG aufgrund vorhandener BMBF-Förderung von vornherein im Diamond Open Access (DOA) erscheinen. Auch wenn das Vorgehen aus heutiger Sicht selbstverständlich erscheint, waren doch Risiken damit verbunden. Eine gewisse Skepsis war bei den Gründungsmitgliedern durchaus vorhanden und vor dem Hintergrund, dass sich bei einer drittmittelgeförderten Zeitschrift schnell die Frage nach der Nachhaltigkeit stellt, sicherlich auch angebracht,7 denn gerade eine langfristige Etablierung auf dem Publikationsmarkt sind wichtige Kriterien für die Reputation eines Periodikums. Wie wichtig etwa das tradierte Renommee eines Verlagsnamens insbesondere für Geisteswissenschaftler*innen ist, zeigen unter anderem die Ergebnisse der Stakeholder-Umfragen aus dem Projekt AuROA.8
Für die technische Umsetzung orientierte sich die ZfdG an den wenigen damals bestehenden E-Journals; zu nennen ist hier vor allem Digital Humanities Quarterly.9 Durch die direkte Beteiligung von Bibliotherkar*innen der Trägerinstitutionen der ZfdG konnte außerdem auf vorhandene Expertise in den Bereichen Anlage von Metadaten, Nachweis der Publikationen sowie Vergabe von persistenten Identifikatoren (DOI) zurückgegriffen werden. Alle Artikel der ZfdG liegen in XML/TEI-P5 vor und aus diesem Format werden in semiautomatischen Prozessen die weiteren Artikelformate (derzeit HTML und PDF) generiert. Die Entscheidung für XML/TEI-P5 fiel auch, um die Datafication der Publikationsprozesse zu unterstützen und keine am PDF orientierte Publikationspipeline aufzubauen – so wurde der Text selbst zum Rohstoff für die Wissenschaft, was gerade im Bereich der Digital Humanities von hoher Relevanz ist.10 Die Verbindung von Open Access und Open Source im Bereich der verwendeten Software war bei der Konzeption ein wichtiger roter Faden. Daher sollte auch die technische Infrastruktur auf Open-Source-Produkten aufgebaut werden. Für die genaue Wahl wurde eine kriteriengeleitete Marktsichtung vorgenommen. Man fand dabei keine Software, die allen Kriterien entsprochen hätte. Naheliegend aus heutiger Sicht wäre die Auswahl von Open Journal Systems (OJS)11 gewesen, allerdings war das System 2015 weniger verbreitet als heute und hatte auch einen deutlich geringeren Funktionsumfang. Die Wahl fiel daher auf das Content-Management-System Drupal.12 Die Entscheidung wurde nicht zuletzt aufgrund der großen Drupalcommunity sowie der vorhandenen Anzahl von Drupalentwickler*innen getroffen, die beim Aufbau der ZfdG miteingebunden werden konnten. Die Anpassung von Drupal und die Entwicklung eines Webdesigns für die ZfdG sowie die Umsetzung eines Redaktionsworkflows im Backend des Systems erfolgte über die Vergabe von Aufträgen an externe Dienstleister, die den Open-Science-Grundsätzen folgend mit offenen und freien Frameworks arbeiteten.
Für die Nullnummer der ZfdG wurden noch während der technischen Entwicklungsphase gezielt Beiträge der DHd-Jahreskonferenz 2014 eingeworben und in einem Sonderband publiziert.13 Ein Jahr später präsentierten Redaktionsmitglieder bei der DHd2015 in Graz ein Poster zur ZfdG.14 Besonders die Interaktion über Social Media stellte einen wichtigen Kommunikationskanal mit potenziellen Autor*innen dar, bei der auch einige der Experimente der ZfdG lebhaft diskutiert wurden, wie z.B. der Verzicht auf eine Paginierung in den Beitrags-PDFs.
Dagegen wurde der bewusste Verzicht auf die Integration von Metriksystemen (siehe unten), abgesehen von View- und Downloadzahlen, von der Community gelobt. Da nicht alle Optionen und Funktionen der Konzeption zum Zeitpunkt der Herausgabe der ersten Artikel umgesetzt werden konnten, galt es, ein gutes Maß zwischen einer zügigen Umsetzung der ZfdG und dem Erscheinen der ersten Ausgabe einerseits und der Auswahl der notwendigen Funktionalitäten andererseits zu finden. So wurde z.B. zunächst auf ein Autor*innenverzeichnis ebenso verzichtet wie auf die Implementierung eines offenen Begutachtungsverfahrens. Nach erfolgreicher Publikation der ersten Beiträge und Hefte wurden diese Funktionen jedoch ergänzt.15
Die Vielstimmigkeit der Community spiegelt sich auch im organisatorischen Aufbau der ZfdG-Redaktionen wider; die Fachredaktion als inhaltliches Entscheidungs- und Beratungsgremium speist sich aus den herausgebenden Institutionen und externen Expert*innen mit besonderem Interesse an den Prozessen des digitalen Publizierens. Die Umsetzung des Publikationsworkflows und der technischen und inhaltlichen Innovationen liegt in den Händen der Tagesredaktion an der Herzog August Bibliothek Wolfenbüttel (HAB); für dieses operativ arbeitende Gremium wurden im Rahmen des Forschungsverbunds MWW Stellen geschaffen, sodass die redaktionelle Arbeit Kernaufgabe des Personals im Rahmen vom MWW werden konnte. Dieses Modell hat sich bewährt, sodass auch die Anschlussförderung an den funktionalen Positionen (entsprechend etwa zwei Vollzeitäquivalenten) festhält. Als Gremium, das weniger auf Ebene der Einzelbeiträge und Bände als vielmehr die Fachredaktion und Redaktionsleitung in übergeordneten konzeptionellen, rechtlichen, ethischen und sonstigen Fachfragen berät und einen weiteren wichtigen Anker in die verschiedenen Teil-Communities der Digital Humanities darstellt, kommt seit 2024 das Advisory Board hinzu.
Die Leitidee, Inhalt und Form der ZfdG fortwährend auf die Bedarfe der Community auszurichten, erwies sich als richtig, brachte aber einen permanenten Evaluierungs- und Entwicklungsdruck mit sich.
Im Folgenden werden deshalb einige für Gründung und Betrieb einer eng an die Community angebundene DOA-Zeitschrift zentrale Aspekte anhand der Erfahrungen der ZfdG genauer beleuchtet. Dabei werden Fragen nach Community und Autorschaft, nach der Qualitätssicherung als Faktor für Innovation und Reputation und nach der Messbarkeit von Qualität, Reichweite, Reputation und Einfluss gestellt und versucht, sie selbstkritisch zu beantworten.16
Im Fall der ZfdG wurde die deutschsprachige DH-Community als primäre Zielgruppe in den Blick genommen. Aus der Community rekrutieren sich die Autor*innen, Gutachter*innen und Leser*innen der Zeitschrift, also die wichtigsten außerredaktionellen Gruppen für die ZfdG. Die Beitragsautor*innen sind darunter die Gruppe, von deren Entscheidung für eine Publikation im Forschungsperiodikum dessen Gelingen zentral abhängt; ihnen kommt deshalb an dieser Stelle besondere Aufmerksamkeit zu.
In neun Jahren Publikationspraxis hat die ZfdG insgesamt 142 Beiträge von 258 Autor*innen veröffentlicht (Stand 22.10.2024).17 Autorschaft kann dabei unterschiedlich weit oder eng interpretiert werden; wenn „Autorin oder Autor ist, wer einen genuinen, nachvollziehbaren Beitrag zu dem Inhalt einer wissenschaftlichen Text-, Daten - oder Softwarepublikation geleistet hat“18, stellt sich der Redaktion die Frage, wie dieser spezifische Beitrag in der ZfdG nachvollziehbar dargestellt werden kann. Seit 2023 fragt die Redaktion der ZfdG deshalb nach der konkreten Rolle bzw. den konkreten Rollen der Beteiligung am Beitrag und wendet dabei die Contributor Role Taxonomy (CRediT)19 als kontrolliertes Vokabular an. Der Begriff „Author“ taucht dabei in den CRediT-Rollen nicht auf, sondern fungiert quasi als Oberbegriff der 14 Beteiligungsrollen. Ähnlich wie auch in der DFG-Leitlinie formuliert („Text“ ist dabei nur eine mögliche Publikationsform, das „Schreiben“ eines solchen damit auch nur eine mögliche Form der Autorschaft) sind dem Verfassen sowie dem Überarbeiten des Manuskripts nur zwei der vierzehn CRediT-Rollen zugeordnet; auch Konzeption, Datenpflege, Erstellung von Visualisierungen etc. sind Beteiligungsformen, die für eine Autorschaft qualifizieren können. Die einreichenden Autor*innen können die Rollen ihrer eigenen Beteiligung frei wählen, sie können mehrere oder nur eine einzige Rolle angeben. Beteiligung in geringerem Umfang, die nicht für die Autorschaft qualifiziert, wird bei der ZfdG in den Metadaten des Beitrags unter „Weitere Beteiligte“ angegeben. Damit wird die ZfdG auch der Forderung nach angemessener Anerkennung „diese[r] Unterstützung in Fußnoten, im Vorwort oder im Acknowledgement“20 gerecht. Diese Form der Nennung weiterer Beteiligter kann im Forschungsprozess ansonsten eher marginalisierte Aufgaben oder Personengruppen (wie etwa Softwareentwicklung, Projektadministration oder das Erzeugen von Visualisierungen) aufwerten und ihre Leistungen nachweisbar machen.
Die Rollen der Beteiligung werden nicht nur in der HTML-Lesefassung und dem PDF angegeben, sondern sind im TEI-Header der ebenfalls publizierten XML-Dateien auch maschinenlesbar verankert. Diese Angabe steht damit auch automatischen Auswertungsverfahren zur Verfügung.
Bei der Umsetzung von Open Access im Rahmen einer digitalen Zeitschrift wird auch die Qualitätssicherung zum Faktor für Innovation und Reputation. Vor diesem Hintergrund versteht die ZfdG-Redaktion insbesondere die Transparenz des Reviewprozesses als zentralen Teil der Publikationsethik. Die ZfdG bietet unterschiedliche Modi des Peer Reviews an und jeder Beitrag durchläuft einen mehrstufigen Prozess der Qualitätssicherung.
Die von den Autor*innen eingereichten, zweiseitigen Exposés werden zunächst von der ZfdG-Fachredaktion per E-Mail diskutiert, wobei drei mögliche Resultate entstehen: Ablehnung, Annahme mit der Bitte um Berücksichtigung weiterer Aspekte bzw. verlagerter Schwerpunktsetzung, oder Annahme des Beitrags ohne weitere Änderungswünsche.
Die Autor*innen können sich bei Annahme des Beitragsvorschlags bis zur Einreichung des finalen Textes entscheiden, welche Form des weiteren Reviews sie bevorzugen: Closed Peer Review, Open Peer Review oder Open Public Peer Review.21 Abb. 2 zeigt die Verteilung der bisherigen Begutachtungsverfahren in der ZfdG.
Im Gegensatz zum Closed-Peer-Review-Verfahren, bei dem ein Beitrag erst veröffentlicht wird, wenn er begutachtet wurde und gutachterliche Änderungswünsche umgesetzt wurden, werden die Beiträge im Rahmen des Open-Peer-Reviews noch vor der Begutachtung publiziert, wobei dieser Status nachvollziehbar sichtbar gemacht wird. Die ZfdG-Beiträge bekommen in diesem Zusammenhang eine farbige Markierung: Für die (in der Regel zwei) Reviews wird angezeigt, ob der Beitrag ohne Änderungsvorschläge positiv evaluiert wurde (grüne Markierung), es Änderungsvorschläge bei einem ansonsten positiven Review gab (gelbe Markierung) oder das Review die Ablehnung des Beitrags empfiehlt (graue Markierung). Bei konfligierenden Einschätzungen (eine Ablehnung, eine Annahme), organisiert die Redaktion ein drittes Gutachten. Im Closed-Peer-Review-Verfahren zweifach abgelehnte Beiträge werden nicht veröffentlicht. Bereits veröffentlichte, aber zweifach negativ begutachtete Beiträge bleiben aus Gründen der Transparenz lesbar und in der ZfdG-Artikelübersicht recherchierbar. Die Autor*innen haben bei grundsätzlicher Annahme der Beiträge (grüne/gelbe Markierung) im Open Peer Review die Möglichkeit, ihren Beitrag entsprechend der Kritik zu überarbeiten und eine zweite Version zu erstellen, die wiederum den Gutachtenden erneut vorgelegt werden kann, um die Markierung ggf. auf grün zu ändern. Die unterschiedlichen Versionen der Beiträge bleiben dabei erhalten und (über Versionsmarker im DOI) persistent referenzierbar, Änderungen in den Versionen lassen sich in einer Vergleichsansicht nachvollziehen. Aus den Änderungen lassen sich für Lesende damit auch Rückschlüsse auf die Kritikpunkte der Gutachter*innen ziehen, auch wenn sich die Veröffentlichung von Gutachteninhalten derzeit auf die Gesamteinschätzung via Farbmarkierung beschränkt.
Die Gutachter*innenauswahl gestaltet sich in den (deutschsprachigen) Digital Humanities auch wegen des sehr verbreiteten, Befangenheiten mit sich bringenden kollaborativen Arbeitens häufig als Herausforderung. Gleichzeitig ist der Zusammenhalt und die Unterstützungsbereitschaft in der Community sehr hoch, sodass die allermeisten Beiträge – auch solche mit vielen Autor*innen aus unterschiedlichen institutionellen Kontexten – bislang ein regelgerechtes Peer Review durchlaufen konnten.22
Die große Mehrheit der Autor*innen in den Beiträgen innerhalb der ZfdG-Jahreshefte entscheidet sich für die Option des Open Peer Reviews (84%, Stand 06.08.2024). Als Hauptgründe dafür lassen sich die schnellere Verfügbarkeit der Publikation und damit der Forschungsergebnisse oder Diskussionsimpulse für den öffentlichen Diskurs vermuten, aber auch die in der DH-Community verbreitete Überzeugung von der Wertigkeit der Open-Science-Prinzipien und damit von offenen Reviewverfahren. Im Falle der Sonderbände wird die Form des Reviews von den jeweiligen Herausgeber*innen vorab festgelegt. Während Closed und Open Peer Review hier gleich häufig vorkommen, wird bei der Mehrheit der Sonderbandbeiträge (76%, Stand 06.08.2024) die Art der Qualitätssicherung von den Herausgeber*innen selbst bestimmt.
Während die eigentlichen Reviews im Closed- wie im Open-Peer-Review-Verfahren derzeit nicht veröffentlicht werden und somit lediglich der ZfdG-Redaktion und den Autor*innen zur Verfügung stehen,23 setzt das Open Public Peer Review einen anderen Akzent und geht damit einen Schritt weiter in Richtung Öffnung des Begutachtungsprozesses („Open reports“ und „Open participation“24). Dieses Verfahren wurde in der ZfdG 2021 eingeführt und ist an das Format der (bislang sämtlich kollaborativ verfassten) Working Papers gebunden. Ziele sind die aktive Inklusion der Forschungscommunity zu einem bestimmten Thema25 sowie die Sichtbarkeit und Nachvollziehbarkeit der Reviewprozesse. Die Reviews entstehen dabei in Form von (unter Klarnamen oder Pseudonymen verfassten) Web-Annotationen mit Hilfe des Tools Hypothes.is26. Innerhalb eines vorab bekanntgegebenen Zeitraums von einigen Wochen sind alle Interessierten aufgerufen, zu kommentieren. Es ist außerdem möglich, auf Kommentare anderer zu reagieren, sodass der Text offen diskutiert werden kann. Diese Möglichkeit steht auch den Autor*innen zur Verfügung, die den Reviewprozess somit aktiv mitgestalten und darin eingreifen können. Die Autor*innen bemühen sich zudem, mindestens zwei Hauptgutachtende zu akquirieren, die den Beitrag parallel auf demselben Weg fundiert und vollständig reviewen. Auf Grundlage der Anmerkungen entstehen im Folgenden neue Versionen der Working Papers, wobei die erste (annotierte) Version verfügbar bleibt. Der im Rahmen wissenschaftlichen Arbeitens und Publizierens unabdingbare Prozess der Qualitätssicherung wird so nachvollziehbar und kann in der Forschungscommunity die nötige Anerkennung erfahren. Dadurch entsteht nicht zuletzt ein Anreiz, die Begutachtungstätigkeit trotz zeitlich konkurrierender Aufgaben entsprechend zu priorisieren. Dieser Prozess bringt allerdings einen kommunikativen Mehraufwand bei derzeit noch verhältnismäßig geringem Nutzen mit sich: Die Möglichkeiten des Annotierens/Kommentierens und insbesondere des Diskutierens wurden nicht in allen Beiträgen der bisher erschienenen drei Working Papers umfassend wahrgenommen, teilweise bleibt der Kreis der Kommentierenden auf die beiden akquirierten Gutachtenden beschränkt. Dennoch wird die prinzipielle Möglichkeit sowohl von Autor*innen und Herausgeber*innen als auch von Lesenden und Gutachter*innen geschätzt, wie in vielen Gesprächen und Diskussionen deutlich wurde. Die Redaktion möchte damit auch eine beispielhafte Implementierung für den Open-Science-Aspekt des „Open Peer Reviews“ etablieren, der häufig gefordert, aber selten umgesetzt wird. Die breite Etablierung und Akzeptanz dieser Form des Peer Reviews in der DH-Community und darüber hinaus wird noch etwas Zeit in Anspruch nehmen.
Yuliya Fadeeva (2023) beleuchtet die vorurteilsbehaftete Verbindung von Open Access und mangelhafter Qualität(ssicherung), die insbesondere in geisteswissenschaftlichen Disziplinen noch immer verbreitet ist: „Da Reputation im geisteswissenschaftlichen Bereich häufig an die Tradition eines Verlags bzw. einer Zeitschrift gebunden wird, haben es neue Modelle und Marken grundsätzlich schwer, sich zu etablieren“.27 Inwiefern hat die Öffnung des Reviewprozesses im konkreten Fall der ZfdG also positive Effekte bzw. welche Nachteile sind (neben dem erwähnten gesteigerten Kommunikationsaufwand) damit verbunden?28 Als positiv hervorzuheben sind eine potenziell gesteigerte Aufmerksamkeit für die Publikation selbst, die bereits im Rahmen des Reviewverfahrens aktiv verbreitet und durch die Überarbeitung und Versionierung zweifach publiziert wird. Außerdem bewirkt der gegebene Öffentlichkeitsfilter erfahrungsgemäß eine weitere Versachlichung der Reviews und des Qualitätssicherungsprozesses, dem durch die Öffnung eine weniger starke „Gatekeeping“-Funktion und stärkere Sachorientierung zukommt. Der Begutachtungsprozess kann durch den gesetzten Zeitrahmen und die direkte Interaktion der Beteiligten potenziell eine Beschleunigung erfahren. Schließlich kann die inhaltliche Qualität des Reviews gesteigert werden, weil Gutachter*innen aufeinander reagieren können.29 Negativ könnte sich der Aspekt der „Open identities“ auswirken: Wenn nicht personenunabhängig begutachtet wird, können sich Karrierestufe, strategisches Kalkül, Selbstzensur oder Voreingenommenheiten auf die Qualitätssicherung auswirken.30 Ein fehlender redaktioneller Filter in der Kommunikation zwischen Autor*innen und Gutachtenden könnte außerdem zu Konflikten führen, auch wenn diese Erfahrung in der ZfdG noch nicht gemacht wurde. Schließlich können die Offenheit und der festgelegte Zeitrahmen den inhaltlichen und zeitlichen Druck auf die Gutachtenden erhöhen (ein Punkt, der je nach Perspektive als Nach- oder als Vorteil gesehen werden kann).
Für eine wissenschaftliche Zeitschrift sind Eigenschaften wie Qualität, Reichweite, Reputation und Einfluss von großer Wichtigkeit. Traditionell werden diese – zumindest indirekt – anhand von zitationsbasierten Metriken gemessen, bei denen gezählt wird, wie oft Beiträge aus dieser Zeitschrift in anderen Publikationen zitiert werden; am bekanntesten ist hier der Journal Impact Factor (JIF).31 Seit geraumer Zeit werden solche zitationsbasierten Metriken jedoch kritisiert, häufig aus dem Lager der Open-Access-Befürworter*innen. Diese Kritik lässt sich zusammenfassen: Der JIF im engeren Sinne ist ausschließlich der von der Firma Clarivate (früher ISI bzw. Thomson Reuters) betriebenen Datenbank Web of Science zu entnehmen, die jedoch nur ausgewählte Zeitschriften abdeckt; OA-Zeitschriften sind allerdings meist zu neu und haben noch nicht genügend Zitationen angesammelt, um ins Web of Science aufgenommen zu werden, so dass diese Datenbank nur einen sehr geringen Anteil aller neugegründeten OA-Zeitschriften enthält.32 Die Nichtaufnahme einer Zeitschrift ins Web of Science hat daher nicht ursächlich mit ihrem Open-Access-Status zu tun, sondern mit ihrer Neuheit.
Für dieses Problem wurden verschiedene Lösungen vorgeschlagen: etwa für Zeitschriften ohne offiziellen JIF selbst einen entsprechenden Wert zu berechnen, und zwar auf Grundlage frei zugänglicher Zitationsdatenbanken wie Google Scholar.33 Im Fall der ZfdG (ebenfalls nicht im Web of Science indexiert) lässt sich ein Google-Scholar-basierter JIF einfach ermitteln, da die Anzahl der Beiträge pro Jahr und ihrer Zitationen gering genug ist, um diese manuell zu recherchieren. Beispielsweise hat die ZfdG in den Jahren 2021 und 2022 zusammen 29 Beiträge (einschließlich Projektvorstellungen, Sonderbandbeiträgen und Working Papers) veröffentlicht, für die sich in Google Scholar 9 Zitationen aus dem Jahr 2023 finden lassen.34 Folglich würde für das Jahr 2023 der Impact Factor der ZfdG 9 ÷ 29 ≈ 0.31 betragen.35
Für sich genommen ist diese Zahl wenig aussagekräftig, doch lassen sich mittels Google Scholar Werte für andere vergleichbare Zeitschriften berechnen, sofern diese nicht zu viele Beiträge im Untersuchungszeitraum 2021–2022 publizierten, um sie manuell zu recherchieren (siehe Tab. 1). Im Kontext des Themas dieses Beitrags ist hervorzuheben, dass es sich dabei bis auf das International Journal of Digital Humanities (IJDH) und editio ebenfalls um Diamond-Open-Access-Zeitschriften handelt.
Zeitschrift | Anzahl Beiträge 2021 + 2022 | Zitationen 2023 laut Google Scholar | daraus resultierender JIF |
---|---|---|---|
Digital Humanities Quarterly | 140 | 162 | 1.16 |
Digital Studies / Le champ numérique | 18 | 24 | 1.33 |
editio [inkl. Beihefte] | 60 | 5 | 0.08 |
International Journal for Digital Art History | 26 | 13 | 0.5 |
International Journal of Digital Humanities | 31 | 56 | 1.81 |
Journal of Cultural Analytics | 48 | 83 | 1.73 |
Journal of the Text Encoding Initiative | 16 | 12 | 0.75 |
magazén | 28 | 27 | 0.96 |
Zeitschrift für digitale Geisteswissenschaften | 29 | 9 | 0.31 |
Für die sieben (überwiegend) englischsprachigen Zeitschriften36 fallen die Werte also erwartungsgemäß – meist sogar um ein Vielfaches – höher aus als für die beiden (überwiegend) deutschsprachigen. Nicht bestätigt hat sich dagegen der vermeintliche Open-Access-Zitationsvorteil:37 Den höchsten Wert weist mit dem IJDH eine hybride Zeitschrift auf, in der nur einzelne Artikel Open Access sind. Die Datenbasis von Google Scholar ist allerdings quantitativ und qualitativ durchwachsen: Sie weist viel graue Literatur wie z.B. Studienabschlussarbeiten auf, deren Referenzen man eventuell nicht mitzählen möchte, da sie als vergleichsweise weniger aussagekräftig hinsichtlich der zu messenden Eigenschaften angesehen werden; hingegen werden Publikationen nicht ausgewertet, deren Referenzen schlecht extrahiert werden können (z.B. nur im Druck erschienene Zeitschriften und Bücher), und es gibt Dubletten sowie lücken- oder fehlerhafte Metadaten. Je nachdem, ob und wie man die von Google Scholar gelieferten Daten filtert, bereinigt, korrigiert und nachrecherchiert, kann die Summe der Zitationen einer Zeitschrift also deutlich höher oder geringer ausfallen. Dies lässt stark an der Präzision zweifeln, mit der ein derart ermittelter JIF den realen „Impact“ einer Zeitschrift widerspiegelt.38
Eine weitere Möglichkeit bietet die Suche nach alternativen Verfahren, um unabhängig von Zitationen den Impact von wissenschaftlichen Publikationen zu erfassen. Unter dem Oberbegriff „Altmetrics“ entstanden verschiedene Metriken, die sich auf Erwähnungen der betreffenden Publikationen in nichtwissenschaftlichen Web-Ressourcen stützten,39 etwa in Weblogs, Nachrichtenwebsites, Microblogging-Diensten wie Twitter/X, Diskussionsforen wie Reddit, Nachschlagewerken wie Wikipedia oder Social-Media-Plattformen wie Facebook. Voraussetzungen dafür sind einerseits funktionierende APIs der Datenquellen, andererseits deren kontinuierliches Kuratieren und Gewichten in Abhängigkeit von ihrer Relevanz. Anders ausgedrückt kranken viele Altmetrics-Dienste an einem quantitativen und bisweilen auch qualitativen Mangel an verwendeten Datenquellen, was die Aussagekraft der resultierenden Metriken schmälert. Nichtsdestotrotz haben sich einige wenige Altmetrics-Dienste etabliert, die auch von manchen Zeitschriftenverlagen zum Bewerben ihrer Publikationen eingesetzt werden.40
Obgleich Altmetrics den Anspruch erheben, sich gleichermaßen für Open- wie Closed-Access-Publikationen zu eignen, besteht doch eine gewisse Nähe von Altmetrics zu ersteren. Studien zeigen, dass Open-Access-Artikel messbar höhere Altmetrics-Werte aufweisen als vergleichbare Closed-Access-Artikel,41 bzw. dass diejenigen Publikationen mit dem größten Altmetrics-Impact in der Regel Open Access sind,42 und bisweilen sogar, dass diese verschieden sind von den meist zitierten, also denjenigen Publikationen, die nach dem herkömmlichen Verständnis als die einflussreichsten gelten.43 Dies liegt vor allem an Interaktionen aus dem nichtwissenschaftlichen Bereich; für viele „Citizen Scientists“ scheint eine Bezahlschranke unüberwindbar, so dass sie sich stattdessen frei zugänglichen Quellen zuwenden.44 Es ist jedoch fraglich, ob Altmetrics und zitationsbasierte Metriken überhaupt dasselbe messen. So unterscheiden beispielsweise Alhoori et al. zwischen „scholarly impact (citation count) and social impact (readership count)“.45
Eignen sich Publikationen aus dem Feld der Digital Humanities, die womöglich als besonders Open-Access-affin gelten können, auch besonders dazu, mittels Altmetrics hinsichtlich ihres Impacts analysiert zu werden? Dies scheint naheliegend, wenn man die Digital Humanities als eine „Virtual Community“ begreift, die rege online kommuniziert und sich intensiv mit digitalen Kommunikationswegen auseinandersetzt.46 In der Praxis zeigen sich jedoch einige Tücken. Wendet man Altmetrics-Dienste wie Altmetric.com oder Paperbuzz auf Beiträge aus den oben erwähnten Zeitschriften an, stellt man zunächst fest, dass für viele Beiträge gar keine Ergebnisse angezeigt werden. Wenn doch die jeweiligen Kennzahlen („Altmetric Score“ und „Paperbuzz Events“) ausgegeben werden, ist weder ein Zusammenhang untereinander noch mit den Zitationszahlen aus Google Scholar (siehe oben) erkennbar. Auch scheint es keine Rolle zu spielen, ob die betreffende Publikation Open Access ist oder nicht. Bei Betrachtung der jeweiligen Detailansichten von Altmetric.com bzw. Paperbuzz zeigt sich, dass Twitter die wesentliche Datenquelle ist; andere beeinflussen die resultierenden Werte kaum. Diese hohe Abhängigkeit der Altmetrics-Dienste von einer einzigen Ressource ist wenig vertrauenerweckend, zumal diese als Plattform für wissenschaftsbezogene Diskussionen zunehmend an Relevanz verliert.47
Verwandt mit dem Altmetrics-Konzept ist die deutlich ältere Idee, Download- und/oder Seitenaufrufzahlen von Zeitschriftenartikeln (Traffic-Analyse) anstelle von zitationsbasierten Metriken zu nutzen. Auch wenn nicht jeder Klick mit einem Lesevorgang, geschweige denn einem Qualitätsurteil gleichzusetzen ist, könnten diese Zahlen zumindest indirekt etwas über den Impact einer Publikation aussagen. Eine Korrelation zwischen Downloadzahlen und JIF ist in der Forschung umstritten, doch scheint Einigkeit darüber zu herrschen, dass nur diejenigen Zahlen miteinander vergleichbar sind, die mit derselben Software gemessen wurden und aus derselben Quelle (etwa aus demselben institutionellen Repositorium) stammen.48 Große Verlage, die viele Zeitschriften auf derselben Plattform anbieten (z.B. Elsevier mit ScienceDirect, oder Springer mit SpringerLink), können also Zahlen veröffentlichen, die zumindest innerhalb dieser Plattform vergleichbar sind.49 Für DOA-Zeitschriften, die in der Regel keinen großen Verlagen angehören und nicht auf derartigen Plattformen gehostet werden, ist dies kaum möglich. Wenn die ZfdG also Zahlen für Views und Downloads bei jedem Beitrag anzeigt,50 so sind diese Zahlen allenfalls mit denen anderer ZfdG-Beiträge, nicht jedoch mit denen von Beiträgen aus anderen Zeitschriften vergleichbar.
Zusammenfassend lässt sich in Bezug auf die Anwendung von Metriken auf DOA-Zeitschriften festhalten, dass gegenwärtig keine Methode – egal ob herkömmliche Zitationsanalyse, Altmetrics oder Traffic-Zahlen – wirklich geeignet ist, um den Impact, geschweige denn die Relevanz, Reputation oder Qualität einer Zeitschrift zu ermitteln. Die Gründe dafür sind zwar nicht dem DOA-Prinzip inhärent, doch scheint es generell unwahrscheinlich, dass sich in Zukunft doch noch geeignete Metriken etablieren werden. Fraglich ist auch, ob dies in der Digital-Humanities-Community überhaupt erwünscht wäre.51
Die Digital Humanities sind als verhältnismäßig junge Disziplin prädestiniert dafür, neue, offene Publikationswege zu generieren, da sie nicht auf eine tradierte Publikations- und Vermittlungskultur zurückgreifen können (und müssen). Das in den Geisteswissenschaften besonders wichtige tradierte Renommee eines Verlagsnamens (s. die erwähnte Umfrage aus dem Projekt AuROA) ist insofern nicht zu unterschätzen. Die DH-Forschungscommunity hingegen ist technik- und innovationsaffin und steht neuen Verfahren eher aufgeschlossen gegenüber, auch wenn sie nicht gänzlich außerhalb der geisteswissenschaftlichen Forschungs- und Publikationskultur agiert. Sowohl die (Diamond)-Open-Access-Bewegung als auch das Erstarken der Digital Humanities im geisteswissenschaftlichen Fächerspektrum werden verursacht durch die immer stärkere Durchdringung aller gesellschaftlichen Bereiche durch digitale Methoden, Tools und Prozesse. Digitales Publizieren in den digitalen Geisteswissenschaften führt diese Entwicklungen zusammen, und der vermeintliche Nachteil eines fehlenden traditionellen Publikationswesens erweist sich für Vorhaben, die auf neue Publikationsformen wie DOA zielen, als großer Vorteil.
In einer Forschungscommunity, die nicht auf das tradierte Renommee und historisch gewachsene Marktpositionen von Verlagen und Personen(gruppen) zurückgreifen kann und in der sich bislang keine standardisierten Messverfahren für Qualität oder Reputation etabliert haben, gibt es einen gewissen Gestaltungsspielraum für die Etablierung von communityinternen Publikationsstandards und Reputationsmechanismen. Im Falle der ZfdG sind einige ausschlaggebende Faktoren aufgezeigt worden, dank derer sich das Publikationsorgan in der Forschungscommunity verankern, diese mitgestalten und gleichzeitig Aspekte von Open Access weiter vorantreiben konnte.
Versucht man die in diesem Beitrag herausgearbeiteten Faktoren zu verallgemeinern und vom konkreten Anwendungsfall der ZfdG als einer Zeitschrift für die deutschsprachigen DH zu abstrahieren, kommt man zu folgenden Ergebnissen: Publikationskulturen sind in hohem Maße von fach- und communityspezifischen Faktoren geprägt, die es bei der Gründung eines DOA-Journals zu berücksichtigen gilt. Zwei Faktoren scheinen hierbei eine herausgehobene Rolle zu spielen: 1. Die enge Anbindung an die Zielgruppe bzw. Forschungscommunity, in der publiziert werden soll und 2. die Etablierung von tragfähigen redaktionellen Strukturen52, in denen die redaktionelle Arbeit – insbesondere deren Umsetzungsebene – ernst genommen und entsprechend honoriert wird.
#Siggenthesen-AutorInnen: #Siggenthesen, Merkur Blog, 24.10.2016, https://www.merkur-zeitschrift.de/2016/10/24/siggenthesen/, Stand: 07.08.2024.
Adema, Janneke; Moore, Sam; Steiner, Toby: Promoting and Nurturing Interactions with Open Access Books: Strategies for Publishers and Authors, Part 1: Interaction in Context, 2021. https://doi.org/10.21428/785a6451.b021e5e7.
Akdag Salah, Alkim Almila; Scharnhorst, Andrea; Wyatt, Sally: Analysing an Academic Field through the Lenses of Internet Science. Digital Humanities as a Virtual Community, in: Tiropanis, Thanassis; Vakali, Athena; Sartori, Laura u.a. (Hg.): Internet Science. Second International Conference, INSCI 2015, Brussels, Belgium, May 27-29, 2015, Proceedings, Cham 2015 (Lecture Notes in Computer Science 9089), S. 78–89. https://doi.org/10.1007/978-3-319-18609-2_6.
Alhoori, Hamed; Ray Choudhury, Sagnik; Kanan, Tarek u.a.: On the Relationship between Open Access and Altmetrics, in: iConference. Proceedings 2015. http://hdl.handle.net/2142/73451.
AuROA, Projekt: Publizieren und Open Access in den Geisteswissenschaften. Erkenntnisse aus dem Projekt AuROA zu den Stakeholdern im Publikationsprozess. https://osf.io/65rzp, Stand: 23.10.2024.
Basson, Isabel; Blanckenberg, Jaco P.; Prozesky, Heidi: Do Open Access Journal Articles Experience a Citation Advantage? Results and Methodological Reflections of an Application of Multiple Measures to an Analysis by WoS Subject Areas, in: Scientometrics 126, 2021, S. 459–484. https://doi.org/10.1007/s11192-020-03734-9.
Baum, Constanze; Stäcker, Thomas: Grenzen und Möglichkeiten der Digital Humanities, Wolfenbüttel 2015 (ZfdG Sonderband 1), https://doi.org/10.17175/SB01.
Baum, Constanze; Steyer, Timo: „Was heißt und zu welchem Ende produziert man ein geisteswissenschaftliches E-Journal?“ Innovationspotentiale des digitalen Publizierens am Beispiel der Zeitschrift für Digital Humanities (ZfDH), 12.03.2015, https://doi.org/10.5281/ZENODO.4623405.
Baum, Constanze; Steyer, Timo: Zwischen Experiment und Etablierung. Die Zeitschrift für digitale Geisteswissenschaften, in: Burschel, Peter; Gleixner, Ulrike; von Lüneburg, Marie u.a. (Hg.): Forschen in Sammlungen. Dynamiken, Transformationen, Perspektiven. Göttingen 2024 (Kulturen des Sammelns. Akteure, Objekte, Medien 3), S. 37–56.
Baumgarten, Marcus; Fricke-Steyer, Henrike; de la Iglesia, Martin u.a.: Transparenz im Fokus: Die Publikationspraxis der Zeitschrift für digitale Geisteswissenschaften, 21.02.2024, https://doi.org/10.5281/ZENODO.10706093.
Baumgarten, Marcus; de la Iglesia, Martin; Jansky, Caroline u.a.: Publikationspraxis der Zeitschrift für digitale Geisteswissenschaften 2015 bis 2023, 1.0, 26.02.2024, https://doi.org/10.17175/2015-2023_PUBLIKATIONSPRAXIS-ZFDG.
Biemann, Chris; Heyer, Gerhard; Quasthoff, Uwe: Wissensrohstoff Text. Eine Einführung in das Text Mining, Wiesbaden 2022.
Bollen, Johan; Van de Sompel, Herbert; Smith, Joan A. u.a.: Toward Alternative Metrics of Journal Impact. A Comparison of Download and Citation Data, in: Information Processing & Management 41 (6), 2005, S. 1419–1440. https://doi.org/10.1016/j.ipm.2005.03.024.
Breuer, Constanze; Trilcke, Peer: Die Ausweitung der Wissenschaftspraxis des Publizierens unter den Bedingungen des digitalen Wandels, 2021, https://doi.org/10.48440/ALLIANZOA.041.
Cremer, Fabian; Blessing, André; Helling, Patrick u.a.: DHd Chronicles. Anreicherung und Analyse der Beiträge zu den Jahrestagungen der Digital Humanities im deutschsprachigen Raum 2014–2023, 21.02.2024, https://doi.org/10.5281/ZENODO.10698356.
Deutsche Forschungsgemeinschaft: Leitlinien zur Sicherung guter wissenschaftlicher Praxis. Kodex, 2019, https://www.dfg.de/resource/blob/173732/4166759430af8dc2256f0fa54e009f03/kodex-gwp-data.pdf, Stand: 15.08.2024.
DHd-AG Digitales Publizieren: Digitales Publizieren in den Geisteswissenschaften: Begriffe, Standards, Empfehlungen, Wolfenbüttel 2021 (Zeitschrift für digitale Geisteswissenschaften, Working Paper 1). https://doi.org/10.17175/WP_2021_001.
DHd-Arbeitsgruppe Digitales Publizieren: Working Paper Digitales Publizieren, Zenodo, 01.03.2016. https://doi.org/10.5281/zenodo.10243814.
Fadeeva, Yuliya: Qualitative Sprünge in der Qualitätssicherung? Potenziale digitaler Open-Peer-Review-Formate. In: Burghardt, Manuel; Dieckmann, Lisa; Steyer, Timo u.a. (Hg.): Fabrikation von Erkenntnis – Experimente in den Digital Humanities. Wolfenbüttel 2021 (ZdfG Sonderband 5). https://doi.org/10.17175/sb005_002_v2.
Fitzpatrick, Kathleen: Planned Obsolescence. Publishing, Technology, and the Future of the Academy, New York, NY 2011.
Fokusgruppe Scholar-Led.Network: Das scholar-led.network-Manifest ZENODO, 16.07.2021. https://doi.org/10.5281/ZENODO.4925784.
Ganz, Kathrin; Finger, Juliane; Schotten, Sabrina u.a.: Faires Open Access braucht Redaktionen: Gegen die technokratische Vernachlässigung von Redakteur*innen in der Debatte um Not-for-Profit Open Access, oa.blog, 05.09.2024, https://open-access.network/blog/faires-open-access-braucht-redaktionen-gegen-die-technokratische-vernachlaessigung-von-redakteurinnen-in-der-debatte-um-not-for-profit-open-access, Stand: 10.02.2025.
Garfield, Eugene: Citation Analysis of Scientific Journals, in: Garfield, Eugene: Citation Indexing. Its Theory and Application in Science, Technology, and Humanities, Philadelphia 1979, S. 148–239. http://garfield.library.upenn.edu/ci/chapter9.pdf, Stand: 17.07.2024.
Hoeffel, C.: Journal impact factors, in: Allergy 53, 1998, S. 1225. https://doi.org/10.1111/j.1398-9995.1998.tb03848.x.
Jansky, Caroline; Iglesia, Martin de la: ZfdG. Praxisevaluation Peer Review, 2024, https://doi.org/10.60831/T1FX-RX68.
Kohle, Hubertus: Digitales Publizieren, in: Jannidis, Fotis; Kohle, Hubertus; Rehbein, Malte (Hg.): Digital Humanities, Stuttgart 2017, S. 199–205. https://doi.org/10.1007/978-3-476-05446-3_13.
Laakso, Mikael; Matthias, Lisa; Jahn, Najko: Open is not forever. A study of vanished open access journals, in: Journal of the Association for Information Science and Technology 72 (9), 2021, S. 1099–1112. https://doi.org/10.1002/asi.24460.
Lauer, Gerhard: Datentracking in den Wissenschaften. Wissenschaftsorganisationen und die bizarre Asymmetrie im wissenschaftlichen Publikationssystem, in: o-bib 9 (1), 2022. https://doi.org/10.5282/o-bib/5796.
Mackay, Kath: Why a Twitter X-Odus Spells Trouble for the Scientific Community, in: Forbes, 22.04.2024, https://www.forbes.com/sites/drkathmackay/2024/04/22/why-a-twitter-x-odus-spells-trouble-for-the-scientific-community/, Stand: 22.07.2024.
Mounce, Ross: Open access and altmetrics: Distinct but complementary, in: Bulletin of the American Society for Information Science and Technology 39 (4), 2013, S. 14–17. Online: https://doi.org/10.1002/bult.2013.1720390406.
Nyhan, Julianne; Duke-Williams, Oliver: Joint and multi-authored publication patterns in the Digital Humanities, in: Literary and Linguistic Computing 29 (3), 01.09.2014, S. 387–399. https://doi.org/10.1093/llc/fqu018.
Priem, Jason; Taraborelli, Dario; Groth, Paul u.a.: Altmetrics. A manifesto. 26.10.2010, Version 1.01, https://doi.org/10.5281/zenodo.12684248.
Ross-Hellauer, Tony: What is open peer review? A systematic review, in: F1000Research 6, 31.08.2017, https://doi.org/10.12688/f1000research.11369.2.
Ross-Hellauer, Tony; Horbach, Serge P J M: Additional experiments required. A scoping review of recent evidence on key aspects of Open Peer Review, in: Research Evaluation 33 (rvae004), 2024. https://doi.org/10.1093/reseval/rvae004.
Seglen, Per O.: Citations and Journal Impact Factors. Questionable Indicators of Research Quality, in: Allergy 52, 1997, S. 1050–1056. https://doi.org/10.1111/j.1398-9995.1997.tb00175.x.
Simard, Marc-André; Basson, Isabel; Hare, Madeleine u.a.: The open access coverage of OpenAlex, Scopus and Web of Science, arXiv, 02.04.2024, https://doi.org/10.48550/arXiv.2404.01985.
Templ, Matthias: Modeling and Prediction of the Impact Factor of Journals Using Open-Access Databases, in: Austrian Journal of Statistics 49, 2020, S. 35–58. https://doi.org/10.17713/ajs.v49i5.1186.
Xia, Jingfeng; Smith, Megan P.: Alternative journal impact factors in open access publishing, in: Learned Publishing 31 (4), 2018, S. 403–411. https://doi.org/10.1002/leap.1200.