Digital Humanities : eine Einführung / Fotis Jannidis, Hubertus Kohle, Malte Rehbein (Hg.). – Stuttgart: J.B. Metzler Verlag, 2017. – XIII, 370 Seiten : Illustrationen. – ISBN 978-3-476-02622-4 : EUR 29.95 (auch als E-Book verfügbar)

Eine Einführung bzw. ein Lehrbuch für Digital Humanities (DH) zu schreiben, ist in einer Phase, in der das Fach sich erst zu konsolidieren beginnt, nicht ohne Kühnheit. So werden nicht nur DH-Studierende, sondern auch generell an den DH interessierte Leserinnen und Leser neugierig danach greifen, um zu erfahren, welche Wege das Buch einschlägt, welche Gegenstände und Methoden es behandelt, was es hervorhebt, was es eher nebenher betrachtet oder als apokryph beiseitelässt. In der immer noch fluiden Situation der DH ein Lehrbuch zu wagen, ist daher einerseits ein großes Verdienst, weil es der Sache Kontur verschafft, andererseits aber auch ein großes Risiko: Denn wer einschließt, schließt auch aus. Den Herausgebern ist es gelungen, Autorinnen und Autoren zu versammeln, denen man diese heikle Gratwanderung ohne weiteres zutraut. Schon die Zusammenstellung dieser Gruppe verdient Respekt und zeugt von einem klaren Blick auf das neue Feld. Für Bibliotheken wiederum ist dieser Band von Interesse, weil er einerseits weitreichende Überlappungen mit der Bibliotheks- und Informationswissenschaft aufweist, die die theoretischen Grundlagen für die moderne Bibliotheksarbeit legt, andererseits den Gedächtniseinrichtungen, darunter den Bibliotheken, eine prominente Rolle zuweist. Diese kommt in eigenen Kapiteln über Bibliotheken bzw. allgemeine Sammlungsbildung zum Ausdruck und kann gleichsam als Auftrag an die Bibliotheken gelesen werden, die junge, in wesentlichen Teilen alle Geistes- und Kulturwissenschaften durchdringende Disziplin zu unterstützen und umgekehrt auf deren Methodenwissen zurückzugreifen.

Der von verschiedenen Autorinnen und Autoren verfasste Band ist 370 Seiten stark und mit einem Register, einer Auswahlbibliographie und herunterladbarem Zusatzmaterial1 versehen. Er richtet sich nach eigener Auskunft an „Studierende einschlägiger Fächer“, aber auch an „alle anderen, Studierende wie Wissenschaftler“ (S. XII), wobei keine besonderen fachlichen Voraussetzungen erwartet werden. Er gliedert sich in fünf größere Abschnitte: Grundlagen, Datenmodellierung, digitale Objekte, digitale Methoden sowie Recht und Ethik. Schon die Durchsicht des Inhaltsverzeichnisses offenbart eine bemerkenswerte Themenvielfalt. Das Spektrum reicht von Geschichte und Begriff der DH (Thaller), über Medientheorie (Reichert), den Aufbau des PC und Netzwerktechnologie (Klinke), Zahlen und Zeichencodierung, Programmiergrundlagen, Datenmodellierung (Jannidis), Datenbanken (Klinke), XML (Vogeler/Sahle), Netzwerktheorie (Jannidis), Ontologien, Digitalisierung (Rehbein), digitales Publizieren (Kohle), digitale Wissensproduktion (Schöch), Bibliothek, Archiv, Museum (Neuroth), Aufbau von Datensammlungen (Schöch), digitale Edition (Sahle), Annotation (Rapp), Information Retrieval (Klinke), quantitatve Analyse, also u.a. Topic Modelling und Stilometrie (Schöch), geographische Informationssysteme (Volkmann), digitale Rekonstruktion und Simulation (Kohle) sowie Visualisierung (Rehbein) bis hin zu Fragen von Recht (Steinhauer) und Ethik (Rehbein/Thies). Die Artikel stehen weitgehend für sich selbst und sind von wechselndem Umfang und unterschiedlicher Tiefe. Sie werden ergänzt durch eine meist knappe, die wichtigsten Werke zum jeweiligen Gebiet umfassende Literaturliste.

Um es vorweg zu sagen, das Buch eignet sich nur bedingt dafür, von vorne bis hinten gelesen zu werden. Das zeigt sich auch darin, dass nicht alle Artikel für Studierende einschlägiger Fächer und „Laien“ gleichermaßen geeignet sind. So werden technisch versierte Studierende z.B. die Abschnitte über den Aufbau des Computers als zu lang und überflüssig empfinden und gelangweilt weiterblättern, während es für Anfängerinnen und Anfänger durchaus nützlich ist, sich noch einmal der Grundlagen des Rechners oder der Theorie der binären Zahlen zu versichern. Umgekehrt sind die Beiträge zur Theorie digitaler Medien, zu Information Retrieval oder GIS nicht so voraussetzungslos, wie die Einleitung glauben machen will, und Studienanfängerinnen und -anfänger, die Orientierung suchen, mögen hin und wieder überfordert sein. Dem fachübergreifenden Charakter der DH zufolge wird man je nach disziplinärer Affinität Neues und Überraschendes, mitunter aber auch Altbekanntes aus dem eigenen Gebiet finden. So dürften gerade die Beiträge zu Textmining, Informationsvisualisierung, Ontologie oder Information Retrieval den Bibliotheks- und Informationswissenschaftler/inne/n vertraut vorkommen.2

Die einleitenden Beiträge von Thaller zur Geschichte und zu DH als Wissenschaft bieten einen konzisen Einblick in die Genese des Feldes der DH und ihrer wichtigsten Diskurslinien. Er greift die wechselnden Strömungen, Initiativen und auch Labels der Bewegung im Ausgang von den methodischen Vorarbeiten Pater Roberto Busas auf und führt anhand von Fragen wie „Werkzeug oder Methode?“, „DH jenseits einzelner geisteswissenschaftlicher Disziplinen“ oder „DH und Informatik“ in die zentralen Debatten ein. Allerdings würde eine ausführlichere Auseinandersetzung der jüngeren „Selbstfindungsphase“ des Faches, die in Bänden wie „Debates in the Digital Humanities“ (2012)3, dem Sammelband „Defining Digital Humanities“ (2013)4 oder auch schriller im Digital Humanities Manifesto (2009ff.)5 zum Ausdruck kam und sich an der Schlüsselfrage „Was sind die DH?“6 entzündete, noch eine eingehendere Analyse benötigen. Als Mangel muss man ansehen, dass nicht auf die aktuelle institutionelle und currikulare Entwicklung des Faches eingegangen wird, das mittlerweile durch einige Professorinnen und Professoren in der Hochschullandschaft vertreten ist und das sich im deutschsprachigen Raum im DHd-Verband (Digital Humanities im deutschsprachigen Raum) organisiert hat. Die vom DHd-Verband veranstaltete Jahrestagung hat den DH im deutschsprachigen Raum erstmals eine zentrale Stimme gegeben. Wegen des Initialcharakters des Bandes kommt natürlich gerade dem Beitrag zur Theorie der DH besondere Bedeutung zu. Auch wenn die wichtigsten Aspekte benannt sind, fühlt man an dieser Stelle doch eine Lücke. So wäre ein aus den Geisteswissenschaften und von der hermeneutischen Methode her argumentierender Theorieteil wünschenswert gewesen, der sich u.a. dem Spannungsbogen von qualitativer versus quantitativer Forschung – die immer auch eine Konfliktlinie zwischen den traditionell arbeitenden Geisteswissenschaften und den DH gewesen ist (das Thema kommt z.B. im Beitrag von Schöch zur Sprache, S. 279) – angenommen hätte. Der Beitrag zu den Theorien digitaler Medien von Reichert ist hochinteressant, scheint aber eigentlich ein Borderliner in Sachen „Humanities“ und der Fragestellung gemäß eher soziologisch ausgerichtet zu sein. Dennoch zeigt sich hier schon deutlich, wie fruchtbar das Feld im transdisziplinären Ausgreifen auf diverse Felder ist – ein Merkmal, das die DH insgesamt charakterisiert und aus meiner Sicht treffend mit dem Begriff der Emergenz (vgl. auch S. 27) bezeichnet wurde. In diesem Sinne muss man auch die Beiträge zum Computer, zur Netzwerktechnik, zum Programmieren oder teilweise zu Zahlen und Zeichen verstehen, die sich zwar auch in einem Lehrbuch für Informatik hätten finden können, zugleich aber im Sinne dieser Emergenz über das engere „ursprüngliche“ Feld hinausweisen. Der DHler wird hier vermutlich auch an C.P. Snow denken, der die Unversöhnlichkeit der zwei Kulturen von Geistes- und Naturwissenschaften beklagte. Die DH sind ein wichtiger Schritt, um diese Kulturen zu versöhnen. Dazu mag dann auch gehören, sich das „algorithmische Denken“ (S. 89) anzueignen und sich ernsthaft die Frage zu stellen, ob man als digital arbeitender Geisteswissenschaftler programmieren können muss (S. 95). Mit Blick auf die Verbindung der Kulturen ist das Thema der Datenmodellierung zentral, das zu Recht einen breiten Raum einnimmt. Mit Verweis auf eine der wichtigsten Publikationen in diesem Bereich, McCarty’s „Humanities Computing“ (2005),7 stellt Jannidis im Kapitel zur Datenmodellierung daher fest: „Insgesamt kann man kaum überschätzen, wie wichtig Datenmodelle und die Datenmodellierung für die Digital Humanities sind“ (S. 107). Daran schließt sich konsequent eine eingehende Studie zum Datenbankdesign an, die neben relationalen Datenbanksystemen auch so genannte NoSQLs thematisiert. Sehr ausführlich wird auf SQL als Abfragesprache und auf die Modellierung relationaler Datenbanksysteme eingegangen, etwas zu kurz kommen dagegen die NoSQLs. Bei den XML-Datenbanken vermisst man etwa eine Beschreibung der Abfragesprache XQuery und zumindest eine Erwähnung der im DH Bereich sehr populären Datenbank eXist8, auch wenn beide im Folgekapitel zu XML von Vogeler/Sahle erwähnt werden. Etwas ausführlicher wird die Graphdatenbank Neo4j behandelt, die sich zwar zunehmender Beliebtheit erfreut, deren Sprache Cypher aber, wie Klinke zurecht bemerkt, nicht standardisiert ist. Auch ein Hinweis auf RDF-basierte Triplestores und den W3C-Standard SPARQL wäre hilfreich gewesen, um eine Brücke zu den nachfolgenden Kapiteln zu XML, Netzwerken und Ontologien (RDF) zu schlagen, die offenbar mit der Frage des Datenbankdesigns korrespondieren. Wünschenswert wäre gewesen, den Einsatz der jeweiligen Technik und Datenbanksysteme hinsichtlich der Vor- und Nachteile für den jeweiligen Gegenstand abwägend zu skizzieren. Warum und wann sollte man z.B. eher Neo4j (property graph) und nicht z.B. Sesame (RDF) einsetzen? Das Thema XML von Vogeler/Sahle ist eine solide Darstellung, selbst wenn man sich bei der Literaturliste mehr wünschen würde; z.B. fehlt dort das Thema „Schema“. Didaktisch ausgezeichnet durchstrukturiert und für den DHAdepten gut verständlich sind die Beiträge zu den nicht einfachen Themen Netzwerke und Ontologie von Jannidis und Rehbein, auch wenn man sich zum letzteren ebenfalls etwas mehr Literatur gewünscht hätte, wie z.B. das ausgezeichnete Buch „Semantic Web for the Working Ontologist“ von Allemang und Hendler.9 Ob man auf die W3C-Publikationen zum Thema hinweisen muss oder nicht, ist eine Glaubensfrage. In einer Einleitung wäre zumindest ein Hinweis auf den RDF Primer10 nützlich gewesen.

Natürlich darf das Thema Digitalisierung nicht fehlen (heute muss man angesichts des inflationären Gebrauchs des Begriffs eigentlich von Retrodigitalisierung sprechen). Rehbein führt die Leserinnen und Leser souverän durch alle wichtigen technischen Belange der Digitalisierung, die nicht nur die Imageerzeugung umfasst, sondern auch OCR. Allerdings ist gerade im letztgenannten Bereich viel im Fluss und die Dynamik des Feldes bringt es mit sich, dass die Darstellung angesichts von Projekten wie READ (Einsatz von neuronalen Techniken zur Texterkennung)11 oder OCR-D (nationale Agenda zu OCR)12 schon nicht mehr aktuell ist. Erfreulich ist, dass auch neuere Verfahren wie die Audiodigitalisierung und die 3D-Objektdigitalisierung Berücksichtigung finden. Bei den Metadaten (S. 192f.) fehlt der auch von den DFG-Praxisregeln empfohlene Standard LIDO für museale Objekte.13 In der Literatur könnte man noch internationale Aktivitäten ergänzen, wie die Federal Agencies Digital Guidelines Initiative.14 Die zitierten DFG-Praxisregeln (S. 195) sind – vermutlich ist das dem Redaktionsschluss geschuldet – nicht mehr aktuell (neu erschienen 2016).15 Deutlich zu knapp ist die Darstellung von Kohle zum digitalen Publizieren, das nach der Retrodigitalisierung die born digitals behandelt. Zwar werden wichtige Themen gestreift, aber angesichts ihrer Bedeutung im sich dynamisch verändernden Publikationswesen der Wissenschaft nicht in der gebotenen Breite und Tiefe ausgearbeitet. Wichtige Bemühungen zur Qualitätssicherung und Standardisierung, wie etwa die DINI Initiative,16 fehlen ebenso wie Hinweise auf innovative Konzepte, wie die der DHd-AG Digitales Publizieren.17 Hingegen wird der wichtige Punkt der Problematik des Autors, der sich in lebenden oder multiauktorialen Dokumenten stellt (S. 200), genannt. Begriffe, die man erwartet hätte, fallen nicht oder bleiben zu vage, wie etwa „enhanced publication“ oder „persistentes Zitieren“ (DOI, URN, Handle, etc., nur PURL wird kurz erwähnt, S. 202). In der Diskussion um die Formate (S. 200) fehlen die Ansätze, welche die „digitale Inkunabel“ PDF überwinden helfen können, wie XML-basierte Publikationen (mittlerweile sogar bei den Verlagen gängig, die verschiedene viewports bedienen müssen) und die in diesem Umfeld sich abzeichnenden Standardisierungen wie JATS, jTEI, DITA etc. Die Koppelung mit den Forschungsdaten wird nicht im Hinblick auf den Research Data Life Cycle18 bewertet, wobei einzuräumen ist, dass sich das Thema Forschungsdaten umfänglich nicht unter dieser Überschrift behandeln lässt. Das gilt indes nicht für den Passus zu Open Access (OA), der zwar in den Kapiteln über Gedächtnisinstitutionen und Recht noch einmal aufgegriffen wird, aber einen integralen Bestandteil von digitalen Publikationen bildet. Hier fehlen Hinweise auf die wissenschaftspolitischen Entwicklungen, wie sie u.a. in den BBB-Erklärungen19 ihren Niederschlag fanden, oder auch zentrale Portale, die es Forschenden erleichtern, in OA zu publizieren, wie z.B. die SHERPA/RoMEO Liste, OpenDOAR, das DOAJ, die Open Library of Humanities (OLH) und OAPEN bis hin zu einschlägigen Blog-Angeboten für die Geisteswissenschaften wie hypotheses.

Der Beitrag von Schöch „Digitale Wissensproduktion“ knüpft hier nahtlos an, indem er den eher praktischen Kapiteln zur Digitalisierung einerseits eine übergeordnete Reflexion mit einer begrifflichen Gliederung zur Seite stellt, andererseits aber auch die praktischen Prozesse und Werkzeuge beleuchtet, die der Wissensproduktion mit digitalen Mitteln zugrunde liegen (Google Docs etc.). Naturgemäß sind die hier verhandelten Konzepte, wie z.B. Daten, Information und Wissen, strittig (vgl. die Diskussionen um das in der Informationswissenschaft geläufige DIKW Modell), bieten aber den Einsteigern einen guten Orientierungsrahmen. Die sich anschließenden Kapitel zu Bibliothek, Archiv, Museum von Neuroth und zum Aufbau von Datensammlungen von Schöch gehören dem, wenn man so will, „bibliothekarischen Feld“ an, indem sie einerseits die infrastrukturellen Rahmenbedingungen für die Archivierung von Digitalisaten erläutern, andererseits deren Aufbereitung und Ordnung zu Sammlungen, ohne die eine sinnvolle Nachnutzung nicht möglich wäre. Neuroth schildert zunächst das klassische Bibliotheksparadigma von Sammeln, Erschließen und Benutzen, das in gewisser Weise und mit anderen Schwerpunkten auch für die anderen Gedächtniseinrichtungen Archiv und Museum gilt. Sie gibt eine Übersicht über wichtige Standards zur Beschreibung von Objekten in den jeweiligen Sparten sowie über zentrale Informationsportale, die den Zugriff auf digitale Medien ermöglichen. Was man hier etwas vermisst, ist es ein weiteres Eingehen auf den Bereich „Benutzung“, d.h. die Frage, welche konkreten Dienstleistungen die Gedächtnisinstitutionen den DH in Zukunft werden anbieten können: Etwas, das man vielleicht einerseits mit dem Oberbegriff „Schnittstelle“, andererseits als „Informationskompetenz“ näher hätte beschreiben könnte. Schöchs Beitrag zeigt in anschaulicher Weise sowohl Kriterien als auch Wege der Sammlungsbildung im Digitalen auf und bietet gerade für Studierende wertvolle „hands-on“-Anleitungen, die wichtige Themen wie die DOI-Vergabe einschließen. Relevante Unterscheidungen, etwa zwischen den Metadatentypen, werden vermittelt. Eine engere Abstimmung mit dem Beitrag von Neuroth wäre sinnvoll gewesen, weil sich z.B. die Listen auf S. 219 und S. 231 deutlich überschneiden.20 Der Bereich Digitale Objekte wird mit einem Beitrag von Sahle zur digitalen Edition abgeschlossen, der anschaulich in die Grundlagen des digitalen Edierens einführt und ein Amalgam seiner einschlägigen Arbeiten zu diesem Gebiet enthält. Ob tatsächlich das Model-View-Controller-Paradigma (MVC) (S. 241) aus der Informatik angemessen ist, um digitale Editionen zu beschreiben, sei dahingestellt – z.B. wäre der Ort des Schemas nicht einfach zu bestimmen, und es dürfte zumindest schwierig sein festzulegen, ob XSLT-Erzeugungen von varianten Oberflächen eine Sache der View oder des Controllers oder beiden sind und ob, wenn letzteres zutrifft, diese Komponente „grundsätzlich austauschbar“ ist (S. 243) oder doch editionskonstitutiv. Zumindest ist diese Adaption ein interessanter Gedanke. Gewünscht hätte man sich noch ein Eingehen auf gängige Editionstools wie TextGrid, IuD, ediarium oder auf oXygen als wichtigsten XML-Editor in diesem Feld. Eine Petitesse ist das Beispiel <persName key=“gnd_118580914“> (S. 247), das zwar nicht falsch ist, aber nach jüngeren Usancen der TEI nicht mehr in diesem Sinne verwendet wird und vermutlich dies meint: <persName ref=“http://d-nb.info/gnd/118580914“>.

Der letzte größere Block des Buches ist den digitalen Methoden gewidmet. Rapp führt, die Studierenden bei der Hand nehmend, in das weite Feld der Annotation ein. Sie macht deutlich, dass der Begriff in einem historischen Kontinuum steht, vielschichtig und mitunter nicht klar von anderen abgrenzbar ist (z.B. von Metadaten, S. 258). Sie beschreibt u.a. Verfahren wie POS-Taging und machine learning in überwachter und nicht überwachter Form. Teilweise redundant zu anderen Beiträgen sind Abschnitte zur TEI oder eben zum maschinellen Lernen, was aber mit Blick auf die Autonomie der Beiträge nicht unbedingt schädlich ist (s.a. zu Neuroth und Schöch oben). Mit dem sich anschließenden Thema Information Retrieval betritt Klinke klassisches informationswissenschaftliches Terrain und fasst die wichtigsten Aspekte, bis hin zur Beschreibung zentraler Formeln (Precison, Recall, F-Score) in dichter Form zusammen. Zweifelsohne zentral, fast schon ein Herzstück für die DH, ist der Beitrag von Schöch zur quantitativen Analyse. Hier erhalten nicht nur Studierende, sondern auch schon avanciertere DH-Interessierte eine konzise, gut lesbare, alle Aspekte dieses umfangreichen und technisch anspruchsvollen Feldes abdeckende Einleitung zum Textmining (insbesondere zu statistischen Grundlagen und deren Anwendung in der Clusteranalyse/Topic Modelling und der Stilometrie). Das umfängliche Kapitel zu GIS von Volkmann, das die Grundlagen der Georeferenzierung und wichtige Datenmodelle und –typen behandelt, und die sehr anschaulich geschriebenen Beiträge zur digitalen Rekonstruktionen und zur Simulation von Kohle sowie zur Informationsvisualisierung von Rehbein runden dieses Arbeitsfeld zu den dreidimensionalen (oder sogar vierdimensionalen, wenn man die Rekonstruktion in der Zeit mitdenkt) und diagrammatischen bzw. Visualisierungskomponenten von DH ab. Der Band schließt mit einem gut lesbaren und verständlichen Beitrag von Steinhauer zu den mit DH verbundenen Rechtsfragen und einem kleineren Kapitel zur Ethik in den DH von Rehbein/Thies. Gerade letztere gewinnt in einem Kontext, in dem das Unbehagen über einen in seinen Datenspuren gläsernen Menschen um sich greift, zunehmend an Bedeutung, und es ist eine gute Entscheidung der Herausgeber, das im Kontext von DH nicht selbstverständliche Thema aufzugreifen. Blickt man nach der Lektüre zurück, ist es wohl nicht übertrieben zu sagen, dass es den Herausgebern tatsächlich gelungen ist, das Feld schlüssig zu umreißen und auch angemessen zu gliedern, selbst wenn es hier und da Redundanzen und variierende Darstellungen gibt21 und man über die Einordung von Themenfeldern diskutieren könnte, wie z.B. ob die „Theorie digitaler Medien“ und der „Aufbau des Computers“ in dieselbe Kategorie von Grundlagen gehören. Das ist in einem noch wenig etablierten Feld nicht verwunderlich und tut der Sache keinen Abbruch. Im Einzelnen finden sich kleinere Flüchtigkeitsfehler oder Ungenauigkeiten, die in einer Neuauflage zu beseitigen wären.22 Besonders schmerzlich ist, dass, selbst wenn man Übergangsprozesse konzediert und die eher traditionell arbeitenden Geisteswissenschaften auch erreichen will, gerade ein Zeichen setzender Band zu DH nicht zumindest auch im Open Access und unter einer freien Lizenz erscheint. So ist es nicht ohne Ironie, wenn es im Kapitel zu Open Access heißt, dass es „angemessen erscheint, dass auch die Digital Humanities, soweit sie selbst produktiv sind, sich einer weitgehenden Offenheit verpflichtet wissen“ (S. 350).

Dennoch soll die kleinere Kritik, die man hier und dort üben kann, nicht verstellen, dass ein Werk entstanden ist, das einen Meilenstein für die Konsolidierung und Selbstbestimmung des Faches darstellt und in jede Bibliothek gehört, die sich den neuen digitalen Methoden verpflichtet fühlt. Alle Beiträge sind mit Gewinn zu lesen. Studierende nicht nur des Faches, sondern aller geistes- und kulturwissenschaftlichen Fächer erhalten eine solide Grundlage in allen Bereichen der DH. Und so hat der Rezensent schon einzelne Seiten – natürlich im Einklang mit § 52a, in Zukunft § 60e, also den gesetzlich zugelassenen schmalen 10 % – an seine Studierenden verteilt. Gut, dass man endlich ein Lehrbuch hat. Zu begrüßen wäre, wenn es medienadäquat digital fortgeschrieben würde. Dann soll man aber bitte Ernst machen und den Open-Access-Worten auch Open-Access-Taten folgen lassen.

Thomas Stäcker, Universitäts- und Landesbibliothek Darmstadt und Fachhochschule Potsdam

Zitierfähiger Link (DOI): https://doi.org/10.5282/o-bib/2017H3S142-148


1 http://www.metzlerverlag.de/9783476026224. Es handelt sich um Fragen, die eine Vertiefung des Stoffes erlauben.

2 Vgl. Rainer Kuhlen, Wolfgang Semar und Dietmar Strauch, Hrsg., Grundlagen der praktischen Information und Dokumentation: Handbuch zur Einführung in die Informationswissenschaft und –praxis, 6., völlig neu gefasste Ausgabe (Berlin: de Gruyter Saur, 2014).

3 Matthew K. Gold, Hrsg., Debates in the Digital Humanities (Minneapolis: University of Minnesota Press, 2012).

4 Meliassa Terras, Julianne Nyhan und Edward Vanhoutte, Hrsg., Defining Digital Humanities: a Reader (Farnham [u.a.]: Ashgate, 2013).

5 „The Digital Humanities Manifesto 2.0,“ zuletzt geprüft am 02.08.2017, http://www.humanitiesblast.com/manifesto/Manifesto_V2.pdf.

6 Vgl. z.B. das bekannte Diktum von Matthew G. Kirschenbaum, „What Is ’Digital Humanities’, and Why Are They Saying Such Terrible Things about It?,“ differences 25.1 (2014): 15, zuletzt geprüft am 31.08.2017, https://mkirschenbaum.files.wordpress.com/2014/04/dhterriblethingskirschenbaum.pdf: „we will never know what digital humanities ‘is’ because we don’t want to know nor is it useful for us to know“.

7 Willard McCarty, Humanities computing (Basingstoke, Hampshire [u.a.]: Palgrave Macmillan, 2005).

9 Dean Allemang und Jim Hendler, Semantic Web for the Working Ontologist: Effective Modeling in RDFS and OWL, 2. Auflage (Amsterdam [u.a.]: Elsevier/Morgan Kaufmann, 2011).

10 „RDF primer,“ W3C, zuletzt geprüft am 02.08.2017, https://www.w3.org/TR/rdf11-primer/.

11 READ – Recognition and Enrichment of Archival Documents, zuletzt geprüft am 02.08.2017, https://read.transkribus.eu/.

12 ORC-D, zuletzt geprüft am 02.08.2017, http://www.ocr-d.de/.

14 „Guidelines,“ Federal Agencies Digital Guidelines Initiative, zuletzt geprüft am 02.08.2017, http://www.digitizationguidelines.gov/.

15 DFG Praxisregeln „Digitalisierung“, zuletzt geprüft am 02.08.2017, http://www.dfg.de/formulare/12_151/12_151_de.pdf.

16 „Elektronisches Publizieren,“ DINI, zuletzt geprüft am 02.08.2017, http://www.dini.de/ag/e-pub/.

17 „DHd-Arbeitsgruppe ,Digitales Publizieren‘,“ digital humanities im deutschsprachigen raum, zuletzt geprüft am 02.08.2017, http://dhd-wp.hab.de/?q=ag-text.

18 Johanna Puhl et al., Diskussion und Definition eines Research Data LifeCycle für die digitalen Geisteswissenschaften, DARIAH-DE Working Papers Nr. 11 (Göttingen: DARIAH-DE, 2015), zuletzt geprüft am 02.08.2017, http://resolver.sub.uni-goettingen.de/purl/?dariah-2015-4.

19 Budapest (Februar 2002), Bethesda (Juni 2003) und Berliner (Oktober 2003) Erklärung zum Open Access.

20 Eigenartigerweise wird bei beiden das zentrale Bildarchiv Foto Marburg ausgelassen.

21 Vgl. z.B. die Darstellung von Metadaten von Jannidis (S.101), der anders als z.B. Neuroth (S. 192) nicht die in Bibliothekskreisen übliche Viererstruktur nennt, sondern sich auf drei beschränkt. Die strukturellen MD werden bei ihm mit dem Begriff der Annotation belegt, ohne dass er diesen genauer definiert. Rapp wiederum versteht den Annotationsbegriff sehr breit und unterscheidet Metadaten von Annotationen lediglich darin, dass es Metadaten eher dann sind, wenn es sich um deskriptive MD handelt (S. 258). Vereinheitlichende terminologische Standards wären hilfreich, um Studienanfängern auch sprachlich ein verbindliches Gerüst zu geben.

22 Der von verschiedenen Beiträgern zitierte Titel „The Shape of Data in Digital Humanities“ ist anscheinend noch nicht erschienen. – Das beschriebene Attribut xsi:SchemaLocation (S. 137) kommt anders als behauptet im Beispiel auf (S. 136) nicht vor. – JPEG 2000 ist anders als behauptet (S. 185) eine Alternative zu TIFF. Auch wenn nicht unumstritten, wird es z.B. von der Bayerischen Staatsbibliothek (BSB) und der Library of Congress als Archivformat verwendet. – Für das VD 17 ist nicht die BSB allein verantwortlich (S. 213), sondern diese zusammen mit der SB Berlin und der HAB Wolfenbüttel.- Die Literaturangabe Casties/Wintergrün 2015 (S. 265) wird im Literaturverzeichnis nicht aufgelöst. – In der Tabelle auf S. 269 muss es in der letzten Spalte, erste Reihe False Positives statt False Negatives heißen. – Der Titel Volkmann 2015 (S. 308) wird im Literaturverzeichnis nicht aufgelöst oder falsch zugeordnet, vielleicht 2014? – Der Titel McCarty 2016 (S. 323) fehlt im Literaturverzeichnis oder wird falsch zugeordnet, 2017?