DE | EN

1. Überblick über die Arbeitspakete

Die folgende Übersicht entspricht dem ursprünglichen Konzept bei Beginn des Projekts. In Klammer sind die jeweils zuständigen Projektpartner angegeben (Ffm = Institut für Musikwissenschaft, Goethe-Universität Frankfurt/Main, ER = International Audio Laboratories Erlangen, DT/PB = Musikwissenschaftliches Seminar Detmold/Paderborn und Institut für Informatik der Universität Paderborn):

  • AP 1: Aufbau der Datenbasis
    • AP !.1: Adapltion und Integration der Freischütz-Daten (DT)
    • AP 1.2: Digitalisierung von Tonaufnahmen (DT, ER)
    • AP 1.3: Codierung der Notentexte (DT)
    • AP 1.4: Anbindung Edirom-Werkzeuge an das TextGrid-Repository (PB)
  • AP 2: Aufbereitung akustischer Bestandteile
    • AP 2.1: Synchronisation von Codierung und Tonaufnahme (ER)
    • AP 2.2: Einspielung ausgewählter Nummern (DT)
    • AP 2.4: Synchronisationsbasierte zeitliche und spektrale Segmentierung von Tonaufnahmen (ER)
    • AP 1.3: Integration von Audioelementen in die Präesentationssoftware (PB)
  • AP 3. Freischütz-Edition
    • AP 3.1: Modell Digitale Edition (DT/PB)
    • AP 3.2: Erarbeitung der digitalen Edition (DT)
    • AP 3.3: Verknüpfung von Partitur und Libretto (Viglianti)
    • AP 3.4: Anpassung und Erweiterung der Software (PB)
  • AP 4: Libretto-Edition und Intertexte
    • AP 4.1: Textgenetische Edition des Librettos (Ffm)
    • AP 4.2: Intertexte I: Librettistische Referenzpunkte (Ffm)
    • AP 4.3: Intertexte II: Werk-Rezeption (Ffm)
    • AP 4.1: Anpassung und Erweiterung der Software (PB)
  • AP 5: Integration der Benutzerinteraktion
  • AP 6: Varianz als Demonstrationsbeispiel für nachnutzende Forschungsfragen
    • AP 6.1: Umgang mit Varianz der Schriftlichkeit (DT)
    • AP 6.2: Interpretationsvergleich anhand von Aufführungsmaterialien (Ffm)
    • AP 6.3: Interpretationsvergleich textuelle und akustische Varianz (Ffm/DT/ER)
    • AP 6.4: Technische Umsetzung der modular einzubindenden Forschungsergebnisse (PB)

2. Arbeitspaket-übergreifende Aspekte

Inwieweit verändern die Möglichkeiten digitaler Medien unsere Konzepte musikalischer Edition und wie könnte – vor dem Hintergrund des heutigen Stands der Technik – eine solche Edition aussehen, wenn sie von Anfang an als digitale geplant wird? Welche Veränderungen ergeben sich bei den Arbeitsabläufen? Was ist bei der Planung solcher Projekte zu beachten?
Das Projekt Freischütz Digital entstand vor dem Hintergrund solcher Fragestellungen, stützte sich aber von Anfang an auf ein bereits skizziertes Modell digitaler Musikedition, das Frans Wiering 2009 veröffentlicht hatte. Sein Entwurf eines Multidimensional Model löst die traditionelle Vorstellung einer Edition auf und überführt diese in eine Art "Archiv" unterschiedlichster Daten, in dem nicht nur Notentexte und Faksimiles, sondern weitere Texte und Annotationen, Audio- und Videosequenzen sowie Codierungsformen für Text oder Musik in Beziehung gesetzt werden und innerhalb dieses virtuellen Raumes individuelle Zugänge der Nutzer erlauben. Folgt man einem solchen Modell, spielen zahlreiche Aspekte eine Rolle, die in traditionellen Editionen ausgeklammert bleiben (müssen).

Um die Unterschiede zwischen traditionellen Editionen und künftigen digitalen Möglichkeiten zu demonstrieren, bot Carl Maria von Webers Erfolgsoper Der Freischütz ideale Voraussetzungen. Dies gilt für die Fülle und Vielfalt der im Umfeld dieses zentralen Werks der Operngeschichte des 19. Jahrhunderts überlieferten Objekte (Noten, Texte, Audio), außerdem wirkte sich die gleichzeitige Entstehung der "analogen" Edition des Werks, die im Rahmen der Weber-Gesamtausgabe (WeGA) erarbeitet wird, günstig aus, da beide Unternehmen somit auf derselben Quellenbasis aufbauen und ihre unterschiedlichen Zielsetzungen im direkten Vergleich präzisieren konnten. Zudem stellten die schon vorhandenen digitalen Anteile der WeGA im Bereich der Texte (Briefe, Tagebücher, Schriften, Aufführungsbesprechungen, vgl. www.weber-gesamtausgabe.de) sicher, dass der Kontext des Werkes ohne erheblichen Aufwand in einer ungewöhnlichen Breite einbezogen werden kann. Schließlich hat die Entwicklung der Edirom-Software (im Rahmen eines mehrjährigen, ursprünglich von Arbeiten der WeGA ausgehenden DFG-Projekts) erst die Voraussetzungen für die Umsetzung der im Projekt zu entwickelnden Ideen geschaffen.

Im Hinblick auf das Multidimensional Model war von Anfang an klar, dass das Werk im Projekt aus unterschiedlichen Perspektiven – und nicht nur den traditionellen editorischen – in den Blick genommen werden sollte. Die beteiligten Projektpartner brachten daher je eigene Schwerpunkte in die Arbeit ein:
  • An der Universität Frankfurt (in der Anfangsphase Universität Bayreuth) standen Fragen zur Genese und Überlieferung des Textbuchs sowie hierauf bezogener Referenztexte im Mittelpunkt.
  • Die Projektpartner von den International Audio Laboratories Erlangen (einer gemeinsamen Einrichtung des Fraunhofer-Instituts und der Universität Erlangen) beschäftigten sich mit der Aufarbeitung unterschiedlicher Audioaspekte.
  • Am Musikwissenschaftlichen Seminar Detmold/Paderborn wurden die Codierungen der Notentexte erstellt und neue Formen von "Edition" und Annotationen erprobt. Zugleich war Detmold/Paderborn für die Koordination aller Arbeiten verantwortlich.
  • Die Universität Paderborn war zuständig für Fragen der Softwareentwicklung, der Benutzeroberfläche und der Integration von Benutzerinteraktionen.

Der erstmalige Versuch, sich einem solchen umfangreichen Werk mit genuin digitalen Editionskonzepten zu nähern, führte – wie kaum anders zu erwarten – zu einer Vielzahl unerwarteter kleinerer und größerer Schwierigkeiten, die im Rahmen des begrenzt zur Verfügung stehenden Bearbeitungszeitraums zur Modifikation mancher vielleicht doch allzu leichtfertig formulierten Zielsetzung führten. Der Aufwand, den ein solches Pilotprojekt gerade im Hinblick auf den neuartigen und unerprobten Umgang mit den Daten treiben muss, war besonders im Bereich der tiefenerschließenden musikalischen oder kombinierten Text- und Musik-Daten erheblich größer als erwartet. Es ist zu hoffen, dass mit den vor diesem Hintergrund als Hilfen für den Nutzer entwickelten Tools und mit der vorliegenden Dokumentation neuen Editionsunternehmungen ein kritischer Leitfaden an die Hand gegeben werden kann, um rascher zu vergleichbaren Ergebnissen zu kommen (und sich noch weiter von den überkommenen Vorstellungen des Buches zu entfernen als uns dies gelungen ist). Daher waren dem Projekt von Anfang an die grundlegende Unterstützung editorischer Arbeit und das beispielhafte Aufzeigen neuer Möglichkeiten sowie die Entwicklung generischer Lösungen wichtiger als eine Vollständigkeit der eigenen "Edition", die in dieser Hinsicht an vielen Stellen eher als Demonstrationsobjekt benutzt wurde, auch wenn dabei im Sinne eines traditionellen Editionskonzepts gelegentlich eher von einem misuse von Daten gesprochen werden könnte. Insbesondere für das Konzept der Varianz im Bereich des Notentextes wurden in diesem Kontext Lösungen entwickelt, die sich bei anderen Werken sicherlich fruchtbringender anwenden lassen als bei dem, in der Überlieferung weitgehend stabilen Notentext des Freischütz (sieht man von den sekundären Parametern des Notentextes einmal ab, auf die daher hier ein besonderes Schwergewicht gelegt wurde).

Der problemorientierte Ansatz des Projekts und die wechselnden Perspektiven auf den Gegenstand führten dazu, dass über die softwaretechnisch umgesetzten Lösungen hinaus viele Konzepte zunächst nur in Form sogenannter Demonstratoren vorgestellt werden können und die Dokumentation der Entwicklungen, aber auch speziell die Beschreibung der aufgetauchten Probleme bzw. das Aufzeigen künftiger Lösungswege eine wichtige Rolle spielen. Insofern sollte das Projekt nicht nur in seiner momentanen (sicherlich defizitären) äußeren Erscheinungsform, sondern vor allem auf der Basis der in unterschiedlichen Bereichen für weitere Forschungsarbeiten zur Verfügung gestellten Daten und der dokumentierten Workflows als eine Art "work in progress" wahrgenommen werden. Denn "paradigmatisch" ist Freischütz Digital aus heutiger Sicht vor allem dadurch, dass in allen Teilen des Projekts etablierte Standards benutzt und die Ergebnisse der Community ebenso frei zur Verfügung gestellt werden, um darauf aufbauende oder daran anknüpfende neue Forschungen zu ermöglichen – also den Gegenstand für die Forschung zu öffnen und nicht abschließende oder gar im doppelten Wortsinne abgeschlossene Ergebnisse zu liefern. Insofern ist das Projekt nur ein kleiner Beitrag auf dem Weg zu neuen kooperativen Forschungsformen.

Arbeitspakete übergreifende Aspekte im kritischen Rückblick

Bereits das erste Konsortialtreffen in Detmold Anfang Oktober 2012 verdeutlichte die Notwendigkeit eines kontinuierlichen intensiven Austauschs zwischen den beteiligten Projektpartnern, der nicht nur durch insgesamt sechs Konsortialtreffen, sondern auch durch zehn weitere Treffen in kleineren Gruppierungen befördert wurde. Der Bedarf an möglichst effektiver Kommunikation, der auch durch eine gemeinsame online-Projektdokumentation (Redmine) unterstützt wurde, stieg in der zweiten Hälfte des Projektverlaufs deutlich an und wurde mit der Konzeption einer gemeinsamen Plattform für die Veröffentlichung der Ergebnisse nochmals höher, so dass die Mitarbeiterinnen und Mitarbeiter schließlich regelmäßige zweiwöchige Skype-Sitzungen etablierten, die häufig im Anschluss an die gemeinsame große Besprechung bzw. auch zwischenzeitlich in reduzierten Zusammensetzungen fortgesetzt wurden. Im Rückblick ist festzuhalten, dass das gegenseitige Verständnis für die Fragestellungen und Probleme der Projektpartner erst allmählich etabliert werden konnte und gerade die komplexen Codierungsprobleme im Text- und Musikbereich und die damit zusammenhängenden Darstellungsprobleme nicht von Anfang an für beide Seiten einsichtig waren. Hier zeigte sich ein Problem, das die Digital Humanities generell betrifft: Methoden und Denkweisen von Informatik und Geisteswissenschaften bedürfen in ihrer Unterschiedlichkeit jeweils eines längeren Lernprozesses auf der je anderen Seite. Das Konzept, nach einem ersten Austausch zwischen beiden Bereichen zunächst Entwicklungen in den verschiedenen Arbeitspaketen weitgehend unabhängig voranzutreiben und z.B. bei der Codierung spätere Darstellungsfragen auszuklammern – wie eigentlich nach der Philosophie der XML-Sprachen gefordert – funktioniert angesichts der Komplexität der Gegenstände nur sehr eingeschränkt. Die vieldiskutierten Probleme überlappender Hierarchien etwa verursachen bei der Codierung textgenetischer Sachverhalte in den Libretti selbst bei einem sauberen inhaltlichen Konzept nachträglich demjenigen Kopfschmerzen, der die vielen Einzel- bzw. Sonderfälle in eine einheitliche Darstellung überführen soll.

Zu den wertvollsten Erfahrungen gehörte daher, dass beide Seiten – in diesem Falle Geisteswissenschaftler und Informatiker – die Konzepte von Anfang an gemeinsam entwickeln und die jeweiligen Folgen von Entscheidungen auf beiden Seiten reflektiert werden müssen. Wenn inhaltlich adäquate Codierungen schwieriger Sachverhalte hohen Darstellungsaufwand implizieren, kann dies dazu führen, dass Codierungen in einer Weise angepasst werden müssen, die einen Kompromiss zwischen den inhaltlichen Anforderungen und ihrer Umsetzbarkeit bedeuten – dies gilt in noch höherem Maße für die Musikcodierung. Es geht dabei keinesfalls um eine Reduktion der vom Gegenstand erforderten Komplexität, sondern darum, dass frühzeitig detaillierte Codierungsrichtlinien festgelegt werden sollten, um die Vielzahl von Möglichkeiten zur Erfassung gleicher Sachverhalte, die sowohl MEI als auch TEI bietet, zu beschränken, da diese Vielfalt für eine maschinelle Bearbeitung große Hürden aufrichtet. Beide Seiten müssen daher die Anforderungen der je anderen genau kennen, und von Anfang an empfiehlt sich ein sehr enges Zusammenarbeiten. Da hinsichtlich der Text- und Musikcodierung im FreiDi-Projekt zudem die informatische Kompetenz an einem Ort konzentriert war, erwies sich die Notwendigkeit eines intensiven Austauschs umso höher.

Aus diesen Erfahrungen heraus wird neuen digitalen Editionsprojekten dringlich geraten, die informatische Seite als wirklich integralen Bestandteil des Editionsunternehmens einzuplanen und den stetigen Austausch zwischen den Bereichen zu pflegen – bei keiner konzeptionellen Entscheidung auf einer Seite dürfen Vertreter der anderen fehlen. Detailliert organisierte Kommunikation und deren Dokumentation sind essentielle Voraussetzungen für die Durchführung eines solchen Vorhabens.

Flexibilität in der Planung

Ein zweiter wichtiger genereller Punkt betrifft die Flexibilität, mit der ein solches Vorhaben auf neue Erkenntnisse oder Entwicklungen reagieren sollte. Dies sei an drei Punkten erläutert:

  • In den Visionen, die das Projekt zu Beginn formuliert hatte und die als notwendige Voraussetzung für die Konzeption neuer Methoden und Features gelten müssen, war davon die Rede, dass die MEI-codierten Notentexte mit den Zeitpositionen der entsprechenden Audiodatenströme verbunden werden müssten, um eine neuartige Synchronisation von Notentext und Audio zu erreichen (vgl. AP 2.1). Daher war zunächst vorgesehen, dass die Erlanger Kollegen die Codierungen der Musikdaten aus Detmold übernehmen sollten, um ihre Arbeiten durchführen zu können, was zunächst aufgrund der aufwändigen Erstellung dieser Codierungen entsprechende Verzögerungen mit sich brachte. Es stellte sich dann aber heraus, dass die Experimente zur zeitlichen Segmentierung ebenso gut zunächst auf der Basis von MIDI-Daten stattfinden konnten, die aus den noch nicht in MEI überführten graphischen Notensatzdateien erzeugt worden waren, so dass eine Anbindung an MEI erst in einem zweiten Schritt notwendig wurde.
  • Im Falle der Musikcodierung war das geforderte Maß an Flexibilität am höchsten. Bis dato war noch kein Musikwerk mit einem solchen Umfang in MEI vorgelegt worden. Die schiere Menge an eigentlich kaum noch als menschenlesbar zu bezeichnendem Code (allein das Autograph umfasst ca. 1,4 Millionen Zeilen MEI) erforderte neue Herangehensweisen, schon um diesen Code in irgendeiner Form kontrollieren zu können. Hierzu wurden in der mittleren Phase des Projekts eigene Korrekturlesewerkzeuge entwickelt, die dem zwischenzeitlich fast hoffnungslos erscheinenden Versuch, dieser Datenflut Herr zu werden, neue Perspektiven gaben. Diese Korrekturen waren aber auf eine „Verbildlichung“ des Codes, also eine Überführung in menschenlesbaren Notensatz angewiesen. Hierzu konnten in der Anfangsphase Darstellungsbibliotheken wie abcjs, VexFlow oder MEISE getestet und einbezogen werden, ohne dass diese Verfahren wirklich befriedigten. Als in der letzten Phase des Projekts die von Laurent Pugin publizierte Darstellungsbibliothek Verovio eine vielversprechende Umsetzung von MEI-Daten erkennen ließ, wurde in Absprache mit Pugin diese Bibliothek in die weiteren Darstellungsversuche übernommen und fest in die Edirom-Anzeige integriert.
  • Ein ähnlicher Wechsel betraf die Verwendung eines Bildservers in der Edirom: War über Jahre hinweg für die Anzeige Digilib verwendet worden, was bei großen Bildmengen (wie in Opern) immer wieder Performance-Probleme mit sich brachte, konnte im letzten Drittel des Projekts mit einer auf der Javascript-Library Leaflet basierenden sehr viel leistungsstärkeren Darstellung experimentiert werden, die erstmals auch ein Rendering isolierter Stellen ermöglichte. Diese Darstellung wurde gegen Ende von FreiDi noch als Alternative erarbeitet und wird für das Projekt nachträglich bereitgestellt.

Es erscheint wichtig, dass Projekte wie FreiDi die aktuellen Entwicklungen auf den einschlägigen Gebieten aktiv verfolgen und frühzeitig Technologie-Entscheidungen revidieren, um leistungsfähige neue Tools zu integrieren, ohne andererseits allzu früh auf eventuell nur kurzlebige Entwicklungen zu setzen. Dies setzt voraus, dass solche Projekte aktiv am Austausch innerhalb der Community beteiligt sind – was einer der Gründe dafür war, dass sich das Projekt um eine regelmäßige Teilnahme an wichtigen Konferenzen bemüht und durch Veröffentlichungen auf die eigenen Entwicklungen aufmerksam gemacht hat.

In dieser Hinsicht gab es also Abweichungen von den ursprünglich formulierten Vorgehensweisen oder Zielen, ein starres Festhalten an einmal Formuliertem hätte jedoch gegen den Geist des Projekts verstoßen und dazu beigetragen, die übergeordneten Ziele zu verfehlen.

Dies gilt auch für Ziele im Bereich der Software-Entwicklung. Im Vordergrund standen nach den Vorgaben des Projekts prototypische Lösungen, auch wenn der dauerhafte Einsatz auf einer breiteren Quellenbasis oder die Übertragbarkeit auf andere Projekte – soweit möglich – zu berücksichtigen waren. Da aber das Aufzeigen neuer Möglichkeiten im Zweifelsfalle Vorrang haben sollte, hat sich das Projektteam (wie oben erwähnt) entschlossen, Teilbereiche durch die Entwicklung sogenannter Demonstratoren abzudecken. Diese zeigen neue Funktionen auf, ohne sie in Form fertiger, ohne Anpassung nutzbarer Softwarekomponenten vorzulegen. Wichtig sind in diesen Fällen die Perspektiven, die durch diese Demonstratoren aufgezeigt werden können, wünschenswert wäre allerdings die Bereitstellung entsprechender Entwicklerkapazitäten, denn erst die praktische Verfügbarkeit solcher Tools kann eine wirkliche Veränderung der Forschungsmethoden bewirken.

Dank

Diese Vorbemerkung zur Dokumentation kann nicht abgeschlossen werden ohne ein herzliches Wort des Dankes: Nur durch die Unterstützung zahlreicher Bibliotheken, Archive und Privatpersonen, die bereit waren, ihre Quellen in diesem Projekt der wissenschaftlichen Öffentlichkeit zur Verfügung zu stellen und durch die großzügige Erlaubnis von Tonträger-Firmen und Rundfunkanstalten, ihre Audio-Aufnahmen zu nutzen, konnte dieses Vorhaben verwirklicht werden. Ihnen allen sei auch an dieser Stelle herzlich gedankt!


3. Inhalte – Objekte – Daten: Grundlegendes zur Konzeption der Arbeitspakete

In den von den vier Projektpartnern gemeinsam bearbeiteten sechs Arbeitspaketen standen die graphische, logische und akustische (bzw. performative) Domäne des Werkes im Zentrum. Graphische und logische Domäne betreffen dabei sowohl die musikalischen als auch die textlichen Anteile der Edition. Im Folgenden werden die einzelnen Bestandteile der Edition kurz vorgestellt, nähere Erläuterungen finden sich dann in den jeweiligen Zugangsbereichen.

3.1 Notentexte

3.1.1 Faksimiles

Die Überlieferung der musikalischen Anteile des Freischütz beginnt – sieht man von einigen marginalen, in diesem Kontext nicht berücksichtigten Skizzen ab – mit der autographen Partitur Webers und setzt sich dann zunächst in den 41 Abschriften fort, deren Herstellung bzw. Versand der Komponist zwischen November 1820 und April 1823 in seinem Ausgabenbuch dokumentiert hat. Hinzu kommt eine dort nicht vermerkte Abschrift für die Berliner Uraufführung. Von diesen von Weber autorisierten insgesamt 42 Abschriften lassen sich heute nur noch acht nachweisen, die von zwei der Hauptkopisten Webers angefertigt wurden. Diese Quellen sind sämtlich in Edirom online nunmmern- bzw. taktweise im Faksimile zugänglich. Zu einer Übersicht vgl. Menüpunkt "Daten und Werkzeuge" bzw. in Edirom online die Rubrik Musikedition: Quellen.

Hinzu kommen (in Auswahl) einige gedruckte Quellen, beginnend mit dem von Weber betreuten Erstdruck des Klavierauszugs über die postum 1849 publizierte Partituredition (in mehreren Auflagen) bis hin zum verbreiteten Peters-Druck (siehe Übersicht wie oben).

Zur Erfassung dieser Objekte im Detail vgl. den Abschnitt "Das Core-Konzept".

3.1.2 Codierungen der Notentexte

Eine durchgängige Codierung der Notentexte (als Implementierung der logischen Domäne) war für die Verknüpfung der unterschiedlichen Objekte innerhalb des Projekts von zentraler Bedeutung, zumal erst so die wirklichen Vorteile digitaler Editionen verdeutlicht werden können. Diese Codierung setzt sich dabei aus zwei Bestandteilen zusammen: In den sogenannten Metadaten werden wesentliche Teile der traditionellen Quellenbeschreibung in formalisierter Weise erfasst, während die Codierung der Notentexte selbst im Idealfall ein präzises Abbild des jeweiligen Quellenbefunds wiedergibt. Damit werden die Voraussetzungen für einen teilautomatischen Quellenvergleich, andererseits aber auch die Grundlagen für eine Dokumentation dieser Abweichungen in formalisierten Apparateinträgen geschaffen, die wiederum Voraussetzung für eine Darstellung von Varianten als bzw. innerhalb von Notentext sind. Die Konzepte dieser Codierung, für die der Standard der Music Encoding Initative (MEI) verwendet wurde, sind in der Dokumentation zum Notentext erläutert.

Im Rahmen der Arbeiten an den MEI-Codierungen und im Hinblick auf die Notwendigkeit, diese umfangreichen XML-Daten möglichst zeitsparend zu erstellen, korrekturzulesen und für die unterschiedlichsten Anforderungen aufzubereiten, mussten zahlreiche Transformationsszenarien konzipiert, erarbeitet und die Ergebnisse der erstellten XSLT-Skripte überprüft werden. Hierzu wurde eine stattliche Reihe neuer Tools entwickelt, die z.B. ein Korrekturlesen von Tonhöhen und -dauern, von Bogensetzungen, Dynamik, Artikulation u.a.m. ermöglichen und in ggf. adaptierter Form für andere Projekte bereitgestellt werden. Der außerordentlich komplexe Umgang mit den MEI-Daten wird deutlich im Kapitel "Werkzeuge", in dem die einzelnen Tools im Detail beschrieben sind.


2.2 Textteile - Teil A: Eigene Arbeitsbereiche des Projekts

2.2.1 Zum Libretto des Freischütz

Hinsichtlich der textlichen Quellen des Werkes kann beim Freischütz von einer idealen Quellenlage gesprochen werden: Nahezu alle wesentlichen Dokumente zur Entwicklung des Werktextes sind erhalten. Hinzu kommen eine frühe Textbuchkopie (noch vor der Uraufführung des Werkes) sowie die in mehreren Überarbeitungen vom Librettisten selbst publizierten Editionen. So war es ein Hauptanliegen dieses Moduls, die Textgenese des Werkes und die weitere Textentwicklung bis zum Tod des Librettisten Friedrich Kind 1843 in der digitalen Edition nachvollziehbar zu machen. Voraussetzungen dafür und für eine weitere Verwendung der erstellten Daten war in diesem Falle die Codierung der Texte mit dem XML-Standard der Text Encoding Initiative (TEI).

Zu einer Übersicht über die im Rahmen der Edition berücksichtigten handschriften und gedruckten Quellen zum Libretto vgl. den Menüpunkt Daten und Werkzeuge.

Alle Übertragungen beruhen auf der Anwendung der Codierungsstandards der TEI. Da die handschriftlichen Quellen in sich jeweils vielfältige Überarbeitungsspuren zeigen, waren bei der Erfassung dieser Texte in TEI die unmittelbar auf den Entstehungsprozess des Textes bezogenen Nachträge und Revisionen innerhalb einer Handschrift von besonderem Interesse und wurden daher in der Präsentation mit einer eigenen Darstellungsform bedacht (vgl. hierzu die Beschreibung des Werkzeugs Genetic Text Stages – Textschichtenanzeige). Zugleich sind aber ebenso die auf den Entstehungsprozess bezogenen Unterschiede zwischen den (handschriftlichen) Textbüchern festzuhalten, andererseits aber auch Überlieferungsvarianten in den Kopien und gedruckten Textbüchern. Die Idee, angesichts der somit sehr komplexen Anforderungen an die Darstellung dieser unterschiedlichen, auf Entstehung und Überlieferung bezogenen Varianzen ein der Musikedition vergleichbares Konstrukt – eine Text-Core-Datei – zu entwerfen, lag nahe. Die Funktionsweise dieser Text-Core-Datei unterscheidet sich dennoch grundlegend von jener der Musik (vgl. dazu den Abschnitt Darstellung der Textgenese).

Es wäre im Kontext dieser Edition jedoch ein hybrides Unterfangen, sämtliche Varianten zwischen allen Quellen in entsprechenden Synopsen sichtbar zu machen (in Rahmen einer korpuslinguistischen Untersuchung wäre dies mit den vorliegenden Daten jedoch denkbar). Daher wurde auf eine Darstellung orthographischer Varianten verzichtet (die Orthographie der Quellen ist in den diplomatischen Übertragungen der Texte zugänglich - mit Ausnahme einiger weniger Eigenheiten der historischen Notierungsweisen) und lediglich (zugegebenermaßen subjektiv definierte) bedeutungstragende Varianten sind mit Hilfe der Core-Datei visualisiert. Die Möglichkeiten der Anzeige automatisierbarer Analysevorgänge wurden mit einzelnen Demonstratoren (siehe Varianz-Anzeige) verdeutlicht, eine umfangreichere Veranschaulichung muss späteren Projekten vorbehalten bleiben.

Gleiches gilt für die komplexe Verknüpfung von Partitur und Libretto.

2.2.2 Referenztexte des Freischütz-Librettos

In der Weber-Literatur hat es wiederholt Auseinandersetzungen über mögliche Vorbilder von Kinds Libretto bis hin zu direkten Plagiatvorwürfen gegeben. Dass das von August Apel und Friedrich Laun herausgegebene Gespensterbuch (Bd. 1, Leipzig 1810) Ausgangspunkt für mehrere Dramatisierungen des Freischütz-Stoffes war, ist dabei unbestritten. Freischütz Digital schafft die Voraussetzung zu einer umfassenden Auseinandersetzung mit der Frage der Abhängigkeiten von eventuellen Vorbildern bzw. versucht modellhaft, nicht nur motiv- und stoffgeschichtliche Zusammenhänge, sondern generell Interdependenzen der Texte sichtbar zu machen. Dabei beschränkt sich der Nachweis intertextueller Bezüge nicht auf die historisch vor diesem Libretto liegenden Referenzpunkte, sondern bezieht auch die Nachwirkung des Librettos (zumindest in Ansätzen) mit ein. Aus der Fülle der für beide Gesichtspunkte in Frage kommenden Texte wurde eine Reihe von (überwiegend im Druck vorliegenden) ausgewählt und in Übertragung sowie nach Möglichkeit auch im Faksimile wiedergegeben. Einbezogen wurde auch Friedrich von Schillers Wallenstein-Trilogie, auf die sowohl in Kinds als auch in etlichen Referenztexten häufig Bezug genommen wird. Diese Texte konnten dem TextGrid-Repository entnommen werden.

Um motivische Bezüge zwischen diesen – ebenfalls in diplomatischen Übertragungen im TEI-Standard vorgelegten – Texten rascher erfassen und damit überprüfen zu können, wurde die Technik der sogenannten "Topic Maps" eingesetzt (vgl. dazu die Dokumentation der Referenztexte), mit der gemeinsame Motive oder Topoi durch ad hoc erzeugte Grafiken visualisiert werden. Dies erlaubt auch bei unterschiedlicher verbaler oder orthographischer Bezeichnung der Gegenstände eine Veranschaulichung von Bezügen. Auch diese Möglichkeit konnte hier nur modellhaft vorgestellt werden (erfasst wurden Motive, Begriffe und Namen), es dürfte aber deutlich werden, dass es sich hier um ein mächtiges Werkzeug handelt, dessen Bedeutung zunimmt, wenn die unter 3.3 genannten Texte mit einbezogen werden.


2.3. Textteile - Teil B: Integration der digitalen Textanteile der WeGA

Webers Briefe, Tagebücher und Schriften werden in einer digitalen Edition der WeGA erarbeitet, die unter http://www.weber-gesamtausgabe.de zur Verfügung steht. In diesen Ego-Dokumenten ist selbstverständlich auch die Entstehung des Freischütz und die Überlieferung zu Webers Lebzeiten dokumentiert. Auf dieser Website stehen darüber hinaus aber eine Vielzahl weiterer Informationen zur Verfügung: So biographische Daten zum Netzwerk der Personen, mit denen Weber in Kontakt stand, ferner Rezensionen publizierter Werke Webers und vor allem Besprechungen von Aufführungen seiner Werke (überwiegend zu Lebzeiten des Komponisten). Zum Freischütz sind dort gegenwärtig über 300 Besprechungen zugänglich. Diese Daten, die allesamt nach den Codierungsrichtlinien der TEI erfasst sind, stehen für das Projekt Freischütz Digital mit zur Verfügung und erweitern damit das Datenspektrum erheblich. Sämtliche Objekte dieser Website sind mit Identifieren (ID’s) versehen, so dass sie eindeutig referenzierbar sind.
Auf einen eigenen Demonstrator, der die Verknüpfungsmöglichkeiten mit der Website der WeGA verdeutlich, wurde wegen mangelnder personeller Ressourcen verzichtet; in den Texten zur Entstehung von Libretto und Musik sind entsprechende Verknüpfungen integriert, die momentan lediglich durch Öffnen neuer Fenster umgesetzt sind.


3. Audio-Anteile

Bei der Konzeption des Projekts war von Anfang an vorgesehen, die Audio-Domäne mit in die Arbeiten einzubeziehen, zeigt sich doch allein schon in den inzwischen über 50 existierenden Tonaufnahmen der Oper, dass hier ein ideales Feld für Interpretationsforschungen zu bestellen ist, das in Verbindung mit den online zugänglichen Notentexten neue Erkenntnisformen möglich macht. Da die Projektpartner von den Audio Laboratories in Erlangen über entsprechende Erfahrungen verfügten, wurde als eines der Ziele die Synchronisation von Notencodierung und Tonaufnahmen vereinbart. Dabei ging es weniger um die Synchronisation selbst als um die Entwicklung halbautomatischer Verfahren zur horizontalen Segmentierung von Audio-Daten. Die Ergebnisse der modellhaften Versuche – die wesentlich zur Verbesserung der Segmentierungsalgorithmen führten – sind in der Dokumentation beschrieben, da sie für den Endnutzer des Projekts nicht unmittelbar sichtbar sind. Der Nutzer profitiert jedoch von diesen Verfahren insofern als mit dem Werkzeug Score follows Audio eine Parallelisierung von Notenbild und Audioaufnahme und der Einstieg in jedem beliebigen Takt der Nummern möglich ist.

Um Experimente mit der Segmentierung nicht nur in der horizontalen, sondern auch in der vertikalen Zusammensetzung des Klangs vornehmen zu können, wurden ausgewählte Nummern (Nr. 6, 8, 9) des Freischütz in Kooperation mit der Hochschule für Musik Detmold und dem Tonmeisterinstitut der Hochschule in einem komplexen Aufnahmeverfahren eingespielt (vgl. den Bericht Abschluss der Audio-Produktion am ETI der HfM Detmold), bei dem sowohl eine Gesamtabmischung als auch die Einzelabnahme der Stimmgruppen und Solisten erfolgte. Mit diesen Einzelspuren standen damit Referenz-Daten für eine spektrale Segmentierung der Gesamtmischung zur Verfügung, die wiederum eine Optimierung entsprechender Alogrithmen erlaubten. Langfristig ist daran gedacht, diese Erfahrungen zu nutzen, um auch mit historischen Einspielungen in Richtung vertikaler Segmentierungen zu experimentieren – etwa um bestimmte Instrumente oder Stimmen in einer solchen Aufnahme in einer Weise hervorzuheben, die Interpretationsvergleiche erleichtert. Um die Ergebnisse der Segmentierung verdeutlichen zu können, wurde ein Multitrack-Demonstrator entwickelt, mit dem der Nutzer Einzelstimmen aus dem Gesamtklang filtern kann und sich die Berücksichtigung von Parametern wie Trennschärfe und Laufzeitverschiebung bei der Bearbeitung der Daten demonstrieren lässt (vgl. dazu Multitrack Data Set.)

Die Aufnahme diente jedoch nicht allein den Forschungen der Erlanger Projektpartner, sondern erlaubte im Vorfeld der Einstudierung eine Diskussion über die Berücksichtigung von Eigenheiten und Varianten des Partiturtextes bei der Einrichtung der Orchesterstimmen. Selbstverständlich konnten mit dem großen Orchesterapparat Interpretationsalternativen auf der Basis von Unsicherheiten des Notentextes nur in begrenztem Maße während der Proben ausprobiert werden, dennoch führte dies zu einer Reihe – wenn auch mit äußerster Vorsicht zu beurteilender – interessanter Erkenntnisse. Einige wenige ausgewählte Passagen werden daher in Freischütz Digital präsentiert (vgl. Abschluss der Audio-Produktion am ETI der HfM Detmold). Es ist zu hoffen, dass die Arbeit, die hier nur für die ausgewählten Nummern geleistet werden konnte, Folgen für spätere Auseinandersetzung mit den Notentexten des Gesamtwerks hat.

Von besonderer Bedeutung ist diese Einspielung auch dadurch, dass alle Beteiligten bereit waren, die Daten zu dieser Aufnahme unentgeltlich für zukünftige wissenschaftliche Forschungen zur Verfügung zu stellen.

Die Einbeziehung historischer Aufnahmen des Werks war im Kontext des Projekts nur in exemplarischer Form möglich: Dank der Unterstützung durch die Eigentümer der Tonträger konnten einige Einspielungen der Nummern 6, 8 und 9 zur Demonstration eines – noch sehr rudimentären – Werkzeugs zum Vergleich von Interpretationen genutzt werden. Es handelt sich im einzelnen um folgende Einspielungen:
  • Otto Ackermann (1951)
  • Wilhelm Furtwängler (1954)
  • Erich Kleiber (1955)
  • Eugen Jochum (1959)
  • Carlos Kleiber (1973)
  • Marek Janowski (1994)
  • Hinzu kommt die Aufnahme der HfM Detmold unter Karl-Heinz Bloemeke (2014)

Auch in diesem Falle ging es lediglich um eine exemplarische Demonstration neuer Möglichkeiten des Interpretationsvergleichs; weitere Audio-Aufnahmen (u.a. aus dem Archiv der Stimmen der SLUB Dresden) sind im Abschnitt zur Frage der Appoggiaturen (Aufsatz in Vorbereitung) referenziert.


4. Technische Voraussetzungen

An technischen Voraussetzungen für die Durchführung des Projekts sind u.a. zu nennen:

  • die XML-Codierungsformate der Text Encoding Initiative TEI und der Music Encoding Initiative MEI: Während im Bereich von TEI Konzepte neben dem Rückgriff auf das Modul Performance Texts insbesondere auch Konzepte zur Codierung textgenetischer Details herangezogen werden konnten (vgl. dazu in den Guidelines auch das Kapitel Representation of Primary Sources), waren für die Musikcodierung neben dem aktuellen MEI-Release 2013 im Rahmen der auftretenden Probleme kontinuierlich Absprachen mit der MEI-Community bzw. dem MEI-Technical-Team erforderlich. Die enge Zusammenarbeit zwischen Projekt und diesem Team führte zu einer Reihe von konkreten Vorschlägen für das kommende Release von MEI.
  • die akutelle Entwicklung der Edirom-Werkzeuge und speziell von Edirom online: Diese zunächst im Rahmen eines DFG-Projekts konzipierten Werkzeuge wurden in den vergangenen Jahren kontinuierlich weiterentwickelt und waren eine wesentliche Voraussetzung für die Konzeption geeigneter Verarbeitungs- und Anzeigeformen.
  • verschiedene Darstellungsbibliotheken zum Rendering der MEI-Daten, hierunter in besonderer Weise das von Laurent Pugin entwickelte Verovio, das in der letzten Phase des Projekts in Edirom online integriert werden konnte. In enger Absprache mit Pugin wurden von diesem einzelne, für FreiDi benötigte Features entwickelt und implementiert.
  • [Weitere Voraussetzungn im engeren technischen Sinne werden an dieser Stelle ergänzt.]


5. Präsentationskonzept

Seit Beginn des Projekts wurde für die Präsentation der Projektergebnisse eine doppelte Strategie verfolgt: Neben das (hier zu beschreibende) Verfügbar-Machen der Ergebnisse über unterschiedliche Formen von öffentlich zugänglichen Websiten bzw. Repositorien sollte als wichtige Ergänzung die Vermittlung an die wissenschaftliche Community über Vorträge, Aufsätze, Präsentationen, Poster oder Workshops treten, denn Ziel des Projekts war nicht die Vorstellung fertiger Ergebnisse, sondern vor allem das Aufzeigen von neuen Möglichkeiten und die Anregung der Diskussion über geeignete neue Konzepte im digitalen Medium, verbunden mit der Förderung der Entwicklung einschlägiger Workflows, der Optimierung notwendiger Standards und der Neu- oder Weiterentwicklung geeigneter Werkzeuge. Dies ist und bleibt eine zentrale Voraussetzung für das erfolgreiche und nachhaltige Etablieren neuer Editionsformen und -techniken in unseren Fachdisziplinen. (Einen Überblick über die – fortzusetzenden – Aktivitäten auf diesem Feld gibt die FreiDi-Website unter Publikationen & Vorträge.)

Da bislang keine Gesamtarchitektur für die eng verknüpfte Veröffentlichung von Ergebnissen aus den verschiedensten Teilbereichen existiert, eine solche aber in diesem Projekt auch nicht umsetzbar war, sind die Ergebnisse in unterschiedlichster und möglichst flexibler Form zugänglich:

  • Die größte Integrationsleistung ließ sich mit den Werkzeugen von Edirom online erreichen: Hier sind alle wichtigen Quellen und die meisten Visualisierungen unter einer Oberfläche zusammengeführt: erläuternde Texte, sämtliche Digitalisate von Musik- und Textanteilen, Audio-Files, Annotationen und Metadaten. Darüber hinaus bietet diese Oberfläche einen gezielten Zugriff auf die Datenbestände und eine Vielzahl von Kombinationsmöglichkeiten. So können in der Musik z.B. Einzelnummern oder Takte gezielt angewählt und mit anderen Quellen kollationiert oder in den handschriftlichen Libretti die Darstellungen nach Textschichten zur besseren Identifikation von Nachträgen in den Handschriftenabbildungen benutzt werden. Auch das parallele Öffnen von Fenstern aus den Bereichen Werk, Musikedition, Texte, Referenztexte und Aufnahmen trägt zur flexiblen Nutzbarkeit der Daten wesentlich bei. Schließlich sind in dieser Oberfläche auch Annotationen eingebunden, die sowohl interne Fenster in Musik oder Texten öffnen als auch die externen Seiten der Weber-Gesamtausgabe mit ihren umfangreichen Informationen zu Personen sowie den unterschiedlichsten Dokumentarten (Briefe, Tagebücher, Schriften, Aufführungsbesprechungen, Rezensionen usw.) anbinden. Selbst eine vorläufige Darstellung des Notentextes mit Hilfe des Renderings der Bibliothek Verovio ist für Webes Autograph und für die ausgewählten Nummern (6, 8, 9) über Edirom online möglich.
  • Sämtliche Dokumentationen und die bestimmte Aspekte der Musik- und Textedition sowie des Umgangs mit den Audio-Daten illustrierenden Demonstratoren sind auf der Website des Projekts Freischütz Digital zugänglich. Dies soll verdeutlichen, dass es sich hier um Lösungen für spezielle Probleme handelt, deren komplette Umsetzung auf dem gesamten Datensatz im Rahmen des Projekts nicht mehr möglich war. Allerdings handelt es sich dabei keinesfalls um bloße Mockups, sondern um auf den Daten aufsetzende Prototypen, deren durchgängige Anwendbarkeit gegenwärtig noch an der Diversität der Datenstrukturen bzw. dem notwendigen Programmieraufwand scheitert. Die Lösungen sollten also in mit entsprechenden Kapazitäten ausgestatteten Projekten anwendbar sein.
  • Text-, Musik- und akustische Daten (in Form von XML-Daten bzw. Audio-Files) sind an mehreren Stellen zugänglich: Einerseits auf den GitHub-Seiten zu (Freischuetz-Digital, andererseits innerhalb des TextGrid-Repository. Damit soll die Voraussetzung einer aktiven Nachnutzung der Daten geschaffen werden.
Nähere Informationen zu den jeweiligen Bereichen siehe in den Unterrubriken dieser Dokumentationen, innerhalb der Edirom-online bzw. auf GitHub und im TextGridRepository.