Von Peter Worm, Stadtarchiv Münster

Die am 17. Mai 1994 neu gefasste Gemeindeordnung sorgte für eine einschneidende Veränderung in den nordrhein-westfälischen Gemeinde-, Stadt- und Kreisverwaltungen. Durch die Gesetzesänderung wurde die seit 1946 von der Besatzungsmacht festgelegte Norddeutsche Ratsverfassung mit einer Doppelspitze aus (Ober-)Bürgermeister und (Ober-)Stadtdirektor in die Süddeutsche Ratsverfassung geändert. Dadurch fiel das Amt des Stadt- oder Gemeindedirektors weg und die Verwaltung wird seitdem von einem gewählten hauptamtlichen (Ober-)Bürgermeister geleitet, der zugleich Vorsitzender des Rates ist. In der Gemeindeordnung NRW (GO NRW) heißt es:

„Der Bürgermeister ist kommunaler Wahlbeamter. Der Bürgermeister ist verantwortlich für die Leitung und Beaufsichtigung des Geschäftsgangs der gesamten Verwaltung.“[1] „Unbeschadet der dem Rat und seinen Ausschüssen zustehenden Entscheidungsbefugnisse ist der Bürgermeister der gesetzliche Vertreter der Gemeinde in Rechts- und Verwaltungsgeschäften.“[2]

Durch die doppelte Spitzenfunktion für die Verwaltung und für den Rat besitzt die Amtsinhaberin / der Amtsinhaber eine besondere Stellung: Sie oder er ist quasi „das Gesicht“ der Stadt. Aus diesem Grund vergeht kaum ein Tag, an dem die Lokalpresse nicht eine Stellungnahme, ein Interview oder einen Bericht unter Beteiligung des (Ober-)Bürgermeisters bringt. Dem gegenüber beklagt schon Konrad Schneider 2001 die aus der amtlichen Tätigkeit erwachsende Schriftlichkeit: „Leider lassen sich politische Willensbildungen und unmittelbare Handlungen von Oberbürgermeistern und hauptamtlichen Magistratsmitgliedern nur sehr begrenzt aus den nach Ausscheiden aus dem Amt abgegebenen Vorzimmerregistraturen erkennen. Allem Anschein nach ist es die Furcht, vertrauliche Dinge könnten Nachfolgern aus einem anderen politischen Lager in die Hände fallen, die zu übereilten Kassationen führt.“[3] Katharina Tiemann und Hans-Jürgen Höötmann kommen in ihrem Beitrag über Archivische Bewertung deshalb auch zu dem Urteil: „Die aufgrund der herausgehobenen Stellung des Registraturbildners geknüpften Erwartungen auf eine umfassende und aussagekräftige Überlieferung erfüllen sich jedoch oftmals nicht.“ Sie empfehlen stattdessen, sich für die überlieferungsmäßige Abbildung der Leitungsfunktion auf die Gegenüberlieferung bei den Ämtern zu verlassen,[4] nehmen von dieser Faustregel bezeichnender Weise aber die „öffentlichkeitsrelevanten Unterlagen (z.B. Reden, Repräsentationsangelegenheiten)“ aus.

Twitter – ein Fall fürs Archiv?

In diese Kategorie fällt ein Unterlagentyp, der sich erst vor 12 Jahren entwickelt hat: die Twitter Nachricht (kurz „Tweet“). Es handelt sich um einen internetbasierten Microblogging-Dienst mit dem es jedem möglich ist, eine Art Online-Tagebuch zu führen. Zu Anfang (bis 2017) durfte ein Eintrag nicht mehr als 140 Zeichen umfassen, inzwischen sind auch doppelt so lange Tweets erlaubt. Diese sind standardmäßig einsehbar, also auch für unangemeldete Leser sichtbar. Sie können durch sogenannte Hashtags (das englische Wort für das Rautezeichen „#“, mit dem ein solcher Eintrag eingeleitet wird) verschlagwortet werden, Links können als URL eingefügt werden, man kann Verweise auf andere Nutzerprofile mit einem „@“ setzen sowie Bilder und Videos über eine Verlinkung oder direkt einfügen. Erste Zielgruppe dieser Tweets sind die sogenannten Follower eines Benutzers, im Gegensatz zu Facebook steht aber der Kontakt mit bekannten Freunden nicht unbedingt im Vordergrund. Über Hashtags, Verlinkungen und das Weiterleiten von Tweets über das eigene Benutzerkonto (sogenannte Retweets) kann ein breites Publikum erreicht werden.[5]

Im politischen Kontext hat dieses Medium spätestens seit den amerikanischen Präsidenten Barack Obama und Donald Trump einen solch hohen Stellenwert erreicht, dass damit historische Vorgänge beeinflusst werden. Die Library of Congress sah es deshalb in der Zeit von 2010 bis 2017 als eine Aufgabe an, alle weltweit erstellten Twitter-Nachrichten zu sichern. Bis 2013 waren schon 170 Millionen Tweets zusammen gekommen, jedoch beschränkte man sich auf die Sicherung der Textanteile. An die Nachricht angehängte Bilder, Videos oder Verlinkungen zu anderen multimedialen Inhalten wurden nicht gespeichert. 2017 kapitulierte man vor der Masse an Tweets und beschränkt sich auf die Archivierung von bestimmten Nachrichten: „thematic and event-based, including events such as elections, or themes of ongoing national interest, e.g. public policy“.[6] In Deutschland ist die politische Wirksamkeit der sozialen Netzwerke zwar nach wie vor umstritten, aber in einer großangelegten Studie zu Twitter von 2016 stellen die zwei Autoren, Mathias und Wolfgang König, das grundsätzlich Neue dieses Mediums dar: Es entsteht eine „neue Form von Öffentlichkeit – so eine weit verbreitete Ansicht – […], weil Web-2.0-Angebote alternative Publikationsstrukturen ermöglichen, herkömmliche Rollen aufweichen (hier Produzierende, dort Konsumierende) und weil mit vergleichsweise kleinem Aufwand große Aufmerksamkeit erzielt werden kann“.[7] Deutsche Spitzenpolitikerinnen und Spitzenpolitiker setzen diese direkte Kommunikation nicht flächendeckend ein, und auch im kommunalen Umfeld ist Twitter sehr unterschiedlich verbreitet. Mit gut 2300 Followern erreicht Münsters Oberbürgermeister (OB) Markus Lewe ca. 0,73% der Einwohner seiner Stadt, auf eine vergleichbare Quote kommen z.B. die Kölner Oberbürgermeisterin Reker (0,66%) und der Bochumer OB Eiskirch (0,51%), die ihre Twitter-Accounts in ähnlicher Weise einsetzen. Der Dortmunder OB Sierau wurde 2015 Opfer eines Fake-Accounts, den ein Unbekannter in seinem Namen mit „Neuigkeiten“ und Meinungen bestückte.[8]

Sehr viel höher ist der Verbreitungsgrad von Tweets, der durch das Teilen innerhalb von Twitter (Re-Tweet) oder in anderen Netzwerken erreicht wird. Diese Reichweite liegt bei Nachrichten von Münsters OB zwischen 1500 und 7200, meist zwischen 4000 und 5000 Personen (ca. 1,5% der Einwohnerschaft). Eine aufwändige Studie von ARD und ZDF ermittelte für 2019, dass nur rd. 2% der Bevölkerung täglich Twitter nutzen, interessanter Weise deutlich mehr Männer als Frauen. Der Verbreitungsgrad alleine ist jedoch kein Kriterium für eine positive Bewertungsentscheidung – ginge es danach müsste man sich vielmehr um vorhandene Facebook oder Instagram-Auftritte kümmern.[9]

Für die archivische Bewertung ist ein wesentliches Kriterium, „ob Twitter in der politischen Kommunikation als verlängerter Arm der Pressestelle von Politikern oder tatsächlich als Kommunikationsplattform zwischen Politiker und Bürger fungiert“.[10] Nur wenn die Tweets (oder zumindest ein erkennbarer Anteil der Tweets) vom Amtsträger als direkter Kommunikationskanal zur Bürgerschaft genutzt wird, sind daraus Rückschlüsse auf Beweggründe und persönliche Schwerpunktsetzungen möglich, die sich nicht an anderer Stelle ausführlicher und detaillierter nachvollziehen lassen. Der archivische Wert besteht dabei weniger in den Inhalten, sondern in den Themen, die vom Verwaltungsvorstand durch die Posts gesetzt und akzentuiert werden. Darüber hinaus stellen die Tweets oft die unmittelbarste und schnellste Reaktion der Verwaltung auf tagesaktuelle Ereignisse dar und der Gesamtauftritt bei Twitter kann als Quelle für die Selbstdarstellung des Amtsinhabers / der Amtsinhaberin genutzt werden. Bisher hat sich in der deutschsprachigen archivischen Welt noch kein Best-Practice-Verfahren herausgebildet, wie eine adäquate Langzeitarchivierung aussehen könnte. Twitter wurde von Archiven bisher zumeist in seiner Bedeutung als Mittel der Öffentlichkeitsarbeit untersucht[11].

Der rechtliche Rahmen

Die erste zu klärende Frage ist, ob Twitter-Daten der Anbietungspflicht unterliegen. Das Archivgesetz NRW fasst in § 2, Abs. 1 unter dem Begriff „Unterlagen“ alle „auch elektronischen Aufzeichnungen, unabhängig von ihrer Speicherungsform, sowie alle Hilfsmittel und ergänzenden Daten, die für die Erhaltung, das Verständnis dieser Informationen und deren Nutzung notwendig sind“ und unterwirft sie der Anbietungspflicht.[12] Dass elektronische Kommunikation keinen Sonderstatus genießt, sondern die Anbietung dem Löschpflichten des Datenschutzrechts vorgeht, wurde in Baden-Württemberg höchstrichterlich im Zuge der sogenannten Mappus-Affäre geklärt.[13] Für private Benutzerkonten bei Web 2.0-Dienstleistern gilt dies auch, wenn Mitglieder der Verwaltung diese Dienste zu amtlichen Zwecken einsetzen. Für die Daten, die im Messenger-Bereich von Twitter enthalten und die nicht für die Öffentlichkeit sichtbar und bestimmt sind, bedarf es der genauen Abwägung. Überwiegt der private Charakter, kommen sie für eine Archivierung nicht in Frage, Gleiches gilt für die gespeicherten Suchanfragen und die Werbe-Verknüpfungen, die mit diesem Account verbunden sind.

Neben der archivrechtlichen macht eine urheberrechtliche Prüfung Sinn. Tweets sind sehr kurze Äußerungen, so dass nicht davon auszugehen ist, dass sie die notwendige Schöpfungshöhe erreichen, um als Werk zu gelten. Die Rechtsprechung ist jedoch uneinheitlich und vom Einzelfall abhängig.[14] Bei Re-Tweets z.B. von Nachrichtenbeiträgen oder Zeitungsartikeln ist ebenfalls nicht davon auszugehen, dass die Kurznachricht urheberrechtlichen Schutz genießt – anders als der Artikel oder der Video-Ausschnitt selbst, auf den verwiesen wird, der selbstverständlich die nötige Schöpfungshöhe aufweist. Etwas anders sieht es für an die Tweets angehängte Bild- oder Videodateien aus, für die in aller Regel ein urheberrechtlicher Schutz besteht und die sich zumindest für Nutzungskontexte die Frage stellt: Besitzt der twitternde Wahlbeamte (oder die Stadt) die Urheberrechte bzw. zumindest die Nutzungsrechte an dem Material? Auch auf die Erhaltungsstrategie hatte zumindest die alte Rechtslage beim Urheberrecht Auswirkungen: So war es den Archiven bisher nicht erlaubt, mehr als eine Kopie von Objekten zu machen. Diese Problematik wurde jedoch auf europäischer Ebene im Sinne der Archive (und „Einrichtungen des kulturellen Erbes“) geklärt.[15] Die Problematik stellt sich je nach Archivierungsmethode und Bewertungsentscheidung nicht, z.B. wenn sich das Archiv nur für die Sicherung der textlichen Nachricht entscheidet und Bilder und Videos nicht übernimmt oder diese Inhalte beim sogenannten Harvesting der Internetseite (s.u.) ausschließt.

Weniger kritisch ist die Prüfung nach dem Kunsturhebergesetz §§ 22-23 („Recht am eigenen Bild“): Ist der Wahlbeamte selbst abgebildet, so muss er als „absolute Person der Zeitgeschichte“ mit der Veröffentlichung von Bildern leben (auch bei einer späteren Nutzung als Archivgut), sind weitere Personen auf einem Bild oder Video zu sehen, so legt in aller Regel schon die Pose nahe, dass es sich um ein Pressebild handelt (also die Veröffentlichung intendiert ist und die Dargestellten zugestimmt haben, vgl. zum Beispiel Abb. 5) oder die Personen nur als Beiwerk bzw. im Hintergrund auftauchen.[16]

Signifikante Eigenschaften

Um das Vorgehensmodell weiterzuentwickeln ist es in einem zweiten Schritt hilfreich, die signifikanten Eigenschaften zu ermitteln, die im Zuge der Archivierung gewahrt werden sollen:

Geht es dem Archiv um die Sicherung des visuellen Eindrucks / der Anmutung des Twitter-Accounts oder nur um den textlichen Inhalt?

Sollen online gestellte Bilder oder gar die Video-Sequenzen gesichert werden?

Wie soll mit verlinkten Inhalten bzw. sog. Re-Tweets aus anderen Twitter-Accounts umgegangen werden?

Geht es auch um den Erhalt des Klickverhaltens und der Suchfunktionalitäten von Twitter?

Orientiert man sich grob am NESTOR-Leitfaden Bestandserhaltung[17] kann man folgende Kriterien für den performance-Abgleich identifizieren:

Sinnliche Gesamtwahrnehmung / Anmutung: Hierunter wird der optische Gesamteindruck des Twitter-Accounts gefasst. Das klingt zunächst klar und eindeutig, doch auf den zweiten Blick muss man sich fragen, welche Sicht auf Twitter soll als Bezugswert dienen? Die Internetsicht über den Browser (wenn ja in welcher Bildschirmauflösung) oder die Sicht über die Twitter-App aus der Android oder der Apple-Welt oder gar von einem der fast 30 Clients, die die der Twitter-Programmierschnittstelle (API) nutzen? Weitere Darstellungsunterschiede entstehen je danach, ob man eine Seite als nicht Angemeldeter, als angemeldeter Twitter-Nutzer oder als Eigentümer des Twitter-Accounts besucht. Für die nachfolgenden Überlegungen soll die Desktop-Sicht von twitter.com im Firefox-Browser als Referenz gelten, wobei der Autor bei Twitter angemeldet war, jedoch nicht als Eigentümer der Seite fungierte. „Look-and-Feel“: Gemeint sind die Bedienbarkeit und die Funktionalitäten des Originalauftritts, soweit sie Sinn in der Archivwelt machen. Zum Beispiel sind die Interaktionsmöglichkeiten eines Twitter-Nutzers zu einem Tweet im Kontext des Langzeitarchivs nicht mehr sinnvoll (Abb.1). Andere Funktionen wie die Mouse-Over-Einblendungen von Accounts oder von vollständigen Links, auf die verwiesen wird, dass man diese(-n) bei Klick erreicht oder bei Klick auf einen Hashtag alle Tweets dazu angezeigt bekommt, sind für die Langzeitarchivierung nur schwer realisierbar.

Lesbarkeit: Die Texte der Tweets und die Kommentare sind für Menschen vollständig lesbar. Recherchierbarkeit: Die Tweets können z.B. nach einem bestimmten Datum / Hashtag / Begriff maschinell durchsucht werden. Diese Suche basiert auf Metadaten oder den als codierter Information vorliegenden Tweets. Weiterverwendbarkeit: Die Twitterinhalte liegen weitgehend als codierte Informationen vor, so dass man den Text zumindest per Kopieren und Einfügen in eine andere Programmumgebung transferieren kann. Weiterverwendbarkeit von bildlichen Informationen: In den Tweets enthaltene Bilder lassen sich zumindest per „Speichern-unter“-Befehl in eine andere Programmumgebung transferieren. Weiterverwendbare Video-Inhalte: In den Tweets enthaltene Bewegtbilder, die dort als GIF oder in Video-Formaten vorliegen, sind in einer anderen Programmumgebung nachnutzbar. Maschinelle Verarbeitbarkeit der Informationen: Primär- und Metadaten liegen in strukturierter Form so vor, dass man sie technisch auswerten und z.B. in eine neue Programmumgebung (halb-) automatisiert importieren kann (csv / xml / json). Versteckte Informationen / detaillierte Metadaten zum Account: Es werden Daten ausgegeben, die nur für den an seinem Twitter-Account angemeldeten Benutzer sichtbar sind. Das umfasst die (Meta-)Daten, die die Erstellung des Accounts betreffen, die Informationen über geblockte oder stumm geschaltete andere Twitter-Konten sowie ggf. die Privatnachrichten.

Ob und welche dieser Merkmale das Archiv als signifikant erachtet, hängt ganz wesentlich von den Erhaltungszielen ab, die man abbilden möchte, und auch von den Nutzungsgepflogenheiten des Tweeters. Von diesem nicht oder sehr selten genutzte Funktionen in Twitter sind in aller Regel auch nicht relevant und müssen nicht erhalten werden. Diese binnendifferenzierte Bewertung sollte stets dokumentiert und zur Beschreibung der Akzession genommen werden.

Vergleich möglicher technischer Lösungswege

Im Folgenden werden eine Reihe von möglichen technischen Wegen skizzieren, mit denen sich ein Twitter-Konto archivieren lässt. Sie haben keinen Anspruch auf Vollständigkeit, es mag noch eine Reihe von weiteren geben, die z.B. die Twitter-API verwenden. Entscheidend für die Aufnahme in die Überlegungen waren:

der Weg lässt sich ohne tiefere Informatik-Kenntnisse beschreiten es entstehen langzeitarchivierbare Daten die Lösung ist nicht (über die für die Langzeitarchiverung ohnehin anfallenden Aufwände) mit dauerhaften oder hohen einmaligen Kosten verbunden.

Neben den im Folgenden skizzierten Lösungsansätzen gibt es kostenpflichtige Angebote von öffentlichen und privaten Dienstleistern, die Archive bei der Webarchivierung unterstützen. Hier erhält man – für ein entsprechendes Entgelt – eine Lösung für die Archivierung von Webseiten und Social-Media-Kanälen, die keine oder nur geringe IT-Kenntnisse bei den nutzenden Archiven vorauszusetzen[30].

Screenshots der Twitterseiten

Mit Screenshot-Tools kann man Bildschirminhalte „abfotografieren“ und als Bild speichern. Vorteil dieser Variante ist, dass die ursprüngliche Twitter-Ansicht erhalten bleibt, insbesondere die Kombination von Bild- und Textinformationen.

Nachteilig ist, dass viele Screenshot-Tools nur eine verlustbehaftete JPEG-Speicherung anbieten und nur wenige eine Speicherung als verlustfreie PNG-Grafik ermöglichen.[18] Erfasst man eine große Zahl von Twitter-Nachrichten untereinander in einem Screenshot, erzeugt man damit sehr stark hochformatige Bilder, die ggf. mehrere 1000 Bildpunkte Höhe besitzen und nicht mehr von jedem Viewer angezeigt werden können. Alternativ teilt man die Tweet-Abfolge in viele kleine Screenshots, um den gesamten Twitter-Inhalt des Accounts abzubilden, was wiederum die deutlich aufwändigere Methode darstellt. Bei vielen Tools werden nach einer bestimmten Bildhöhe Seitenumbrüche eingebaut, die die grafische Wiedergabe stören. Weitere wesentliche Nachteile sind, dass keine codierte Information mehr vorliegen, sondern nur noch non-coded information, also Bildinformation und dass auf diese Weise nur die Timeline (also z.B. keine Kommentare zu Tweets) gesichert wird. Daraus entstehen Beschränkungen hinsichtlich der Durchsuchbarkeit und auch des Aussagewerts.

Screenshot-Tools gibt es einerseits als Browsererweiterungen und als externe Software. Während einige browser-basierte Tools das Blättern der Seite während der Bilderfassung erlauben, ist das bei den externen Programmen eher selten der Fall. Eine Reihe von Softwarelösungen ist kostenfrei (oder für den nichtkommerziellen Gebrauch kostenlos nutzbar), aber es gibt auch kostenpflichtige Spezialprogramme auf dem Markt, die das beschriebene Vorgehen vereinfachen.[19]

Harvesting der Einträge

Es existieren eine Reihe von unterschiedlichen kostenpflichtigen und Freeware-Lösungen, die Internet-Seiten offline verfügbar machen und sich grundsätzlich eignen auch Twitter-Accounts auszuwerten und lokal nachnutzbar zu machen. Man spricht in diesem Zusammenhang oft von „harvesten“, also „abernten“.[20]

Der Vorteil einer solchen Lösung ist, dass man die Einträge in der Regel als codierte Information erhält und außerdem noch eine Reihe interessanter Metadaten, die über den Verbreitungsgrad der Nachricht und die Medienwirksamkeit des Twitternden Auskunft geben, ausgelesen werden.

Ein wesentlicher Nachteil ist bei den schlichteren Varianten, dass der bildliche Anteil der Tweets nicht mit gesichert wird, sondern nur als Link auf die Online-Ressource erhalten bleibt. Auch das „Look-and-Feel“ des Twitter-Accounts wird nicht mit gesichert.

Es können z.B. reine Online-Tools genutzt werden. Der Anbieter All My Tweets wirbt mit dem Slogan: „View all your tweets on one page“. Er erzeugt dafür eine einseitige HTML-Repräsentation aller Einträge, die über t.co-Kurzlinks mit dem ursprünglichen Tweet verbunden sind (Abb. 3). Es werden maximal 140 Zeichen (also die alte Maximallänge eines Tweets) ausgegeben, längere Texte werden mit Auslassungszeichen „…“ gekürzt. Da somit wesentliche Informationen und die Bilder fehlen, ist das Tool alleine wohl kaum für eine Archivierung geeignet. Im kombinierten Einsatz mit anderen technischen Wegen könnte jedoch das Kernfeature, nämlich die Inhalte recherchierbar zu halten, sinnvoll eingesetzt werden. Die erzeugte HTML-Seite kann für die Langzeitarchiverung lokal abgespeichert werden.

Eine andere und professionellere Art der lokalen Auswertung erzeugt der Twitter Archiver, der mit dem Dienst IFTTT arbeitet und die gewonnenen Daten in eine Google Tabelle abspeichert.[21] Die einzelnen Tweets werden als Listeneinträge abgebildet. Die mit EXCEL vergleichbare Anwendung enthält die folgenden Spalten: Date, Screen Name, Full Name, Tweet Text, Tweet ID, Link(s), Media, Location, Retweets, Favorites, App, Followers, Follows, Listed, Verfied, User Since, Location, Bio, Website, Timezone, Profile Image. Diese an und für sich interessante Form der Webarchivierung hat einen wesentlichen Nachteil: Es können damit keine alten Tweets abgeerntet, sondern nur prospektiv seit der Einrichtung neu angelegte Tweets gespeichert werden. Damit ist sie in dieser Form für die Archivierung ungeeignet.

Ein weiteres Harvesting Tool, Wget, diente ursprünglich unter Linux dazu, Internetseiten offline anzeigen zu können, also eine lokale Kopie der Seite zu erzeugen. Mit der Version 1.20 lassen sich sog. WARC-Container aus Internetseiten generieren.[22] Das Format ist inzwischen als ISO 28500:2017 standardisiert und erlaubt die komprimierte Speicherung einer Internetseite in einer einzigen Datei. Die Bedienung erfolgt über die Befehlszeile (also ohne grafische Oberfläche), so dass man sich zunächst an ein gutes Ergebnis herantasten muss. Je nach Konfiguration erhält man einen dem Twitter Account ähnlichen Output, den man nur mit einer geeigneten Software, einem sogenannten WARC-Viewer wie dem Webrecorder, wieder zur Ansicht bringen kann. Meine Tests waren leider nicht sehr erfolgreich (Abb. 4), was vermutlich auch an meiner unzureichenden Bedienung des Programms über die Befehlszeile liegt.

Als alternatives Harvesting Tool zur Erzeugung von WARC-Dateien kann der zuvor nur als Viewer angesprochene Webrecorder.io selbst eingesetzt werden. Er lässt sich über die grafische Oberfläche einfach bedienen und das Ergebnis überzeugt durch die grafische Qualität und die ans Original heranreichende Anmutung, die u.a. durch eine vollständige Einbettung von Medien-Files erreicht wird (Abb. 5). Die Qualität des WARC-Containers hängt bei eingebetteten Video- und Foto-Dateien davon ab, dass man beim Aufzeichnen der Seite ausreichend langsam und manuell durch die entsprechende Seite geht und ggf. davon, dass Videos angespielt werden, damit der hinterlegte Video-File Teil des WARC-Containers wird. Auch die Sicherung von Kommentaren anderer Tweeter geschieht nur, wenn während des Aufzeichnens der Seiten die Vollansicht eines Tweets angefordert wird. Hieraus ergibt sich ein aufwändiger und zum Teil fehleranfälliger Prozess, der eine intensive Qualitätssicherung des erzeugten Containers nach sich zieht.

Die Mühe lohnt sich, wenn man die sehr nah am Original liegende Anmutung der archivierten Seiten sieht. Gerade bei der Ausgabe aus dem Webrecorder fragt man sich als Anwender ab und zu, ob man sich gerade im Original oder in der Archivsicht von Twitter befindet. Die Tweets bleiben als coded information erhalten, die Fotos und Videos werden in den WARC-File integriert. Einige Kernmetadaten zu Tweets und dazu, wer einem folgt und wem man selbst folgt, werden mitgesichert, da sie auf den aufgezeichneten Seiteninhalten zu sehen sind. Der WARC-Container ist für die Langzeitarchivierung aus der Browseranwendung des Webrecorder.io heraus exportierbar.

Die Verschmelzung aller Teile einer Twitterseite in einem WARC-Container stellt gleichzeitig einen Nachteil dar, da die einzelnen Objekte durch spätere Nutzer nicht einfach exportiert und nachverwendet werden können, sondern dafür zunächst mit einem geeigneten WARC-Viewer zur Ansicht gebracht werden müssen. Dann lassen sich viele Multimedia-Inhalte über die „Speichern unter“-Funktion im Kontextmenü als Datei extrahieren. Die langfristige Erhaltung des WARC-Containers und vor allem der enthaltenen unterschiedlichen Datenformate kann trotz des ISO-Standards nicht hundertprozentig garantiert werden[23]. Als problematisch könnte sich erweisen, dass im Zuge der Verarbeitung einer WARC-Datei durch das Langzeitarchiv (Ingests) zwar die Wohlgeformtheit (Validität) dieses Containerformats, aber nicht jedes im Container enthaltene Objekt geprüft wird. Da zur Anzeige multimedialer Inhalte bestimmte Codecs (Algorithmenpaare, mit denen Daten oder Audio- und Video-Signale digital kodiert und dekodiert werden) notwendig sind, müssten diese detailliert untersucht und in den Metadaten des Archivinformationspakets (AIP) hinterlegt werden. Nur so ist es möglich, bei einer drohenden Obsoleszenz eines dieser Codecs mit einer Datenmigration in aktuelle Kodierungen zu reagieren. Trotz dieser Schwäche genießt WARC gerade in der anglo-amerikanischen Fachwelt bei Bibliotheken und Archiven eine große Verbreitung und hohe Akzeptanz, so dass nach heutigem Stand – auch mangels entsprechender Alternativen – nichts gegen die Verwendung als Langzeitarchivformat spricht.

PDF-Erstellung

Der Adobe Acrobat besitzt über sein Browser-Plugin die Möglichkeit, Internetseiten in PDF zu überführen. Dabei wird in der Regel auf die Druckausgabe der Seiten zurückgegriffen, die ggf. deutlich von der Bildschirmanzeige abweichen kann. Wendet man diese Ausgabefunktion auf einen Twitter-Account an, so vermag das erzeugte PDF nicht recht zu überzeugen: Weder ist es ein vollständiges bildliches Pendant zum Twitter-Inhalt noch ein vollständiges textliches Pendant (Abb. 6).

Vorteilhaft ist, dass die Seiten als codierte Information erhalten bleiben und manche Fotos in das PDF integriert werden. So wird späteren Nutzern zumindest ein grober Eindruck von der Text-Bild-Zusammenstellung vermittelt. In der PDF-Ausgabe kann man eine Reihe von Kernmetadaten zum Account finden (jeweils die Anzahl der Tweets, der Personen, denen man folgt und von denen man verfolgt wird, werden ausgegeben). Gerade diese „Zwitterfunktion“ macht es unattraktiv, hierauf eine Archivierung aufzusetzen. Es entsteht ein ganz eigener Eindruck, der deutlich von der ursprünglichen Erscheinung der Seite abweicht. Darüber hinaus werden viele Bilder nicht ins PDF integriert, sondern wie evtl. vorhandene Links nur als externe Verweise übernommen.

Gerade diese verlinkten Informationen werden langfristig kaum erhalten werden könnnen.

Twitter Export als Grundlage

Verfügt man über Admin-Rechte für einen Twitter-Account bietet der Online-Service die Möglichkeit an, die Daten komplett herunter zu laden (Abb. 7).

Auf das Ergebnis muss man eine Weile warten, aber man wird über die mit dem Account verknüpfte E-Mail-Adresse informiert, sobald ein Download als ZIP-Archiv möglich ist[24]. Die erzeugte ZIP-Datei enthält einen vollumfänglichen Export aller Daten des Twitter-Kontos, der auch die nicht frei verfügbaren Inhalte wie private Messages (DMs), Momente (moments), Followerlisten, Adressbücher und andere selbst erstellte Listen, ja sogar verknüpfte Werbeinhalte und demografische Kennwerte berücksichtigt. Nicht vom Konto-Eigentümer verantwortete Elemente, wie die von anderen Tweetern angebrachten Kommentare, werden leider nicht ausgegeben. Die exportierten Inhalte werden als JSON Dateien (Javascript Object Notation) ausgegeben (Abb. 8).[25]

Bei der Detailbewertung der exportierten JSON-Dateien[26] enthalten die folgenden Dateien archivwürdige Informationen:

account.js Die Metadaten zum Konto selbst und zu den bei der Erzeugung verwendeten Kontaktdaten follower.js Die Account-Nummern der Twitter-Konten, von denen man verfolgt wird following.js Die Account-Nummern der Twitter-Konten, denen man folgt profile.js Die im Profil verwendeten Beschreibungsdaten zur twitternden Person profile_media (Verzeichnis) Die Profilbilder in einem weiteren ZIP-Container (…\profile_media\profile-media-part1.zip\) tweet.js Die textlichen Inhalte der Tweets, jedoch ohne Kommentare! tweet_media (Verzeichnis) Die in Tweets verwendeten Bilder und Videos in einem weiteren ZIP-Container (…\tweet_media\tweet-media-part1.zip\)

Genauer zu bewerten sind:

block.js Blockierte Twitter-Accounts, die von der Interaktion mit dem Tweeter komplett ausgeschlossen waren (wird häufig auf sogenannte Trolle[27] angewandt) like.js Tweets, die als Favoriten gekennzeichnet oder mit „Like“ versehen wurden lists-member.js Öffentliche Listen, in denen das archivierte Konto aufgeführt wird lists-subscribed.js Listen, in denen sich der Tweeter mit seinem Konto angemeldet hat moment.js Eine Sammlung an Tweets, die via Twitter geteilt werden kann (es ergibt sich notweniger Weise eine Redundanz zu den Einzeleinträgen – zu klären ist hier, ob die Informationszusammenstellung archivwürdig erscheint) moments_media (Verzeichnis) Die in den sog. Moments verwendeten Medien mute.js Stumm geschaltete Twitter-Accounts, deren Tweets nicht mehr angezeigt werden sollten

Die Tweets und ihre zugehörigen Medien lassen sich leicht miteinander verknüpfen: der Dateiname der Mediendatei folgt der Konvention [Tweet-ID]-[Dateiname auf dem Twitter-Server].[Endung].

Die Exporte aus Twitter enthalten z.T. codierte Informationen. So werden bei geblockten und verfolgten Accounts die Account-IDs angegeben statt des Klarnamens (username). Aus Sicht der Langzeitarchivierung sollten diese Informationen in Klartext überführt werden, z.B. unter Zuhilfe­nahme von https://tweeterid.com/. Gerade bei intensiv vernetzten Personen wie Kommunalpolitikern kann dieses Identifizieren erhebliche Mühe machen, so dass unter Umständen zu empfehlen ist, sich die Informationen – wie unten für die Follower-Listen vorgeschlagen – im Nutzerprofil[28] anzeigen zu lassen und dann über die Kopieren-und-Einfügen-Funktion zu sichern, da hier die Klartextinformation dargestellt wird.

Wirkungsvolle Tests dieser Überlieferungsmethoden kann das Archiv nur in Zusammenarbeit mit dem Inhaber des Twitter-Kontos durchführen. Dann hat diese Ausgabe den Vorteil, dass man mutmaßlich alle Inhalte des Accounts in strukturierter Form als coded information erwischt und somit eine optimale technische Nachnutzbarkeit für spätere Nutzer erreicht. Die Auswahl der Meta- und Primärdaten kann, wie die vorstehende Detailbewertung zeigt, nach individuellen Kriterien pro Twitter-Account erfolgen. Die Form erlaubt es darüber hinaus, leicht und präzise Zeitschnitte festzusetzen – sei es nach Wahlperioden, nach Jahren oder bei stark genutzten Twitter-Konten auch nach Monaten, um so eine leichte Zugänglichkeit für spätere Nutzer sicherzustellen. Jedoch geht bei der Methode das ursprüngliche Look-and-Feel und die Anmutung von Twitter vollständig verloren. Will man eine komfortablere Ansicht als der pure JSON- oder ein daraus generierter CSV-File bieten, müssen diese Files vor der Nutzung nachbearbeitet und in eine Oberfläche eingespielt werden, die die Daten strukturiert sichtbar macht und mit zugehörigen Mediendateien verknüpft. Ein weiterer erheblicher Nachteil ist, dass die Kommentare der anderen Tweeter nicht mit ausgegeben werden, wodurch eine Nutzung als Quelle für die Bürgerbeteiligung wegfällt.

Fasst man die technischen Lösungswege mit ihren Vor- und Nachteilen zusammen erhält man folgende Übersicht:

Lösungsweg Kriterium Screenshot All My Tweets IFTTT-basiert WARC PDF Twitter-Export Sinnliche Gesamtwahrnehmung / Anmutung Ja Nein Nein Ja ± Nein „Look-and-Feel“ ± Nein Nein Ja Nein Nein Lesbarkeit Ja* Ja* Ja* Ja Ja* Ja* Recherchierbarkeit, z.B. nach einem bestimmten Datum/Hashtag/Stichwort Nein Ja Ja ± Ja Ja Weiterverwendbarkeit von textlichen Informationen Nein Ja Ja Ja Ja Ja Weiterverwendbarkeit von bildlichen Informationen ± Nein Nein ± ± Ja Weiterverwendbare Video-Inhalte Nein Nein Nein ± Nein Ja Maschinelle Verarbeitbarkeit der Informationen Nein Nein ± Nein Nein Ja Versteckte Informationen / detaillierte Metadaten zum Account Nein Nein ± ± Nein Ja

* jedoch nicht vollständig, da ohne Kommentare.

Den höchsten Abdeckungsgrad an signifikanten Eigenschaften erhält man, wenn man auf die Kommentare anderer Tweeter verzichten kann, durch die Kombination eines nutzerbasierten Exports der Twitter-Daten, ergänzt um Screenshots des Auftritts.[29] Dabei sollte dafür nach Möglichkeit ein unkomprimiertes oder nicht neu komprimiertes Bildformat genutzt werden und eine möglichst gute Auflösung der Bilder erzielt werden. Der Bildausschnitt sollte möglichst exakt definierbar sein und über die aktuelle Bildschirmsicht hinausgehende Seitenausschnitte erlauben. Umbrüche in den Screenshots sollten vermieden werden. Für diese Varianten kann überlegt werden, ob eine grafische Entsprechung für den gesamten Tweet-Bestand notwendig ist, oder es genügt, exemplarisch zu zeigen wie die Handhabung und das Aussehen von Twitter zum Archivierungszeitpunkt war.

Benötigt man die Kommentare, zum Beispiel um den Twitter-Account des Wahlbeamten als Mittel der Bürgerbeteiligung und seine Funktion als Kommunikationskanal abzubilden, deckt ein WARC-Export in Kombination mit dem Twitter-Export die notwendigen signifikanten Eigenschaften besser ab. Das Stadtarchiv Münster wird deshalb diesen Weg beschreiten.

Erhält das Archiv keinen Zugriff auf den Export-File, sind weniger komfortable und umfassende Archivierungswege denkbar. Gut handhabbar wären z.B. Screenshots in Kombination mit einer textlichen Auswertung, wie sie All My Tweets liefert. Es gingen dann jedoch die Originalbilder und Videos verloren sowie die Möglichkeit einer strukturierten Weiterverwendung der Daten sowie detaillierte Infos zu geblockten oder stumm geschalteten Accounts. Die verfolgten und verfolgenden Accounts ließen sich als Screenshots sichern, jedoch würde man dann auf die maschinell unterstützte Durchsuchbarkeit verzichten. Alternativ könnte man durch standardmäßiges Kopieren und Einfügen aus den Internetseiten einen durchsuchbaren Export erreichen (Abb. 9).

Ergänzung vom 10.02.2020:

Das vom Kommentator Michael vorgeschlagene Harvesting Tool Twint liefert Text-, CSV- oder JSON-Dateien aus. Die (Erst-)Installation einer funktionierenden Python-Umgebung ist nicht sehr kompliziert. Dabei unbedingt C++ mitinstallieren! Dann lässt sich im DOS-Fenster (Start-Symbol, cmd eintippen, „Eingabeaufforderung“ anlicken) und den Installationsanleitungen von Twint folgen.

Die Ergebnisse für die Ausgabe von Follower und Following-Listen ist überzeugend und deutlich schöner, als die von mir vorgeschlagenen Copy+Paste-Lösung!

Ich empfehle dafür diese beiden Befehlszeilen:

twint -u [username] –following –user-full -o following_[username].json –json

twint -u [username] –follower –user-full -o follower_[username].json –json

Für die Langzeitarchivierung kann man in einem zweiten Schritt aus den JSON-Dateien CSV-Dateien generieren, die leichter verständlich und vermutlich auch leichter erhaltbar sind. Die direkte Erzeugung von CSV aus Twint war weniger überzeugend, da das Komma zur Feld-Separierung eingesetzt wird. Da in den Kommentarfeldern der Twitter-Profile Satzzeichen verwendet werden (und natürlich auch Kommas!) erhält man „Versprünge“ bei der Spaltenzahl, da die Satzzeichen irrtümlich ebenfalls als Feldtrenner interpretiert werden. Der „Schlenker“ über JSON verhindert das; vgl. dazu Anm. 25.

Ein Export der Tweets selbst, ist über Twint ebenfalls möglich. Da die Bilder und Videos dabei immer nur als Pfade ausgegeben werden, und die Anmutung von Twitter verloren geht, gibt man so bestimmte signifikante Eigenschaften auf. Das gilt es also im Einzelfall abzuwägen.

Alternativ wäre auch die ausschließlich Sicherung als WARC-File z.B. über den Webrecorder.io möglich, der sehr überzeugend die performance des Twitter-Accounts sichert. Eine Portionierung der Inhalte z.B. nach Datum ist durch eine entsprechend kontrollierte Aufnahme des Webrecorders realisierbar, ganz exakte Zeitkorridore abzugrenzen gestaltet sich aber in der Praxis schwierig.

Gleich welcher Weg beschritten wird, müssen die eingesetzten Methoden und technischen Hilfsmittel durch das Archiv dokumentiert werden. Sie fließen in die Dokumentation zur Akzession ein und werden Teil der langzeitarchivierten Informationen. Für die Langzeitarchivierung ist die Beschreibung des gewählten Lösungswegs und der durchgeführten Maßnahmen extrem wichtig, damit spätere Archivarinnen und Archivare aber auch die Nutzenden mit den archivierten Daten arbeiten und diese als aussagekräftige historische Quelle nutzen können. In fast allen Fällen setzt sich das spätere AIP aus mehreren Dateien unterschiedlichen Typs (Rastergrafiken, Textdateien oder Container-formate wie PDF oder WARC) zusammen, die in ihrer Gesamtheit einen Gutteil der signifikanten Eigenschaften des ursprünglichen Twitter-Accounts wiedergeben.

Fazit

Twitter hat in den letzten Jahren einen festen Stellenwert in der Außendarstellung von (Kommunal-) Politikerinnen und Politikern bekommen. Es ermöglicht eine direkte und hierarchiearme Kontaktaufnahme und kann als Weg der Bürgerbeteiligung eingesetzt werden. Es lohnt sich, dieses Ausprobieren neuer (basis-)demokratischer Ansätze für die Nachwelt zu erhalten. Dabei ist die Bewertungsentscheidung nicht in Stein gemeißelt: Vielleicht verwendet der nächste Oberbürgermeister / die nächste Oberbürgermeisterin Twitter nicht mehr, es wird zu einem Kanal, über den nur Pressemitteilungen der Stadt verlautbart werden, oder Twitter wird in seiner Funktion von einer anderen technischen Plattform abgelöst. Dann muss man erneut überlegen, wie man weiter mit dem Microblogging-Dienst verfahren will.

Was die technischen Lösungen angeht, haben die Ausführungen gezeigt, dass man Twitter-Archivierung auf unterschiedlichen Niveaus und mit unterschiedlich viel Mühe betreiben kann, aber schon mit minimalen Aufwand (wie über „All My Tweets“) einige zentrale Erhaltungsziele abgedeckt werden können. Hier gilt es in jedem Kommunalarchiv abzuwägen:

Wie viel Bedeutung messe ich dem Twitter-Auftritt „meines“ Wahlbeamten bei?

Wieviel Zeit kann ich investieren?

Wie gut kann ich mit den gezeigten technischen Lösungen umgehen – oder muss ich über outsourcing an einen kommerziellen Dienstleister nachdenken?

Ähnliche Entscheidungen stehen für andere Twitter-Accounts an, die weniger dem amtlichen und mehr dem politischen Bereich zuzuordnen sind: Viele Ratsfraktionen bestücken regelmäßig ihre Twitter-Accounts; im Wahlkampf pflegen Kandidatinnen und Kandidaten diese Kanäle. Manche politischen Kräfte nutzen das Medium zur politischen Agitation und (Fehl-)Information. Hier fehlt bisher die facharchivische Diskussion, ob diese Inhalte zum Archivierungsauftrag der Kommunalarchive zählen und wie ggf. Auswahlkriterien und Erschließungsrichtlinien (nach Personen, Institutionen oder #hashtags) aussehen könnten.

Anmerkungen:

[1] Gemeindeordnung für das Land Nordrhein-Westfalen (GO NRW), Bekanntmachung der Neufassung vom 14.07.1994 mit Stand vom 5.7.2019, § 62, Abs. 1.

[2] Ebd., § 63, Abs. 1.

[3] Konrad Schneider, Das Ende der Aktenzeit? Eine Herausforderung für die Archive. In: Der Archivar 54 (2001), S. 206.

[4] Hans-Jürgen Höötmann / Katharina Tiemann: Archivische Bewertung – Versuch eines praktischen Leitfadens. In: Archivpflege in Westfalen-Lippe 52 (2000), S. 1-11, hier S. 6.

[5] Zur Funktionsweise, Geschichte und Verbreitungsgrad von Twitter vgl. den Wikipedia-Eintrag unter https://de.wikipedia.org/wiki/Twitter, Stand vom 16.07.2019.

[6] Laurel Wamsley, Library Of Congress Will No Longer Archive Every Tweet. In: The Two-Way am 26.12.2017, online abrufbar unter: https://www.npr.org/sections/thetwo-way/2017/12/26/573609499/library-of-congress-will-no-longer-archive-every-tweet?t=1563203305427, Stand: 15.07.2019.

[7] Mathias König / Wolfgang König, #MythosTwitter. Chancen und Grenzen eines sozialen Mediums (OBS-Arbeitspapier 24). Frankfurt 2016, S. 3.

[8] Vgl. dazu der Artikel in BILD vom 1.11.2015, online unter https://www.bild.de/regional/ruhrgebiet/twitter/twitter-posse-um-dortmunds-ob-43182450.bild.html – der nach der Löschung durch Twitter in der Folge unter dem username @nichtUlliSierau angelegte Nachfolge-Account des Unbekannten ist heute noch erreichbar, Stand 15.07.2019.

[9] Für die Zahlen und einen Erfahrungsbericht danke ich Herrn Michael Vogt vom Büro des OB; vgl. Natalie Beisch, Wolfgang Koch und Carmen Schäfer, ARD/ZDF-Onlinestudie 2019: Mediale Internet-nutzung und Video-on-Demand gewinnen weiter an Bedeutung. In: Media Perspektiven 9/2019, S. 374-388, bes. Tab. 9, S. 383, , online abrufbar unter: http://www.ard-zdf-onlinestudie.de/files/2019/0919_Beisch_Koch_Schaefer.pdf.

[10] Zur Twitternutzung vgl. Mathias König / Wolfgang König, Digitale Öffentlichkeit – Facebook und Twitter im Bundestagswahlkampf 2017. Beitrag auf den Seiten der Bundeszentrale für politische Bildung am 8.5.2018, online unter: https://www.bpb.de/dialog/podcast-zur-bundestagswahl/264748/digitale-oeffentlichkeit-facebook-und-twitter-im-bundestagswahlkampf-2017 bei Anmerkung 21, Stand: 15.07.2019; eine sicher nicht vollständige Liste prominenter Politikerinnen und Politiker und das Zitat bietet UdL Digital, das Digital Public Affairs Blog der Telefónica Deutschland unter https://www.udldigital.de/twitter_politik/, Stand: 15.07.2019. Bezogen auf die Stadt Münster und seinen Oberbürgermeister (OB) Markus Lewe heißt es im Impressum, dass für den Facebook- und den Twitter-Account des OB gilt: „Es posten er selbst (ML) und sein Team (/TL bzw. /tl)“ vgl. http://t1p.de/pklt) t1p.de/pklt. In der Praxis fehlt eine solche Unterscheidung öfters; in diesen Fällen stammt der Tweet in aller Regel vom OB selbst. Lewe nutzte schon früh (2010-2012) internetbasierte Möglichkeiten des Bürgerkontakts, so auch die Plattform direktzu® (https://direktzu.com/politischer-buergerdialog/) – sein Account ist zwar inzwischen eingestellt, die Ergebnisse aber noch aufrufbar unter https://direktzu.de/lewe. Noch in Betrieb ist die Seite des Bonner OB Jürgen Nimptsch unter https://direktzu.bonn.de/nimptsch, alle Links aufgerufen am 15.07.2019.

[11] Kate Theimer, What is the meaning of Archives2.0? In: The American Archivist 74/1 (2011), S. 58-68; Handreichung zum Umgang mit Sozialen Netzwerken (Social Media) im Bereich der Historischen Bildungs- und Öffentlichkeitsarbeit im Archiv. Empfehlung der Bundeskonferenz der Kommunalarchive beim Dt. Städtetag vom 30.09.2015, online unter http://www.bundeskonferenz-kommunalarchive.de/empfehlungen/Handreichnung_social_media_Endfassung.pdf, Stand: 15.07.2019; Bastian Gillner, Liken, sharen, crowdsourcing. Neue Formen des archivischen Nutzerkontaktes im Netz” (Vortrag Landesarchivtag Sachsen-Anhalt 2015), https://archive20.hypotheses.org/2416 (aufgerufen 15.07.2019); Antje Diener-Staeckling, Alles kann, nichts muss. Warum Kommunalarchive die Möglichkeiten der Welt des Web 2.0 kennen und nutzen sollten. In: Archivpflege in Westfalen-Lippe 84 (2016), S. 36-40 sowie die Beiträge zum Schwerpunktthema des ARCHIVAR 71 (2018), Heft 1, S. 6-46. In den Niederlanden arbeitet man im „Netwerk Digitaal Erfgoed“ an einer kooperativen Lösung vgl. Sophie Ham, Monument van onze generatie. Archivering van sociale media. In: archievenblad 10 (2019), S. 6-7.

[12] Die Anbietungspflicht begründet fürs staatliche Archivwesen ArchivG NRW § 4, für den kommunalen Bereich § 10 (4) mit den Übertragungen aus § 10 (5), vgl. Martina Wiech, Die digitale Herausforderung im Spiegel der

aktuellen deutschen Archivgesetzgebung. In: Archivpflege in Westfalen-Lippe 80 (2014), S. 4-8, bes. S. 4.

[13] Lt. Urteil des Verwaltungsgerichtshofs erläutert in der Pressemitteilung mit Datum vom 04.08.2014, online abrufbar unter: http://vghmannheim.de/pb/,Lde/2271892/?LISTPAGE=2271610, Stand: 15.07.2019.

[14] Das Landgericht Bielefeld hat in einem aktuellen Fall die Schutzfähigkeit für eine Twitter-Meldung („Tweet“) verneint (Beschluss v. 03.01.2017 – 4 O 141/16). Kurzen Sätzen wird nur selten die notwendige Individualität und Gestaltungshöhe zugebilligt. Gerade weil sie im Umfang begrenzt sind, müssen an ihre eigenschöpferische Prägung besondere Anforderungen gestellt werden. Diese juristische Auffassung überrascht durchaus, da in anderen Kontexten (z.B. bei sog. „Knipsbildern“ von Hobby-Fotografen) der Werkcharakter durch die Gerichte i.d.R. zugebilligt wird. Die Rechtsprechung schätzt dies im Fall kurzer Texte bisher nur in wenigen Ausnahmefällen so ein. Sie stammen alle aus literarischem Kontext, zum Beispiel ein Zitat von Karl Valentin (LG München I, Urteil v. 08.09.2011 – 7 O 8226/11) und von Loriot (LG Braunschweig, Urteil v. 16.01.2013 – 9 O 1144/12). Mindestens genauso unwahrscheinlich ist es, dass einem Kommentar Werkcharakter beigemessen werden muss.

[15] Auf das Problem weist hin: Christian Keitel, Digitale Bestandserhaltung. In: Archivrecht in der Praxis. Ein Handbuch (Berliner Bibliothek zum Urheberrecht 10). München 2017, S. 99-103, bes. S. 101 Richtlinie (EU) 2019/790 des Europäischen Parlaments und des Rates vom 17. April 2019 über das Urheberrecht und die verwandten Schutzrechte im digitalen Binnenmarkt und zur Änderung der Richtlinien 96/9/EG und 2001/29/EG, Erläuterung 25, 27, S. L 130/97-98 und Artikel 6, S. L 130/114. Die Richtlinie gilt allerdings erst für Werke, die ab dem 7.6.2021 entstehen, und sie muss bis zu diesem Datum in nationales Recht umgesetzt werden.

[16] Vgl. zu der Einschätzung Mark Alexander Steinert, Urheber- und andere Schutzrechte an Bildern im Archiv. In: Archivpflege in Westfalen-Lippe 67 (2007), S. 54-57, v.a. 56-57.

[17] Leitfaden zur digitalen Bestandserhaltung. Vorgehensmodell und Umsetzung. Version 2.0. Frankfurt ²2013 urn:nbn:de:kobv:11-100213246, S. 31 ff.

[18] Während JPEG-Dateien der ersten Generation durchaus von guter Qualität sein können, handelt es sich bei den hier erzeugten Screenshots um neukomprimierte Bilder, so dass ggf. eine leichte Artefaktbildung auftreten kann. Dieses Phänomen untersuchten Kai Naumann / Christoph Schmidt, Chancen und Risiken verlustbehafteter Bildkompression in der digitalen Archivierung. In: Informationswissenschaft 5/1 (2018) online abrufbar unter https://doi.org/10.18755/iw.2018.7, Stand 15.07.2019 und kommen dabei zu sehr interessanten Ergebnissen, die JPEG in deutlich besserem Licht dastehen lassen, als sein Ruf unter Archivarinnen und Archivaren wegen der verlustbehafteten Komprimierung vermuten lässt.

[19] Erwähnenswert ist die Software Pablo der Firma Startext, die aus den Internetseiten Bilder macht und den enthaltenen Text und die Struktur und gewisse Funktionalitäten in XML-kodierter Form abbildet und erhaltbar macht. Ob diese Technik bei Twitter funktioniert, wurde im Zuge dieser Untersuchung nicht weiter verfolgt. Eine andere, für die ersten 10 Seiten kostenlose Möglichkeit ist der Online-Dienst https://perma.cc, der die Ausgabe als PNG unterstützt und keine Seitenumbrüche setzt. Es wurde bei meinem Versuch eine 1302 x 14912 Pixel große Datei erzeugt, die nicht den gesamten Twitterumfang abbildete.

[20] Den deutschen Stand der Diskussion hat zusammengefasst Kai Naumann, Gemeinsam stark – Web-Archivierung in Baden-Württemberg, Deutschland und der Welt. In: ARCHIVAR 65 (2012), S. 33-41 online abrufbar unter http://www.archive.nrw.de/archivar/hefte/2012/ausgabe1/Archivar_1_2012.pdf Stand 15.07.2019 sowie zuvor Jens Niederhut, Internetarchivierung. Überlegungen für das Landesarchiv Nordrhein-Westfalen. In: Hirsch, Volker (Hg.), Golden die Praxis, hölzern die Theorie? Ausgewählte Transferarbeiten des 41. und 42. wissenschaftlichen Kurses an der Archivschule Marburg (VÖA 52). Marburg 2011, S. 123-156 mit einer Vorstellung von den damals verbreitetsten Harvestern HTrack und Heritrix sowie die beiden Empfehlungen der Bundeskonferenz der Kommunalarchive beim Dt. Städtetag vom 28.09.2010 Speicherung von kommunalen Webseiten – Teil 1: Bewertung online unter http://www.bundeskonferenz-kommunalarchive.de/empfehlungen/Empfehlung_Webarchivierung_Teil1_Bewertung.pdf und vom 14.04.2011 Teil 2: Technik online http://www.bundeskonferenz-kommunalarchive.de/empfehlungen/Empfehlung_Webarchivierung_Teil2_Technik.pdf, beides abgerufen 15.07.2019.

[21] Zur Chrome-Erweiterung Twitter Archiver vgl. https://chrome.google.com/webstore/detail/twitter-archiver/pkanpfekacaojdncfgbjadedbggbbphi; zum Diensteanbieter IFTTT vgl. https://de.wikipedia.org/wiki/IFTTT, beides Stand 15.07.2019. Andere z.T. kostenpflichtige Analysetools greifen ebenfalls auf die Twitter-API zurück und erlauben auch hier Teile der Twitter-Inhalte herunterzuladen und zu sichern – in der Regel werden diese Daten in JSON ausgegeben. Diese Lösungen sind v.a. für die massenhafte Auswertung von Tweets als Forschungsgrundlage interessant, vgl. Katrin Weller, Big Data & New Data: Ein Ausblick auf die

Herausforderungen im Umgang mit Social-Media-Inhalten

als neue Art von Forschungsdaten. In: Uwe Jensen, Sebastian Netscher, Katrin Weller (Hgg.), Forschungsdatenmanagement

sozialwissenschaftlicher Umfragedaten Grundlagen und praktische Lösungen für den Umgang mit quantitativen Forschungsdaten. Berlin / Toronto 2019, S. 193-210, bes. S. 198-199, online unter https://doi.org/10.3224/84742233.12, Stand: 16.01.2020.

[22] Die Entstehungsgeschichte und die Links zu den aktuellen Versionen enthält https://de.wikipedia.org/wiki/Wget, Stand 15.07.2019.

[23] Vgl. Katalog archivischer Dateiformate, Version 6.0, Juli 2019, online unter https://kost-ceco.ch/cms/warc.html; The National Archives. The technical registry PRONOM, online unter http://www.nationalarchives.gov.uk/pronom/fmt/289, beides am 15.07.2019 aufgerufen.

[24] Eine detaillierte Anleitung bietet Twitter auf den Hilfeseiten unter https://help.twitter.com/de/managing-your-account/accessing-your-twitter-data, Stand: 15.07.2019. Im README.TXT des Exports schreibt Twitter:

„This archive consists of machine-readable JSON files containing information associated with your account. We’ve included the information we believe is most relevant and useful to you, including your profile information, your Tweets, your DMs, your Moments, your media (images, videos and GIFs you’ve attached to Tweets, DMs, or Moments), a list of your followers, a list of accounts following you, your address book, Lists that you’ve created, are a member of, or are subscribed to, interest and demographic information that we have inferred about you, information about ads that you’ve seen or engaged with on Twitter, and more. The information contained in this archive reflects the state of the account at the time when the archive was created. In addition, if we do not have any data associated with your account for a particular category (e.g., if you have never created a List), then this archive will not include a file for that category.“

[25] Will man für Erhaltungs- oder Auswertungszwecke aus dem ausgelieferten JSON eine valide CSV oder EXCEL-Datei erzeugen, so lässt sich das über webbasierte Tools ohne Programmierkenntnisse vornehmen, z.B. mit Hilfe der Internetseite https://json-csv.com/. Als Feldtrenner ist in diesem Fall ein geeignetes Zeichen (zum Beispiel der sog. Pipe (|) zu wählen. Der Feldtrenner sollte so gewählt sein, dass er in den Tweets selbst oder in den exportierten sonstigen Daten nicht enthalten ist.

[26] Die Daten des Twitter-Accounts werden in den folgenden Einzeldateien ausgegeben (alphabetisch sortiert): account.js, account-creation-ip.js, account-suspension.js, account-timezone.js, ad-engagements.js, ad-impressions.js, ad-mobile-conversions-attributed.js, ad-mobile-conversions-unattributed.js, ad-online-conversions-attributed.js, ad-online-conversions-unattributed.js, ageinfo.js, block.js, connected-application.js, contact.js, direct-message.js, direct-message-group.js, direct-message-group-headers.js, direct-message-headers.js, email-address-change.js, follower.js, following.js, ip-audit.js, like.js, lists-created.js, lists-member.js, lists-subscribed.js, moment.js, mute.js, ni-devices.js, periscope-account-information.js, periscope-broadcast-metadata.js, periscope-comments-made-by-user.js, periscope-expired-broadcasts.js, periscope-followers.js, periscope-profile-description.js, personalization.js, phone-number.js, profile.js, protected-history.js, saved-search.js, screen-name-change.js, tweet.js, verified.js.

[27] „Als Troll bezeichnet man im Netzjargon eine Person, die ihre Kommunikation im Internet auf Beiträge beschränkt, die auf emotionale Provokation anderer Gesprächsteilnehmer zielen.“ Vgl. dazu: https://de.wikipedia.org/wiki/Troll_(Netzkultur).

[28] Auf twitter.com kann sich der Eigentümer des Accounts unter „Mehr“ à Rubrik „Datenschutz und Sicherheit“ à Unterrubrik „Sicherheit“ die „Stummgeschalteten“ und „Blockierten Accounts“ auflisten lassen.

[29] Zu einem ähnlichen Befund kommt Justin Littman, Web archiving and/or/vs social media API archiving, in: Social Feed Manager am 13.12.2017, online abrufbar unter https://gwu-libraries.github.io/sfm-ui/posts/2017-12-13-web-social-media-archiving, Stand: 15.07.2019.

[30] An dieser Stelle möchte ich Johannes Schuck (Stadt- und Stiftsarchiv Aschaffenburg) für seine wertvollen Hinweise u.a. auf die kommerziellen Anbieter danken. Vgl. dazu auch die BKK-Empfehlung vom 2011-04-14 (wie Anm. 20), Teil 2: Technik, bes. S. 4 zu Verbundlösungen.