Dieses Jahr konnte ich ausnahmsweise nicht zum #cch12. Daher zeige ich jetzt hier, was ich eigentlich dort in einem Session vorstellen wollte. Es geht um die Visualisierung von Twitterkonversationen. Und bevor man Daten visualisieren kann, muss man sie erst einmal sammeln. Dies kann man hervorragend mit R machen. Es gibt aber auch einsteigerfreundlichere Wege.
Von den mir bekannten Tools ist Martin Hawkseys TAGS v3 (Twitter Archiving Google Spreadsheet) eines der einfachsten. Er selbst beschreibt sehr gut, wie man Tweets automatisch in ein Google Spreadsheet archiviert. Der Vorteil dieser Lösung gegenüber R oder anderen Desktoplösungen ist die Verfügbarkeit des Dienstes unabhängig davon, ob der eigene Rechner läuft. Twitter erlaubt via API zur Zeit den Abruf von maximal 1500 Tweets gleichzeitig. [1] Things Every Developer Should Know: Clients may request up to 1,500 statuses via the page and rpp parameters for the search method.
Daher können umfangreiche Konversationen nachträglich oft nicht archiviert werden. Lässt man die Applikation jedoch während eines Events laufen, ist die Archivierung weitaus größerer Tweetmengen möglich. Hier ein paar Screenshots, die den Leistungsumfang der Anwendung andeuten:
Martin Hawksey ist ein begnadeter Frickler und stellt zusätzlich zu seinem Archivierungstool (das auch ein paar einfache Analysefunktionen mitbringt) auch eine Visualisierungskomponente zur Verfügung: den TAGSExplorer, dessen Output im ersten Screenshot zu sehen ist. Auch diesen und dessen Anwendung beschreibt er Schritt für Schritt.
Für das folgende Filmchen (Dauer: ca. 1 Minute, unbedingt als Vollbild ansehen!) habe ich die Replay-Funktion einer Twitterkonversation genutzt. [2]Kleines Schmankerl für mitlesende Biblioblogger ist der zum Schluss in die Bildmitte baumelnde @lambo. Die Darstellung ist zufällig und bei jedem Durchlauf anders. Das war allerdings ein First … Continue reading
Wer selbst mit den Daten herumspielen möchte, kann gerne meine Backup-Version herunterladen. Da ich ab und an mal aufräume, kann ich nicht dafür garantieren, dass die Daten unter dieser Adresse beliebig lange verfügbar sein werden. Hinweise auf angefertigte Derivate nehme ich gerne entgegen!
#SWIB12 habe ich übrigens auch aufgezeichnet. Ich hoffe, das ich mich damit in Kürze etwas näher beschäftigen und noch 1-2 andere Tools vorstellen kann.
References
↑1 | Things Every Developer Should Know: Clients may request up to 1,500 statuses via the page and rpp parameters for the search method. |
---|---|
↑2 | Kleines Schmankerl für mitlesende Biblioblogger ist der zum Schluss in die Bildmitte baumelnde @lambo. Die Darstellung ist zufällig und bei jedem Durchlauf anders. Das war allerdings ein First Take, den ich sofort genommen habe. ;o) |
Ja, das ist Interessant. Bitte auch fuer #SWIB12 Publiceren mit den Daten.
Ja, würde mich auch interessieren!