Google bestraft App-Werbung

Man ruft eine Seite mit dem Tablet oder Smartphone auf und bekommt erst einmal eine riesige, blinkende “Installier die App”-Werbung ins Gesicht geworfen. Ständig. Irgendwelche nette Menschen bei Google nervt das genauso wie fast jeden anderen. Im Gegensatz zu den meisten haben die Google-Angenervten Einfluss auf das Google-Ranking und somit ein solides, finanziell potentiell stark sanktionierendes Erziehungsmittel in der Hand. Wer mit App-Werbung nervt, wird also einfach ein paar Plätze nach hinten geschoben. Weitere Infos gibt es bei Techcrunch.

[via Fefe]

SEO, Freebase und Wikidata

Freebase wird eingestellt, der Schreibzugriff wurde gerade schon abgestellt. Laut Wikidata-Office-Chat wird Wikidata zwar nun von Google unterstützt. Wikidata wird aber nicht die Rolle von Freebase für den Google Knowledge Graph übernehmen, was diverse SEOs anscheinend annehmen.

16:33:26 yeah, one problem is that SEOs think that Wikidata is replacing Freebase within the Google infrastructure
16:33:35 but we need guidelines on SEO on Wikidata
16:33:42 yes, that would be good
16:33:45 companies will come and edit wikidata a lot now
16:33:55 We’ve already seen a huge wave of spam of companies and “SEO experts”
16:33:55 also, Wikidata is not a free ticket into the Knowledge Graph as Freebase was
16:34:07 it is just one source among many
16:34:27 i think we really need to highlight this

Inzwischen wurde dieser Punkt auch in die Wikidata-FAQ übernommen:

No.

Whereas Freebase was the open core of the Knowledge Graph, this is not true for Wikidata. Wikidata is one source of the Knowledge Graph among many, but does not have the same standing as Freebase had.

The most important source of data for the Knowledge Graph is actually the Web itself. You can mark up your own Websites with schema.org and this will be read and processed by all major search engines.

Liebe SEOs, nehmt dies bitte zur Kenntnis. Und nein, ich möchte keine Links mit Euch tauschen. Danke.

Postings zur Zeit nur noch 30 Tage kommentierbar

Aufgrund massiven Spam-Aufkommens und ebenso massiver Unlust meinerseits, jeden Tag 20 Kommentare manuell zu löschen, die durch diverse Spam-Abwehrmaßnahmen durchgerutscht sind, sind Kommentare pro Artikel bis auf Weiteres nur noch 30 Tage geöffnet. Wenn ein Kommentar in dieser Zeit abgesetzt wird, verlängert sich der Kommentierungszeitraum automatisch.

Gibt es eigentlich ein Spammer-Äquivalent zum Buchfluch?

Oh SpammerInnen, wenn Du hierhin setzt Deinen Werbemüll, sei es für Edeluhren, Potenzmittel, günstige Kredite oder eine unverzichtbare App, so werden Dich die Geister Digitalias in Deinen Träumen quälen!

Wo ich schon dabei bin: Nein, ich möchte keine Artikel auf Infobib veröffentlichen, die mit tollen Links auf irgendwelche Produkte garniert sind, liebe PR-Agenturen. Wirklich nicht. Weder gegen “wertvolle Backlinks”, noch gegen Bezahlung. Ich danke für Ihre Aufmerksamkeit.

Lustige Mailwelle dank Googles neuer SEO-Policy

In the past we’ve practiced bad link building methods so we got a link from your blog here […]

So oder ähnlich beginnen zahlreiche Mails, die nicht nur ich oder Fefe zur Zeit bekommen. Hintergrund: Google bestraft neuerdings Kommentarspammer.

Egal, wie man zu Googles außerordentlicher Marktmacht steht: Das kann ich nur gutheißen! Seit dem letzten Spamfilter-Reset vor geschätzten 3-4 Jahren wurden hier in Infobib anscheinend sagenhafte 257,496 Spam-Kommentare rausgefiltert. Und ich muss regelmäßig manuell nachlöschen. Pro Woche sind das sicherlich noch einmal 20-30 Kommentare. Und es gab bestimmt schon einige false positives, die aus Versehen mitgelöscht wurden.

Wenn diesen Black-Hat SEOs nun ihre Geschäftsgrundlage genommen wird, führt dies also hoffentlich dazu, dass sie sich nun sinnvolleren Tätigkeiten zuwenden werden. Telefon-Desinfizierer werden immer gebraucht.

Google Scholar: Inclusion Guidelines for Webmasters

Google Scholar hat “Inclusion Guidelines for Webmasters” veröffentlicht. Wer sein Repository ordentlich in Google Scholar gelistet haben möchte, hat sich an Googles “Standards” zu halten. Konkret heißt es:

If you’re a university repository, we recommend that you use the latest version of Eprints (eprints.org), Digital Commons (digitalcommons.bepress.com), or DSpace (dspace.org) software to host your papers. If you use a less common hosting product or service, or an older version of these, please read the rest of this document and make sure that your website meets our technical guidelines.

Liebe Bibliothekswesen, tragt bitte in alle künftigen Anforderungskataloge für Softwareanschaffungen unbedingt ein, ob die Software Google behagen würde!

Man könnte antworten:

If you’re a search engine giant and you want to monetarize the scientific work of other people, we recommend that you use the latest version of any open harvesting protocol, for example OAI-PMH to collect the metadata of our papers. If you try to establish your own rules, have fun with your customers who wonder about crappy metadata.

Kann doch nicht so schwer sein…

Kein IRrweg, aber dennoch Handlungsbedarf

Klaus Graf wirft einen Blick auf Google Scholar und zieht daraus Schlüsse über den IRrweg Institutionelle Repositorien. Er sucht nach “Science” und zählt die Volltextlinks:

Über 40 der 100 Treffer zum Thema bzw. Suchwort Science – sicher wichtige, weil vielzitierte Artikel – haben Volltextlinks, aber ich finde nur ein IR (igitur, NL) darunter und 3 arxiv-Links.

Wenn man einfach so nach Science sucht, hat man recht viele Treffer aus früheren Jahrzehnten. Da ich die Bedeutung der IRs eher anhand aktuellerer Publikationen prüfen würde, habe ich mal (willkürlich gewählt) auf Publikationen ab 2005 eingeschränkt.

Dabei ergibt sich schon ein etwas anderes Bild. Ich habe jetzt nicht alle verfügbaren Versionen abgeprüft, und bis zu 89 Versionen pro Dokument habe ich auf den vorderen Ergebnisseiten gesehen. Aber nun sind deutlich mehr Links auf Volltexte in IRs dabei, und alleine 3 Arxiv-Dokumente unter den ersten 10 Treffern.

Richtig bleibt aber, dass meist wohl der erste Volltext-Link angeklickt wird, der auch direkt auf der Ergebnisseite zu sehen ist. Dies ist oft nicht der IR-Link. Was ist jetzt der Schluss daraus? Sollen Repositories per SEO auf Google Scholar getrimmt werden?

Ja, das kann man machen. Man sollte es sogar. Nick Sheppard hat schon vor drei zwei Jahren die Notwendigkeit von SEO für IRs festgestellt.

It is crucial that both the Open Access full text research content of the repository and metadata records of citation material are fully indexed by Google (and other search engines); in the future it is also likely to be required for other Open Educational Resources (learning objects). However, site:http://repository-intralibrary.leedsmet.ac.uk/ currently returns just 4 results (in addition to the Login page itself) and it is a bit of a mystery how these 4 are actually being picked up when the majority of records are not.

Klickt man auf den Link, sieht man sofort, dass Sheppards Bemühungen von Erfolg gekrönt waren.

So nervig die SEO-Gemeinde mit ihrem recht hohen Schwarzschafanteil oft auch ist: Archivare und Bibliothekswesen müssen sich auch ein wenig um das Thema SEO kümmern. Und somit auch um so etwas wie Googles Panda, um Schema.org oder einfach darum, die Daten erstmal überhaupt ins Web zu bekommen. Stichwort Permalinks.

DMOZ-Relaunch im März?

Das Open Directory Project DMOZ war mal ein unverzichtbarer Bestandteil des Webs, ein moderierter Webkatalog mit hohem Anspruch an Aktualität und Seriösität. Administratoren für spezielle Kategorien sollten dafür sorgen, dass nur geprüfte, “gute” Webseiten aufgenommen werden. Dadurch baute sich DMOZ einen sehr guten Ruf auf, der natürlich schwarze SEO-Schafe noch und nöcher anzog. Kürzlich konnte man sogar einen DMOZ-Eintrag (für 87 €!) bei Ebay ersteigern.

Dazu kommt, dass manche Kategorien schon seit Jahren nicht mehr gepflegt wurden.

Nichtsdestotrotz wird die Aufnahme einer Webseite in DMOZ nach wie vor von vielen Ranking-Tools und vielleicht sogar noch von Suchmaschinen als Qualitätsfaktor gewertet. Als Beispiel sei seitwert.de genannt.

Wie Webranking.com nun berichtet, soll (eventuell noch in diesem Monat) ein Relaunch stattfinden.

Wird ein Webkatalog wie DMOZ jedoch überhaupt noch noch benötigt? Die Verschiebung von Webkatalogen zu Suchmaschinen fand vor einigen Jahren statt. Aktuell zieht Facebook zumindest in den USA an Google in puncto generierter Traffic vorbei.

Wenn man möchte, kann man also von vier Phasen der “Webseitenfindung” ausgehen:

  1. Die persönliche Empfehlung von Webseiten durch Freunde & Bekannte in direkter Kommunikation. Motto: “Guck mal, ich bin beim Surfen auf diese Webseite gestoßen.”
  2. Nachschlagen in Webkatalogen wie z.B. Altavista.
  3. Suchen in Suchmaschinen wie Yahoo oder Google.
  4. Die persönliche Empfehlung von Webseiten über Social Networks wie Facebook & Co.

  1. Die persönliche Empfehlung von Webseiten durch Freunde & Bekannte in direkter Kommunikation. Motto: “Guck mal, ich bin beim Surfen auf diese Webseite gestoßen.”
  2. Nachschlagen in Webkatalogen wie z.B. Yahoo.
  3. Suchen in Suchmaschinen wie Altavista oder Google.
  4. Die persönliche Empfehlung von Webseiten über Social Networks wie Facebook & Co.

Auch wenn sich die Mechanismen geändert haben, ist die Übermittlung von Webfundstücken wieder an ihren Ursprung gelangt. Ein modernes DMOZ müsste sich diesen Gegebenheiten anpassen. Es dürfte also weder Moderatoren noch vorbestimmte Kategorien geben. Beides ist anachronistisch. Ein modernes DMOZ könnte Empfehlungen aus sozialen Netzwerken fischen und stets aktuell in Ad-hoc-Kategorien clustern. Dies entspräche auch dem erklärten Ziel des DMOZ-Projektes:

Anstatt sich dem explosiven Wachstum des Internets entgegenzustellen, stellt das Open Directory Project dem Internet die Mittel zur Verfügung sich selbst zu organisieren. Gleichzeitig mit dem Internet wächst auch die Anzahl der Internet-Bürger. Diese Bürger können jeder einen kleinen Teil des Internets ordnen und das Ergebnis der Gemeinschaft zur Verfügung stellen. Sie sortieren dabei Schlechtes und Unnützes aus und übernehmen nur qualitativ hochwertige Inhalte.

Ich bin gespannt, wie DMOZ in ein paar Wochen aussehen wird.

[via Blogs-optimieren.de]

Infobib im Perlentaucher

Kleine Nabelschau zum Wochenende: Die Materialsammlung zum Heidelberger Appell wurde im Perlentaucher erwähnt:

Das Bibliotheksblog Infobib bietet seit einiger Zeit eine nützliche Linkliste zur Debatte um den “Heidelberger Appell”.

Schön, das Wort Bibliotheksblog mal in Mainstream-Medien zu lesen. Für die Hobby-SEOs: Die Auswirkungen auf den Traffic ist äußerst gering. Am selben Tag kamen nur 86 Besucher vom Perlentaucher. Zum Vergleich: Stefan Niggemeiers Hinweis führte fast 200 Besucher zur Materialsammlung.

Lange Papers werden häufiger zitiert

Nature News weist auf eine Studie hin, nach der die Zitationshäufigkeit zu einem gewissen Grad mit der Länge des Werkes korreliert.

There is, however, a limit to the benefits of size: citations start to tail off when papers reach lengths of 80 pages or so, perhaps because fewer people have the stamina to read them.

Bei der Menge an Studien, die es inzwischen über Zitationshäufigkeiten gibt, erscheint es mir nicht unwahrscheinlich, dass manch einer seine Publikation nach diesen Kriterien “optimiert”. Statt SEO (Search Engine Optimization) wäre das dann SIO (Scientific Impact Optimization). Vielleicht ist da sogar eine neue berufliche Nische für Publikationsberater?

Nein, lassen Sie die Rohdaten in Kapitel 2 lieber weg, laut der Studie XY senkt das die Zitationshäufigkeit.

Albern? Ja. Abwegig? Nein. Krzysztof Stanek, der Autor der eingangs erwähnten Studie meint dann auch:

“There is definitely too much obsession with citations and other indices,” Stanek says. This is partly because they are easy to calculate regardless of whether they actually mean very much. But he confesses to using them himself.

Wer sich für die ganze Studie interessiert, der kann den Preprint bei Arxiv einsehen.