Beim Optimieren von Webseiten ist es unter
anderem wichtig, die sogenannte Keyword-Dichte im Dokument sinnvoll
einzustellen. Dafür gibt es eine Reihe von Tools, unter anderem den
Keyword Density
Analyzer auf Search Engine
World. Das Manko dieses Tools ist aber, daß die zu prüfende
Seite online sein muß. Deswegen habe ich mir zu diesem Zweck ein
Perl-Script gebaut, das das Selbe leistet, aber eben auch auf lokale Dateien
zugreifen kann. Und damit alle was davon haben, stelle ich mein Tool an dieser
Stelle zum Download bereit.
Michael
Jentsch wiederum hat mein Tool für den Online-Einsatz als CGI-Script
erweitert; es steht auf seiner Website zusammen mit weiteren
Online Tools zur Nutzung
bereit.
kda.zip 22401 Bytes, v0.2 2003-01-07
Bei der Auswertung der Logfiles ist
es nicht nur wichtig, zu wissen, mit welchen Suchbegriffen die Besucher auf die
Site kamen, sondern auch, auf welche einzelnen Seiten sie mit welchen
Suchbegriffen gekommen sind. Anhand einer solchen Keyword-Statistik
läßt sich erkennen, ob eine Seite über die gewünschten
Suchbegriffe gefunden wird, oder ob sie vielleicht mit völlig unerwarteten
Suchbegriffen gefunden wird. Es ist manchmal erstaunlich, mit was die Leute die
Suchmaschinen so füttern ;-) ...
Da Tools, die eine Statistik der
Suchbegriffe pro Seite machen, dünn gesät und ferner meistens relativ
kostspielig sind, habe ich mir mein eigenes Tool für diese Auswertungen
geschrieben. In der Hoffnung, daß es auch für andere nützlich
ist, stelle ich es hier zum Download bereit. Das Tool ist in Perl
geschrieben.
Hinweis: Das Tool erwartet combined Apache Logfiles. Wer
seine 1&1 Logfiles auswerten will, muss diese zuerst mit dem untenstehenden
Logfile-Splitter behandeln.
ska.zip 24454 Bytes, v0.91 2003-11-19
Wer bei der 1&1 Internet AG (ehemals Puretec) ein Paket mit mehreren Domains hat, kennt das Problem: Für alle Domains gibt es nur ein Logfile. Der Logfile Splitter zerlegt dieses Logfile in mehrere Logfiles, je eines pro Domain. Das Tool ist in Perl geschrieben.
logsplit.zip 20041 Bytes, v0.9a 2003-10-03
Dieses Script wertet aus, wie oft und wann ein Spider welche Datei angefordert hat. Das Tool ist in Perl geschrieben.
spider_stat.zip 19393 Bytes, v0.1 2003-09-30
Ein weiteres Tool in Perl, das die Links bei Linktauschpartnern
überprüfen kann.
Neu seit 11.02.2005: Falls ein
„Schlitzohr“ versucht, mit dem Attribut 'rel="nofollow"'
einen Link wertlos zu machen, wird dies vom Linktausch-Checker erkannt und
angezeigt.
ltcheck-0.4.zip 22112 Bytes, v0.4 2006-02-17
Eine Übersicht über
verschiedene Logfile-Analyser, die
umfassende Statistiken erzeugen, habe ich auf einer eigenen Seite
zusammengestellt.
Ein Programm, das aufgrund seiner umfassenden Auswertungen
immer mehr Anhänger findet, ist
AWStats. Da die Installation von
AWStats allerdings nicht ganz trivial ist, habe ich eine Anleitung geschrieben,
um AWStats unter Windows zu
installieren.
Die Tools auf dieser Seite unterliegen der
GPL (GNU General Public
License) (deutsche
Übersetzung hier) und sind somit Freie Software.
Die in Perl
geschriebenen Tools benötigen einen Perl-Interpreter. Unter Linux ist
dieser standardmäßig installiert, für Windows empfehle ich
ActivePerl von
ActiveState, welches kostenlos
erhältlich ist.
Ein paar Infos und Fakten zur Königscard im Allgäu.
Seit einiger Zeit ist durch eine Initiative die Errichtung eines Nationalparks Ammergebirge wieder im Gespräch. Es gibt aber zahlreiche Gründe gegen einen Nationalpark und für die Erhaltung der derzeitigen Schutzzustands. Diese sind bei der Freien Dorfgemeinschaft Schwangau im Vortrag "Nationalpark Ammergebirge" nachzulesen.