ImageOptim – ein kleiner Bild-„Optimierer“ für Mac

ImageOptim „optimiert“ Bilder, so daß diese weniger Platz auf der Festplatte belegen bzw die Ladezeit für Webseiten kürzer werden. Erreicht wird dies durch automatisches Einstellen der Kompressionsparameter, Entfernung von nicht notwendigen Kommentaren und Farbprofilen.

ImageOptim provides GUI for various optimisation tools: AdvPNG from AdvanceCOMP, OptiPNG, Pngcrush, JpegOptim, jpegtran from libjpeg, Gifsicle and optionally PNGOUT. It’s excellent for publishing images on the web (easily shrinks images “Saved for Web” in Photoshop) and also useful for making Mac and iPhone applications smaller.

URL: imageoptim.pornel.net (via D.D.)

Kod – ein neuer Code-Editor für OS X

Der Entwickler Rasmus Andersson arbeitet an einem neuen Code-Editor für Mac OS X. Der Kod genannte Editor soll besonders flink sein, setzt auf ein schlankes Interface und konsequent auf moderne Technik.
Kod ist auf parallele Bearbeitung ausgelegt, um Multi-Core-Prozessoren möglichst gut auszunutzen. Aufgaben wie das Laden von Dateien oder Syntax Highlighting werden über vorhandene CPU-Kerne verteilt, um Wartezeiten zu minimieren. Syntax Highlighting steht derzeit für mehr als 65 Sprachen zur Verfügung, denn Kod nutzt dazu die gleiche Syntax wie GNU Syntax Highlight.

Screenshot

Goals and features

  • Fully concurrent — loading files, syntax highlighting, etc is distributed across available CPU cores. Minimal waiting time.
  • Integrated scripting environment based on Node.js.
  • Written from scratch with modern OS X 10.6 APIs providing maximum OS integration while avoiding reinvention of the wheel.
  • Sports a Chromium-like user interface where tabs can be torn off and moved between windows.
  • Allows editing (although not saving, currently) remote files accessible over HTTP or HTTPS.
  • Styling of the editor (not only the syntax highlighting) through regular CSS 3.
  • Comes with support for over 65 different languages/syntaxes which can easily be edited or extended (Kod uses the same format as GNU Syntax Highlight).

via: golem.de

Deutsche Bahn auf Facebook und die Sache mit dem Chefticket

Nach langem Zögern hat die Deutsche Bahn nun einen großen Schritt vollzogen und sich der social media communty gestellt. Unter www.facebook.com/chefticket gibt es eine Facebook-Seite, die ziemlich schnell über 34,000 follower gesammelt hat. Und auf der man ein günstiges Ticket kaufen kann. Und die Bahn hat auch an ein Community Management gedacht, welches sich – leider manchmal nur mit vorgefertigten Textpassagen – einem riesigen Ansturm stellt und sich redlich bemüht!

Deutsche Bahn auf Facebook

Andere Unternehmen würden schon etwas darum geben, eine so große Anzahl an Fans zu erreichen. Die Deutsche Bahn hat offenbar erst mal einen Testballon gestartet – also das „Chefticket“ – und nun stellt sich doch die Frage, wie man die ganzen Fans weiter bei Laune hält? Vanity URLs sind in Facebook nicht mehr zu ändern, und daß die Bahn dauerhaft unter „chefticket“ zu finden sein wird ist eher unwahrscheinlich.  Obwohl die Bahn bei Twitter ja auch nicht unter „deutschebahn“ erreichbar ist…

Wird sich die Bahn nach dem Auslaufen des Cheftickets wieder aus dem Social Web verabschieden? Und woanders einen neuen Fan-Kreis aufbauen?

Google Analytics with multiple accounts

<script type="text/javascript">
var _gaq = _gaq || [];
_gaq.push(['_setAccount', 'UA-123456-7']);
_gaq.push(['_trackPageview']);
_gaq.push(['t2._setAccount', 'UA-98765-4']);
_gaq.push(['t2._setCookiePath', '/c2/']);
_gaq.push(['t2._trackPageview']);
(function() {
var ga = document.createElement('script');
ga.src = ('https:' == document.location.protocol ? 'https://ssl' : 'http://www') + '.google-analytics.com/ga.js';
ga.setAttribute('async', 'true');
document.documentElement.firstChild.appendChild(ga);
})();
</script>

Google Wave HowTo

Mit „The Complete Guide to Google Wave“ ist nun ein kostenloses Handbuch zum Thema „Google Wave“ verfügbar. In 8 Kapiteln werden Themen von der Installation über Bedienung und Anpassung bis zur Erweiterung des Funktionsumfangs beantwortet.
Das Buch ist im Web kostenlos verfügbar oder kann über den Fachhandel bezogen werden. Neue Versionen sollen weiterhin kostenlos im web publiziert werden.

Microsofts IE-Vergleichsprogramm kommt nicht an MultipleIE heran

Microsoft hat sein „Superpreview“ nun kostenlos im Angebot. Leider kann das Programm nur eine Instanz des IE6 mit einer Instanz des IE7 oder IE8 vergleichen – je nach dem welche Version auf der aktuellen Maschine installiert ist. Ein direkter Vergleich einer Webseite in mehreren IE-Versionen – wie es zum Beispiel mit dem IETester oder MultipleIE möglich ist, geht so leider nicht.

robots.txt – Robots Exclusion Standard

Nach der Übereinkunft des Robots-Exclusion-Standard-Protokolls liest ein Webcrawler (Robot) beim Auffinden einer Webseite zuerst die Datei robots.txt (kleingeschrieben) im Stammverzeichnis (Root) einer Domain. In dieser Datei kann festgelegt werden, ob und wie die Webseite von einem Webcrawler besucht werden darf. Website-Betreiber haben so die Möglichkeit, ausgesuchte Bereiche ihrer Webpräsenz für (bestimmte) Suchmaschinen zu sperren. Das Protokoll ist rein hinweisend und ist auf die Mitarbeit des Webcrawlers angewiesen. Man spricht hier auch von „freundlichen“ Webcrawlern. Ein Ausgrenzen bestimmter Teile einer Webpräsenz durch das Protokoll garantiert keine Geheimhaltung, dazu sind Seiten oder Unterverzeichnisse eines Servers durch HTTP-Authentifizierung, eine Access Control List (ACL) oder einen ähnlichen Mechanismus zu schützen. Manche Suchmaschinen zeigen die vom Webcrawler gefundenen URLs trotzdem in den Suchergebnisseiten an, jedoch ohne Beschreibung der Seiten.

Das Protokoll wurde 1994 von einer unabhängigen Gruppierung entwickelt, ist inzwischen jedoch allgemein anerkannt und kann als Quasi-Standard betrachtet werden. Mit ACAP 1.0 (Automated Content Access Protocol) wurde am 30. November 2007 eine mögliche Erweiterung des Robots Exclusion Standards veröffentlicht. Anfang Juni 2008 bekannten sich Google, Microsoft und Yahoo zu einigen Gemeinsamkeiten.

Aufbau

Die Datei robots.txt ist eine Textdatei in einem einfach lesbaren Format. Jede Zeile besteht aus zwei Feldern, die durch einen Doppelpunkt getrennt werden.
User-agent: Sidewinder
Disallow: /

Die erste Zeile beschreibt den Webcrawler (hier: User-agent), an den sich die darauf folgenden Regeln richten. Es darf beliebig viele solcher Blöcke geben. Webcrawler lesen die Datei von oben nach unten und halten an, wenn sich ein Block auf sie bezieht. Nach einem Block, dessen erste Zeile mit User-agent: * beginnt, stoppt ein Webcrawler und liest den Rest der Datei nicht mehr. Also sollten in der Datei zuerst die Blöcke für spezielle Webcrawler stehen und als letztes der Block für alle. Für jede URL, die ausgeschlossen ist, existiert eine eigene Zeile mit dem Disallow-Befehl. Leerzeilen sind nur oberhalb von User-agent-Zeilen erlaubt. Sie trennen die Blöcke voneinander. Einzeilige, mit einem Rautenzeichen (#) beginnende Kommentare sind an jeder Stelle möglich. Sie dienen der Übersichtlichkeit und werden vom Webcrawler ignoriert.

Beispiele

# robots.txt für meineseite.com
# Diese Webcrawler schließe ich aus
User-agent: Sidewinder
Disallow: /

User-agent: Microsoft.URL.Control
Disallow: /

# Diese Verzeichnisse/Dateien sollen nicht durchsucht werden
User-agent: *
Disallow: /default.html
Disallow: /Temp/ # diese Inhalte verschwinden bald
Disallow: /Privat/Familie/Geburtstage.html

Mit den folgenden Befehlen wird die komplette Webpräsenz vor einer Indexierung durch Webcrawler gesperrt.
User-agent: *

Meta-Tags

Webcrawler können auch durch Meta-Tags im HTML-Quelltext einer Webseite am Indexieren gehindert werden. Auch Meta-Tags sind rein hinweisend, benötigen die Mitarbeit „freundlicher“ Webcrawler und garantieren keine Geheimhaltung. Soll der Suchroboter die Webseite weder in den Index der Suchmaschine aufnehmen, noch den Hyperlinks der Seite folgen, lautet der Meta-Tag

In HTML-Dokumenten, für die beides erlaubt sein soll, kann die Angabe entweder weggelassen oder explizit notiert werden:

Siehe: W3C Recommendation „Robots and the META element“

Q: wikipedia.org