Wie bereits in den letzten Tagen oft zu lesen war, will Facebook das like für’s gesamte Web einführen. Dies hab ich jetzt hier einfach mal eingebaut. Sieht schon ganz nett aus:
Jeder kann sich die Webseiten-Widgets selbst mal anschauen und testen.
Wie bereits in den letzten Tagen oft zu lesen war, will Facebook das like für’s gesamte Web einführen. Dies hab ich jetzt hier einfach mal eingebaut. Sieht schon ganz nett aus:
Jeder kann sich die Webseiten-Widgets selbst mal anschauen und testen.
dann hat man echt mal die A****karte gezogen. So jetzt passiert bei RubyOnRails.org.
Sucht man bei Google, erhält man noch folgendes Ergebnis:
Ruft man die Seite dann aber auf, bekommt man ein bekanntes Bild von Domaingrabbern:
Jetzt kann ich natürlich nur mutmaßen, aber entweder hat jemand die Gebühr für die Domain nicht bezahlt oder es gab mal wieder eine feindliche Übernahme einer Domain, bei der es verschiedene Möglichkeiten der Durchführung gibt. Bleibt abzuwarten, was in den nächsten Tagen dort passiert.
Wie Postrank herausgefunden hat, sind fast 90% aller Beiträge in Buzz nicht von Menschenhand geschrieben. Der Großteil der Buzzes kommt von Twitter und wird automatisch gezogen. Danach folgen die automatisch durch RSS-Feeds geladenen Beiträge, die oft von Blogs kommen.
Nur 10,95% kommen nicht von diesen Quellen, müssen aber deswegen nicht unbedingt von Menschenhand verfasst worden seien.
Als ich diese Grafik sah, dachte ich direkt an Friendfeed. Selbst dort kam es mir immer vor, als hätten alle Leute nur mal eben ihre Feeds eingestellt und das Portal nie wieder besucht, in der Hoffnung, dass mind. 1 Person den Kram liest.
Man kennt das ja: Man muss mal eben was auf indisch suchen und dann macht man erstmal die Character Map Software auf und sucht die entsprechenden Buchstaben raus. Nein, natürlich ist das Quatsch, aber solche Fälle gibt es trotzdem.
Deswegen bietet Google jetzt für einige lokale Suchseiten, wie z.B. in Griechenland, Finnland, Indien, Russland und Thailand, eine virtuelle Tastatur neben dem Sucheingabefeld an.
Eigentlich gar keine so schlechte Idee, wenn man wirklich keine passende Tastatur zur Hand hat. Schade nur, dass man diese Möglichkeit nicht für China oder Japan anbietet. Das könnte aber daran liegen, dass die Anzahl der verfügbaren Zeichen nicht auf ein 105-Tasten-Keyboard passt.
Da isse ja, die angekündigte Veränderung der Facebook-Fanseiten. Konnte man früher von der mthie spaces Page noch Fan werden, kann man es nur noch gut finden („Like“). Das sieht dann so aus:
Damit löst man ein langes Problem der Benamung, wo sich Firmen einbildeten, dass nur, weil jemand Fan einer Produkt- oder Firmen-Page war, jemand automatisch ein Fanboy der Firma oder Marke sei. durch das „Like“ zeigt man eher, dass man etwas zum Zeitpunkt des Button-Drucks mal gut findet, aber nicht direkt ein Fanboy ist.
Ich schätze: Ein bisschen.
Google hat angekündigt, in Zukunft in das Ranking einer Seite auch die Ladezeit der Webseite mit aufzunehmen. Es gab auch schon Messungen diesbezüglich, finde aber die URLs nicht wieder, also falls jemand was hat, bitte in den Kommentaren posten. Aber wie wird sich die Bloglandschaft verändern?
Es ist so, dass in den letzten Tagen ein wenig die Augen offen gehalten habe und dass die meisten Blogs, die ich so lese und besuche, meist eine Ladezeit von knapp 4 Sekunden und mehr inklusive aller Elemente aufweisen. Wie Google mir bereits mitteilte, war meine Seite bis vor Kurzem mit einer Durschnittsladezeit von 4,5 Sekunden je Seite (Stand Mitte März) langsamer als 65% der anderen Webseiten auf dieser Welt. Dementsprechend kann man sich vorstellen, was das für Auswirkungen auf die Suchergebnisse haben wird, wenn dies wirklich in den Pagerank einfließt.
Ich finde es schade, dass Google so lange gewartet hat, das Nexus One in Europa herauszubringen. Damit haben sie ihrem eigenen Gerät direkt den Todesstoß verpasst, denn HTC war mit seinem Nexus-One-ähnlichen Modell „Desire“ deutlich schneller und ist ohne Umwege bereits in Deutschland und anderen Ländern erhältlich.
Das Desire bietet etwas mehr RAM, mehr Speicherplatz und bessere Funktionstasten (Hardware- statt Softwaretasten), ist aber sonst baugleich und damit wird niemand mehr das Nexus One kaufen wollen, welches sich immer weiter verzögert und demnächst zumindest über Großbritannien bestellbar sein soll.
Ich benutze ja gerne Software, die nicht ganz fertig ist und im Falle von Chrome sogar die Nightly Builds, aber was sich die Jungs da jetzt so geleistet haben, stößt doch auf heftigen Widerstand. Da wurde direkt mal die Anzeige der URL in der Eingabeleiste um das Protokoll (http://) gekürzt:
Nur ist das nicht so ganz im Sinne des Erfinders, da die Leute es gewohnt sind, das Protokoll zu sehen. Ich persönlich find es ja ganz nett, da bei https-Seiten das Protokoll noch mit angezeigt wird und dadurch keine sichtbare Sicherheitslücke entsteht. Außerdem wird es laut Bugreport auch inzwischen von Apple so verbaut. Leider gibt es nur noch kleine Probleme mit der Implementierung, da in einigen Fällen beim Copy&Paste das Protokoll eben nicht mit übertragen wird, aber das sind ja alles lösbare Probleme.
Ja, so lautet das Motto des nächsten Treffen des Social-Media-Club Hamburgs.
Leider ist es so, dass ich mich direkt gefragt habe: Warum „oder“? Ist es nicht eher so, dass Social-Media furchtbar viel Potential hat, aber leider noch viel mehr heiße Luft produziert wird? Mein Gefühl sagt eher, dass nach dem „Fachinformatiker“ jetzt der „Social-Media-Berater“ als Beleidigungs-/Schimpfwort-Ablösung kommt.
Ich will hier nicht die nächste Debatte über die Zukunft und den Sinn der SM-Szene (die in der Abkürzung ja schon seit Jahrhunderten existiert) loslassen, aber wenn ich jedes Mal beim SMCHH die vielen Schlipsträger sehe, die einen Facebook- oder Xing-Account haben und meinen, sie sind dick in der Social-Media-Welt involviert, frage ich mich, ob ich mir ’ne andere Szene suche oder gründe, damit man sich diese gegenseitige Bauchpinselei bei Konferenzen, Blogs usw. endlich nicht mehr antun muss.
Tja, was soll ich sagen: Irgendwie war die re:publica nicht das, was ich mir vorgestellt hatte. Hier mal, was ich mir erwartete:
Und wer hätte es erwartet: ALLE diese Punkte konnten in keinster Weise erfüllt werden. Größter Kritikpunkt: das Internet. Schon im letzten Jahr gab es während der re:publica 2009 mehr Berichterstattung von außen (Medien) als von innen, weil niemand von innen kabellos ins Internet kam. Auch dieses Jahr ließ das WLAN schwer zu wünschen übrig. Wenn man mal das Glück hatte, per DHCP eine IP zu bekommen, bekam dann keine DNS-Anfragen raus und wenn selbst das per Google-DNS gelöst war, kamen keine Daten mehr durch oder die Verbindung brach ab. Leider kamen die Veranstalter auch nicht auf die Idee, mal ein paar Netzwerkkabel hinzuhängen, damit man mit dem Laptop wenigstens mal ein paar Flickr-Fotos hochladen konnte. Mir scheint, niemandem war dort bewusst, dass es Leute gibt, die zur Veranstaltung kamen, weil sie mit dem Bloggen Geld verdienen und u.U. ein paar Exklusiv-Artikel veröffentlichen wollten.