Tatort Internet. Hör auf zu suchen, fang an zu fragen!

In der Reihe der SWR Tele-Akademie unternimmt Geert Lovink eine kritische Google-Recherche und Catarina Katzer beschreibt die Mechanismen des Cyber-Mobbing.

[Leseempfehlung] Perspektive Bibliothek, Bd. 3, Nr. 2 (2014)

Perspektive Bibliothek
Die neue Ausgabe von Perspektive Bibliothek, Bd. 3, Nr. 2 (2014) [ISSN: 2194-8992] ist da.

 
Editorial
Apel, Jochen; Hermann, Martin: Editorial: Open Access funktioniert tatsächlich!, S.1-6. – PDF.

Artikel

Twitter als Eliteschmiede

Der Internet-Kritiker Keen, bekannt geworden durch sein Buch “Die Stunde der Stümper” zeigt sich im Spiegel-Online-Interview mit Michael Soukup geläutert.

Keen verweigert sich dem Netz nicht. Er ist selbst bei Twitter unterwegs, geht aber auch auf sehr ironische Art mit dem Internet um. So warnte Keen in seinem Buch vor einer “Diktatur der Affen” und sprach immer wieder von der “Verdummung durch Web 2.0”. Er steht dazu, ein Polemiker zu sein, der mit seiner Art von Humor Dinge und Probleme beschreibt. Dass dies missverständlich sein kann, zeigten die erbosten Reaktionen von Bloggern auf sein Buch. Dieses richtete sich gegen die enthusiastische Begeisterung bezüglich Web 2.0. Ein akademisch gehaltenes Buch wäre kaum aufgefallen und hätte keine Reichweite bekommen. Keen geht es nach eigener Aussage nicht darum, sich damit zu profilieren. Er wollte einfach nur das unendliche Geltungsbedürfnis und die neuen Fakten des Lebens aufzeigen. Es gibt eine neue Realität, die vielen nicht gefällt und die man dennoch akzeptieren muss.

Viele Leute wollen nicht bei Web 2.0 mitmachen, weil es sie nervt. Aber sie haben keine andere Wahl. Idealismus wird durch Selbstmarketing ersetzt. Künstler, Journalisten, Musiker und Autoren der alten Schule haben keine Chance mehr. Wer überleben will, muss permanent an seinem Internet-Image feilen, seine eigene Ich-Tag aufbauen.

Der Kritiker sieht im Microbloggingdienst Twitter ist ein gutes Beispiel für diese Behauptung, denn bei Twitter ist seiner Meinung nach eine neue Elite im Begriff zu entstehen. Dabei beginnt eine Hierarchie zwischen Talent und Publikum das Amateurhafte wieder zu verdrängen. Hilft Twitter das Web 2.0 zu professionalisieren?

Keen selbst sieht in seinem Blogger- und Twitterleben keinen Widerspruch zu seinen polemischen Äußerungen.

Ich bin talentiert und ein guter Verkäufer. Das Web ist für mich ein wichtiges Marketingmittel. Aber ich verkaufe wenigstens das Internet nicht als die große Demokratisierung.

In seinem Buch kritisierte er schwerpunktmäßig die angebliche Kommerzialisierung des Internets, die aber nur in den seltensten Fällen wirklich als erfolgreich zu bezeichnen ist. Wer besitzt schon Google, wohl das einzige Unternehmen, das in der Gratiskultur des Netzes, Milliarden verdient. Aber Google verdient dieses Geld durch die Verwendung freier Inhalte. Es syndiziert diese Inhalte und blendet Werbung ein, mit der das Unternehmen Milliardenumsätze generiert.

Bei Twitter zeigt sich Keens Meinung nach, dass vor allem bisherige Medienstars die meisten Follower, d.h. Leser haben. Allerdings heißt es für diese, dass sie auch ihre menschliche Seite mit ins Gewicht werfen müssen, denn das ist ein Teil der Twitterkultur.

Keen sieht im Microblogging Twitter eine Trendwende, die einen Bedeutungsverlust der Blogosphäre nach sich gezogen hat. Grund dafür ist, dass gerade die neuen Dienste die alte Hierarchie der Experten stützt. Spätestens hier muss ich beim Lesen des Interviews schlucken. Keen spricht im Zusammenhang dieser Wende von einem Web 3.0. Das Buzz-Word wird in anderen Fachkreisen nämlich mit einer weitgehenden Automatisierung des Webs, dem Semantic Web verwendet. Automatisiert werden sollen in diesem Zusammenhang die Erkennung von Bedeutungszusammenhängen von Inhalten.

Auch finde ich es ingesamt schwierig, von einer zunehmenden Bedeutung von Experten zu sprechen. Hier verkennt man die Veränderungen des Web 2.0, des Social Webs bzw. Mitmachwebs. Die vorherigen Experten des Web 1.0 waren diejenigen, die in der Lage waren, Websiten zu gestalten, Daten auf Server zu laden und ggf. die technische Seite des Computers oder Internets zu beherrschen. Auf diese Form des Expertentums reagierten die Anwendungen des Web 2.0, das jetzt jedem ermöglichte, Teil des Internets zu werden, ohne programmieren können zu müssen. Aber auch im Web 2.0 setzten sich jene durch, die sich qualitativ als Experte in einem Bereich von den anderen absetzten. Microbloggingdienste wie Twitter beschleunient diese Entwicklung nur.

Keen steht der Entwicklung in vielen Teilen weiterhin kritisch gegenüber. Eine Professionalisierung des Internets in dieser Form sieht er als positive Entwicklung an, bemerkt jedoch dazu:

Während wir als Teil der Medienelite verstehen, wie das Internet tickt, sind die meisten Menschen dem Web 2.0 schutzlos ausgeliefert. Ihnen fehlt die gesunde Portion an Misstrauen. Denn Blogs zerstören zunehmend die professionelle Informationsvermittlung. Da niemand redaktionell eingreift und Informationen auf ihren Wahrheitsgehalt prüft, verbreiten sich Fehler und Lügen im Web wie Bakterien. Wir wissen, dass auf Wikipedia vieles nicht stimmt, unseren Kindern ist das aber nicht bewusst.

Zurecht äüßert der Spiegeljournalist Soukup, dass hierin aber auch die Gefahr der Verklärung der alten Medien zu sehen sei: So wurden 2007 bei einem Vergleich von Wikipedia mit der Encyclopädia Britannica nur geringe Qualitätsunterschiede festgestellt und der Online-Brockhaus schnitt sogar schlechter als die Freie Enzyclopädie ab. Keen erkennt das eigentliche Problem in der fehlenden redaktionellen Gewichtung. Ausschlaggebend für die Länge und Genauigkeit eines Wikipediaartikels sind eher ein (Massen)Interesse als die Bedeutung eines Themas.
Keen erkennt an, dass sich aus Blogs professionelle Online-Magazine entwickeln können, z.B. TechCrunch. Hier wurden ehemals amateurhafte durch professionelle Strukturen ersetzt.

Keen relativiert in diesem Interview mehr und mehr seine eigenen Aussagen, auch wenn er 80 – 90 Prozent seiner Prognosen als eingetroffen bezeichnet. In seinem nächsten Buch will er die sozialen Netzwerke jedoch differenzierter betrachten. Eine entsprechende Aufmerksamkeit dürfte ihm nach dem ersten Rundumschlag sicher sein.

Quelle
“Bei Twitter entsteht eine neue Elite”, Andrew Keen im Interview mit Michael Soukup, via Spiegel online

Aufbau des Semantischen Webs

Gestern ist aus dem Teenager Internet ein Twen geworden und damit steigen auch die Ansprüche. Verband man sich zuerst mit dem Netz, so verbindet das Netz einen heute mit den anderen. Das Mitmachweb zeigt mehr denn je aber entsprechende Probeme im Bereich des Datenschutzes.

Web pioneer Tim Berners-Lee says he is making sure the Semantic Web will respect the privacy of online communications and allow people to control who can use their data.

Das Semantic Web, ein aktuelles vom W3C vorangetriebenes Projekt, versucht es dem Web zu ermöglichen, die Sachen intelligent zu interpretieren, die von Menschen im Netz gesucht werden.
Beispielsweise werden Computer Fotografien mit Informationsdaten verbinden und diese mit Infos von einem Desktopkalender verbinden, so dass Menschen das Web fragen können, was die Menschen auf den Fotos an einem bestimmten Tag getan haben.
Ganz umumstritten sind diese Bemühungen nicht. Forscher warnen davor, dass die Kombination solcher persönlichen Informatinen zu Verletzungen der Privatssphäre führen. Außerdem befürchten sie die Zunahme von Data Mining.

Sir Berners-Lee, Direktor des W3C, berichtete diese Woche dem ZDNet UK, dass zur Zeit Team an einem Semantic Web Projekt arbeiten, welches Prinzipien des Schutzes der Privatssphäre in die Architektur des Semantic Webs zu integrieren.
Berners-Lee geht davon aus, dass Semantic Web Technologie sicherlich die Privacy verbessern wird.

“The Semantic Web project is developing systems which will answer where data came from and where it’s going to–the system will be architectured for a set of appropriate uses.”

Menschen fragen immer wieder nach persönlichen Daten, um herauszufinden, was Firmen oder Ämter über sie wissen. Daher ist ein weiteres Prinzip des Semantic Web, dass diese Menschen in der Lage sein sollen, alle die Daten dieser Oranisationen einzusehen.

Das W3C möchte mit dazu beitragen, dass die Datennutzung sachgemäß erfolgt. Aber manchmal ist es schwierig zu entscheiden, wer zur Information zugangsberechtigt ist.

In addition, the project will include accountable data-mining components, which let people know who is mining the data, and its teams are looking at making the Web adhere to privacy preferences set by users.

Das ganze Projekt ist auf eine Verbesserung der Privacy ausgellegt. Die Teams arbeiten am Aufbau von Systemen, die die unterschiedliche Nutzung von Daten beachten.

ZDNet UK sprach mit Berners-Lee at auf einer Veranstaltung Englands House of Lords, welche die Aufmerksamkeit auf die Analyse von “deep-packets” durch Internetprovider und durch Dritte lenken sollte. Mit der Technik werden Datenpakete abgefangen, die über das Internet versendet werden, um ihren Inhalt zu analysieren. Berners-Lee vergleicht das mit dem Postservice, der ja auch Postlieferungen öffen darf.

“When people built the Internet, it was designed to be a cloud,” said Berners-Lee. “When routing packets, the system only looks at the envelope–it’s an important design principle. Now people find out what you write in your letters.”

Quelle:
Espiner, Tom: Berners-Lee: Semantic Web will build in privacy :engl: via ZDNet UK

Willkommen bei Web 10.0

Jeder, der den inflationären Gebrauch von Web 2.0:engl: , “irgendwas x.0” fleißig bemängelt hat, kann aufatmen.
Jetzt gibt es ein Zeitbarometer, wie lang uns dieses bei Web x.0 noch verfolgen wird und welche Entwicklungen zu erwarten sind . Der Hype um Web 2.0 :engl: endet spätestens 2010, weil uns dort dann Web 3.0 erwartet. Bis dahin haben wir offiziell das Semantic Web und erwarten unseren ‘personal search agent’.

Quellen:
Cade Metz: Web 3.0 :engl: PC Magazine
Nova Spivack: How the WebOS Evolves?:engl: via ‘Minding the Planet’
Nova Spivack: The Third-Generation Web is Coming:engl: via ‘KurzweilAI.net’