Geschichte des Internet

Posted by Julia Werner  • 

Die wichtigsten Trends von Web3.0 für SEOs

Web3.0 ist längst nicht nur ein Schlagwort, es ist die Zukunft des Internets. Neben Webseiten mit komplexen Funktionen und neuen Möglichkeiten gibt es aber auch viele Innovationen in der Suchmaschinenoptimierung. Welche Google-Update im Rahmen von Web3.0 zu beachten sind und was sich in diesem Zuge für SEO-Agenturen ändert, haben wir für Sie zusammengefasst.

Was ist Web3?

Die 3. Generation des Internets wird von mehreren Trends gekennzeichnet, die alle ineinandergreifen. Der entscheidende Unterschied zwischen Web2.0 und Web3.0 ist, dass die Daten sehr viel stärker privat und eingeschränkt sind, da sie nicht nur von der Tech-Industrie sondern auch von Regierungen kontrolliert werden, sowie von internationalen Konzerne mit politischer Agenda. Im Gegensatz zu den früheren Web-Generationen, wo die Menschen entscheiden konnten, was sie zu sehen wünschten und Informationen im Internet frei verfügbar waren, gibt es einige Mächte, die nach mehr Kontrolle über die Dat en auf dem Internet und den Menschen suchen.

Welche Vorteile werden uns durch Web3.0 geboten?

Web3.0 steht für den dritten Revolution, die Online-Welt und das Internet von heute. Ganz neue Technologien wie BigData, Künstliche Intelligenz oder Blockchain machen es nicht nur Marketingern leichter, die Kosten zu senken, sondern auch schwierige Aufgaben mit mehr Effizienz zu lösen.

Warum ist Web3 wichtig?

Web3.0 ist nicht nur ein Schlagwort. Es ist die Zukunft des Internets und der Suchmaschinenoptimierung. Web-Techniken werden unseren Alltag revolutionieren, also seien Sie bereit für Künstliche Intelligenz, Blockchain oder den neuen Suchalgorithmus von Google – RankBrain. Web3.0 ist ein zentraler Bestandteil der künftigen Nutzererfahrungen, denn es erschafft neue Geschäftsmodelle und bietet neue Umsätze. Als Web 3.0 gekennzeichnet wird die Evolution von Internet, Telekommunikation und IT. Das bedeutet, dazu gehören Neben der Erschaffung von nicht-linearen Erlebnissen (Echtzeit-Streaming) auch die Möglichkeiten, über digitale Lösungen Kontakt zu den Menschen aufzubauen.

Von Web3 überholt!

Gehen wir einfach mal davon aus, die Welt werde zunehmend vernetzter und die Menschen verwenden mehr und mehr Technologien. Das bedeutet also, dass Web3 – also die dritten Version von Internet-Technologie, auch als Web 3.0 bezeichnet – auf jeden Fall ansteht.

Selbstverständlich ist es nicht so, als ob alles besser oder gleich sein wird. Web 3.0 bringt neue Gefahren mit sich, etwa die Gefahr der Totalüberwachung. Zwar werden die Menschen mit dem Internet verbunden sein, aber die Kontrolle über die Daten liegt nicht bei den Nutzern. Das ist noch einmal eine ganz andere Entwicklung. Aber ein Ende des Internets oder dessen technologischer Entwicklung ist jedenfalls nicht in Sicht.

Web3 der Google Killer?

Wenn Sie ein neues Produkt, wie zum Beispiel Google, verkaufen wollen, ist es in der Regel am einfachsten, die Konkurrenz zu schlagen. So ähnlich sieht es auch bei Web3 aus. Viele SEOs gehen davon aus, dass Web3 die größte Bedrohung für Google sein könnte. Web3 ist das Netzwerk, mit dem Blockchain Technologie umgesetzt wird. Neben Bitcoin und Ethereum ist ein typischer Dienst von Web3 die Verwaltung von Kryptowährungen. Die Idee hinter Web3 kann man in etwa so ausdrücken: Eine Welt, in der alle Transaktionen auf einer öffentlichen Datenbank abgespeichert sind und niemand weiß, welche Person hinter welcher Adresse steht. Doch damit nicht genug: Im Rahmen von Web3 gibt es Pläne entsprechende Software-Lösungen zu entwickeln, um jegliche Daten und Transaktionen zu anonymisieren. Mit den heute verwendeten Diensten kann man zwar anonym surfen, aber sobald Transaktionen stattfinden, ist es in der Realität unmöglich, den Gegenstand einer Transaktion nicht zu verraten.

Werden Suchmaschinen mit Web3.0 überflüssig?

Web3.0 ist eigentlich ein Konzept, das die Entwicklung der Netzwerke betrachtet und bei dem technischen Fortschritt mitdenkt. Es schaut also darüber hinaus, was bereits existiert und sucht nach Möglichkeiten für die Zukunft. Die SEOs müssen sich entscheiden, ob sie an dieser Entwicklung teilhaben wollen oder nicht – Web3.0 kann dazu beitragen, Suchmaschinen überflüssig zu machen, da es eine Welt der Kommunikation ohne Suchmaschinen anbietet.

Welche Vorteile werden uns durch Web3.0 geboten?

Es besteht kein Zweifel, dass die digitale Welt immer komplexer wird. Der Trend läuft in Richtung Innovationen. Web 3.0 ermöglicht es einem auf den aktuellsten Stand zu bleiben und zu entscheiden welche Entwicklungen am meisten nützlich für Sie sein könnten. Die Vorteile von Web3.0 liegen in den neuen Technologien, die es erlauben, Daten viel schneller zu sammeln und zu analysieren. Die neue Verteilung von Daten und Informationen über das Internet ermöglicht es Unternehmen, Kosten zu sparen und bessere Marketingkampagnen durchzuführen.

Was bringen die neuen Technologien von Web3.0 für SEOs?

Web 3.0 bietet eine Reihe von neuen Möglichkeiten für SEOs. Die Technologien, die nun in den meisten Browser-Versionen ankommen, wie zum Beispiel IndexedDB oder LocalStorage, geben SEOs endlich die Möglichkeit, Datenschutz- und Privatsphäre-Aspekte zu berücksichtigen. Vorrangiges Ziel von Web3.0 ist es, ein freies Netzwerk zu erschaffen, welches die behördlichen und kommerziellen Datenmonopole ad acta legt. In diesem Prozess werden Kontrolle und Privatsphäre der Nutzer ebenso gefördert. Die Welt des Internets wird so transparent gemacht, dass jeder immer weiß, wie die Quelle für seine Informationen aussieht.

Wie SEOs mit Web 3.0 umgehen sollten

Es gibt zwei wesentliche Themen, die SEOs in den nächsten Jahren betreffen: Mobile-First-Strategien und Content Curation. Die meisten Menschen, die sich mit Web 3.0 beschäftigen, gehen davon aus, dass ein neues Konzept entwickelt werden muss, um die Bedürfnisse der Nutzer anzupassen. Daher erscheinen mobil optimierte Seiten sowie Inhalte macher als gute Ansatzpunkte für SEOs.

Warum Web 3.0 den SEOs das Leben schwer macht

Die wichtigsten Trends aus Web3.0 machen SEOs aber nicht unbedingt glücklich, da sie diese zwingen, sich geänderten Aufgaben zu stellen und neue Techniken zu lernen. Cloud Computing und big data machen das Internet so leistungsstark wie noch nie. Neue Techniken eröffnen völlig neue Möglichkeiten in Bezug auf den Zugriff auf Informationen. Die komplexeren Strukturen von Web3.0 wie beispielsweise Blockchain-Technologien bedeuten, dass es schwieriger wird, einen soliden Status in der Suchmaschine zu erreichen. Die ursprünglichen Standards und Gesetze vom Web 2.0 werden immer seltener genutzt, um den Status zu festigen. Außerdem ist die Verfügbarkeit von Daten aus der Cloud und anderen Quellen für SEOs reduziert worden.

Content Marketing & Social Media

Die meisten Menschen beginnen ihren Tag mit dem Lesen von Nachrichten, in denen die wichtigste Informationsquelle Text ist. Das bedeutet, dass Content Marketing eine großartige Möglichkeit ist, um für Ihr Unternehmen Aufmerksamkeit zu erregen. Seit Jahren wird in den SEO-Kreisen über Content Marketing diskutiert. Die Achtzigerjahre des letzten Jahrhunderts gaben dem Begriff seinen heutigen Klang. Damals versuchte man mit qualitativen Inhalten wie lesenswerten Texten, Bildern und Videos, die Webseite bekannter zu machen. Dennoch gibt es einige Dinge, die sich durch Web3.0 verändert haben – oder besser gesagt: worauf SEOs achten sollten.

Algorithmen und Semantic Search

Algorithmen, die entsprechend der tatsächlichen Bedürfnisse eines Nutzers ausgewertet werden, sind nicht nur in Bezug auf SEOs von Interesse. Durch Algorithmen-basierte Suchen können Nutzer das finden, was sie suchen, ohne die Hilfe eines Suchmaschinen-fachmanns überhaupt nötig zu haben. Algorithmen gehen immer mehr in die Kategorien von Wissenschaft, Statistik und Mathematik, während semantische Suche nach dem für uns Menschen visuell erkennbaren Kontext sucht. Algorithmen können beispielsweise solche Bilder und Videos durchsuchen, die zu einem bestimmten Thema passen. Semantisches Scannen funktioniert über Metadaten wie Titel, Beschreibung und Tags.

Die interne Linkstruktur ist eine der wichtigsten Werkzeuge, um die User Experience zu verbessern. Durch den Einsatz von Dokument-Metadaten in HTML5 können Sie Ihre Links strukturieren. Auch interne Links sollten über das Thema des Artikels hinausgehen und die Struktur von Ihrem Netzwerk aufzeigen. Außerdem ist es notwendig, die User Experience zu verbessern – so tun Sie etwas Gutes für Google.

Die wichtigsten Trends von Web 3.0 für SEOs

Web 3.0 ist vor allem ein Zukunftstrend, der ganz neue Technologien beinhaltet, die den Alltag von uns Menschen verändern werden. Es gibt keine klaren Grenzen mehr zwischen privatem und beruflichem Leben oder zwischen Menschen und Maschinen. Alles ist vernetzt und alles ist möglich.

Web 3.0 Trends

Diese vier Trends machen einen Besuch auf Web 3.0 unumgänglich: smart devices, web of things, artificial intelligence, blockchain. Der Trend zu vernetzten Geräten: Viele Websites und Web-Applikationen sind mittlerweile auf die Verbindung mit weiteren Geräten angewiesen. So können Sie nicht nur auf einem Smartphone lokale Informationen abrufen, sondern auch automatisch Daten in Form von Sensordaten erfassen.

AI-Programmierung: viele der neuentwickelten Programme für die Internetnutzung sind nun intelligent. Das bedeutet, dass die Programmierer keine speziellen Anweisungen me

Der wichtigste Trend: Die künstliche Intelligenz

Die künstliche Intelligenz ist ein entscheidender Trend, der nicht nur SEOs interessiert. Sie wird in naher Zukunft weite Bereiche unseres Lebens beeinflussen. Der Google-Makler Ray Kurzweil prognostiziert, dass die heutigen Softwaresysteme in 20 Jahren menschliches Denken übertreffen werden. Künstliche Intelligenz wird auch in der Suchmaschinenoptimierung eingesetzt. Die Entwicklung der künstlichen Intelligenz ist der wichtigste Trend des Web3.0 und hat entscheidende Auswirkungen auf die Optimierung von Suchmaschinen-Marketing. Das Ziel eines jeden SEOs ist es, digitale Waren oder Dienstleistungen für seine Kunden als Erster zu finden. Um dieses Ziel zu erreichen, muss man die Schritte von Google erkennen und alle passenden Maßnahmen ergreifen. Die künstliche Intelligenz ist der wichtigste Trend von Web3.0. Die AI wird immer besser und hat in Zukunft eine große Wirkung auf SEOs. Sie kann Texte für Websites schreiben, die Inhalte kopieren, moderieren und vieles mehr. Diese Technologie ist vielseitig und setzt sich weltweit durch.

Vernetzte Welt

Unter Web3.0 versteht man eine vernetzte Welt, in der Menschen, Geräte, Sensoren und Daten vollständig miteinander vernetzt sind. Die neuen Technologien werden hier entscheidend sein. Genauer gesagt sind es die verschiedenen Technologien in diesem Bereich, die dabei helfen sollen, einen besseren Überblick über unsere Umwelt zu bekommen. Denn immer mehr Dinge werden online vernetzt und damit auch für uns nutzbarer. Es ist auch ein Trend, der die Art unserer Beziehungen zu Menschen und Informationen nachhaltig verändern wird. Das ist sehr positiv für SEOs, weil es entscheidende Änderungen in der Technologie geben wird. Die technischen Veränderungen im Internet erlauben es uns eine Vielzahl von Daten im Web zu analysieren, zu strukturieren und zu analysieren. Diese Fähigkeit erfordert völlig neue Ansätze – bestehende Technologien (z.B. Datenbankprogramme) werden dazu nicht mehr ausreichen.

Tool Tipp für Web3

Ein weiteres Tool unter den Top Tools von Web3.0 ist die nutzbare Suchmaschinen-Technologie Rankbrain. Dieses System ist in der Lage, das Klicken von Nutzern auf Internetseiten zu verfolgen und erkannte Wiederholungsanfragen automatisch zu entsprechen. Es liefert beispielsweise einen Index der Möglichkeiten entsprechend der gewünschten Suchen anhand des vorherigen Klickverhaltens.

Internet-Marketing & Web3

Bei der Analyse von Web 3.0-Trends, die für SEOs wichtig sind, sollte vor allem das Internet-Marketing geprüft werden. Die neue Generation von Internetnutzern, die mit Web 3.0 aufwachsen, erwartet viel mehr als nur traditionales Marketing und damit ist das Online-Marketing weniger relevant für diese Zielgruppe. Dennoch gibt es weiterhin eine Reihe von Chancen für diejenigen, die in der Lage sind, mit den neuesten Technologien zu schalten, sodass sie diese für ihre Zwecke nutzbar machen können. Die neue Welt des Internets ist einfach nicht mehr allein mit traditionellen Marketingstrategien zu erklären. Wo soll man da beginnen? Vielleicht beim Internet-Marketing, das langsam aber sicher in die Jahre kommt. Die Gründe dafür liegen in der wachsenden Unabhängigkeit von Computern (Mobile) sowie dem exponentiellen Wachstum von Datenvolumen, welches den Suchmaschinenoptimierungsprozess herausfordert, zumal auch die Aufmerksamkeitsspanne im Web kontinuierlicher abnimmt.

Web3 und Rankbrain

Google in die notwendigen Veränderungen eingeweiht, damit Web3 und Rankbrain zusammenarbeiten können. Das heißt, sollten Sie Ihre Website auf diese beiden Trends vorbereiten, dann sind Sie für die Zukunft gerüstet. Die ersten Websites, die auf diese Weise rankten, haben schon beachtliche Erfolge erzielt. Als Web3 wird die dritte Generation des Internets bezeichnet, welches auf einer Blockchain-Technologie basiert. Rankbrain ist ein Algorithmus von Google, der seit Oktober 2015 verwendet wird und als Teil des Hummingbird-Updates fungiert. Web3.0 ist die nächste Phase der Entwicklung vom Internet, welche auf den Technologien Blockchain und Machine Learning basiert. In diesem Web3.0 werden es Suchmaschinen wie Rankbrain übernehmen, die Suchergebnisse zu personalisieren. Das heißt, dass Suchmaschinen menschlichen Einfluss verringern, weil sie aufgrund von Algorithmen versuchen werden, die individuellsten Ergebnisse für einen Nutzer zu liefern.

WEB 3.0: Was ist das WEB 3.0? Grundlagen, Informationen und die wichtigsten Eckpunkte

Web 1.0 die erste Generation.

Die erste Generation des Internet begann wie ein großer Rausch, der dann in einem Kater

endete. Die faszinierende Vision war: Wissen und Informationen konnten online rund um die Uhr zur Verfügung gestellt werden. Kunden und Nutzer können ungeachtet von Öffnungszeiten, Beratungsterminen und ortsgebundenen Filialen jederzeit erreicht werden. Eine Homepage oder ein Portal genügt und die ganze (online)Welt steht offen. Online-Banken und Online-Versicherungen entstanden und sie hatten das Potential, die ganze Finanzbranche umzukrempeln. So lief vor dem Web 1.0 zum Beispiel in der Finanzbranche der Aktienhandel über so genannte Broker, die Kleinanleger gar nicht bedienten. Das Web 1.0 öffnete die Welt der Börse allen Anlegern, auch für Kleinstanlagebeträge.

Auch die Medienbranche wurde revolutioniert. Fast alle Zeitungen stellten online Ausgaben ins Netz, (die Geld kosteten, aber den Printausgaben der Zeitungen nur wenige neue Leser brachten). Die Netzeitung ist die wohl bekannteste Online-Zeitung aus dieser Periode. In dieser großen Zeit der New Economy stiegen online Firmen über Nacht aus dem Nichts auf und brachten mit fantastischen Geschäftsstories Börsianer um den Verstand.

Web 1.0 war dennoch (besonders aus heutiger Sicht) von Passivität geprägt, was mit der damaligen Technologie zu tun hat: Die Modems waren langsam, die Websites bauten sich nur mühsam auf, das Surfen kostete Zeit, lohnte aber doch, weil man sich rund um die Uhr informieren konnte - über Reiseziele, Nachrichten, Theaterprogramme etc. Mehr als sich Information zu holen, war im Web 1.0 nicht drin.

Fast: Denn im Juli 1995 ging das von Jeff Bezos gegründete Online-Versandhaus online (in Deutschland seit 1998 als amazon.de).1 Nach eigenen Angaben ist

Amazon heute weltweit Marktführer im Internet für Bücher, CDs und Videos und setzte 2006 10,7 Milliarden Dollar um. Amazon setzt eine auf Perl2 und HTML::Mason basierende Architektur ein und ließ sich den Vorgang der Bestellung mit nur einem Klick, die auf der Cookie-Technologie3 basiert, in den USA patentieren. Rund um die Uhr Bücher bestellen und aus einem „virtuellen Regal“ Bücher aussuchen und Autoren recherchieren zu können, das war schon mehr als jede noch so große Buchhandlung zu bieten hatte. Der Buchhandel reagierte auf Amazon bald sehr panisch. Ähnlich wie bei kleinen Reisebüros kam die Angst auf, dass zunehmend mehr Kunden den bequemen Weg über die Internet-Bestellung wählen.

10 bis 15 Prozent des Buchhandelsumsatzes gehen heute tatsächlich über den Online-Handel.

Amazon ist allerdings ein Beispiel dafür, wie sich der Übergang zu Web 2.0 schleichend vollzieht. Denn der Amazon Kunde ist nicht mehr passiv: Er kann die Bücher bewerten und Sterne als Qualitätssiegel abgeben. Er kann auch eigene, gebrauchte Bücher auf Amazon verkaufen, wie ein Antiquariat, und er kann über die Verlinkung der eigenen Homepage auf Amazon sogar Geld mit dem Verkauf von Büchern auf Amazon verdienen. Ebay, das weltgrößte Online-Versandhaus, das ebenfalls das Zerplatzen der Blase überlebte, funktioniert ähnlich: Die Käufer sind auch Verkäufer. Die Kunden-Bewertung ist das, was man user generated content nennt: Die Marktteilnehmer bewerten sich gegenseitig, was zusammengenommen eine von den Usern selbst hergestellte Information über die Seriosität der Anbieter liefert.

Web 2.0: das Web zum Mitmachen.

Web 1.0 war noch traditionell: Informationen gingen vom Sender zum Empfänger. Aber wieder sorgen insbesondere neue Technologien dafür, dass das Web 1.0 allmählich zum Web 2.0 heranwächst. Die Technologien sind: Das Breitband Internet (DSL, VDSL), der Browser, mp3, Streaming-Technologien, die Audio- und Videodaten über einen PC empfangbar machen (Web Radio und Web TV).

Wir schreiben das Jahr 2004, als der Internet-Pionier Tim O’Reilly auf einer Konferenz den Begriff Web 2.0 für diesen Wandel im Internet prägt. Web 2.0 steht für Mitmach-Internet.4 Jeder kann Produzent und Konsument von Informationen sein. Jedermann kann seine eigene Zeitung (Blog Tagebuch) oder seinen TV Sender (Podcast) etc. betreiben bzw. Bilder ins Netz stellen und sich mit seiner Peer-Group (Myspace, youtube) austauschen.

Dadurch gewinnt das Internet weiter an Attraktivität und wird für die Werbewirtschaft zunehmend interessant, die dort um Aufmerksamkeit wirbt, wo die potentiellen Käufer hinwandern. In der Web 1.0 Welt wurde die Online Werbung noch nach der Zahl der Seitenbesuche abgerechnet, ganz so, wie das bei den so genannten Tausender Kontaktpreisen (TKP) in der traditionellen Presse funktioniert. Ob der Betrachter die Werbung überhaupt registrierte, war egal, weil nicht überprüfbar. Das ist im Mitmach Web 2.0 anders, denn die Technologie ermöglicht es, die Kosten streng nach Klick abzurechnen. Ein Hersteller/Anbieter zahlt nur für Interessenten, die wirklich auf die Adwords oder Werbebanner des Werbenden klicken (und muss sie dann auf der eigenen Homepage zum Bleiben - und Kaufen überzeugen).

Teilnahme und Mitmachen lösen das alte Prinzip der Anbietens und Veröffentlichens ab. Das gilt auch für Wikis - benannt nach dem online Lexikon Wikipedia, wo User unentgeltlich die Lexikoneinträge schreiben und sich gegenseitig (bis zum Edit-War) korrigieren. In seinem Buch „The long Tail“ behauptet Anderson, dass das Entstehungsprinzip der Wiki-Beiträge nach dem Prinzip der Wahrscheinlichkeitsrechnung funktioniert wie auch der Google- Algoritmus zur Suche nach relevanten Treffern für ein Suchwort dieses Prinzip zugrunde liegt.

Heute sieht der Umfang der Online-Welt so aus:

- 1 Mrd. im Internet

- 200 Mio. bloggen weltweit

- 1,4 Mio. Blogger in Deutschland (TNS infratest)

- rd. 2 Mio. Mitglieder auf OpenBC Xing

- 3,8 Mio. Wikipedia-Artikel

- Technorati scannt rund 55 Mio. Blogs

Eine wichtige Rolle für die Medien (und auch für die Werbewirtschaft) spielt der Internet- Gigant Google. Die bekannteste und meistgenutzte Dienstleistung von Google ist die Volltextsuche von Dokumenten im World Wide Web. Das Web 1.0 war noch geprägt von vielen, vielen Websites, deren Qualität nur durch eigene Recherche erkennbar war. Google schuf mit seinem Such-Algorithmus einen Filter, der die Qualität von Websites automatisiert erkennt und wie ein Treffer-Ranking sortiert. Google kam bei den Usern gut an, weil andere Suchmaschinen wie Yahoo keine gleichwertigen Qualitätsfilter und somit Suchergebnisse bei der Eingabe von Suchbegriffen liefern konnten. Der Siegeszug von Google hat zudem mit der Geschwindigkeit zu tun, mit der Google hunderttausende „Treffer“ in Zehntelsekunden auswirft. Was Google bis heute der Konkurrenz voraus hat, ist eine unglaubliche Rechnerkapazität: Dateien und Dokumentenkopien, die Tausende Google-Robots auf

Milliarden von Websites indizieren, legt Google auf verschiedenen Rechnern ab und kann Anfragen deshalb sehr schnell beantworten, da die Einzelinformationen parallel gelesen werden.

Hauptfaktor bei der Gewichtung der Suchergebnisse ist die so genannte Linkpopularität.

Dahinter steht der Gedanke, dass interessante Websites öfter gelesen und verlinkt werden als schlechte. Die Linkpopularität wird im PageRank gemessen, benannt nach Google Mitgründer Larry Page. Je mehr Links existieren und je höher der PageRank der hierauf verweisenden Dokumente ist, desto höher fällt entsprechend der Wert des Dokuments aus, auf das verwiesen wird. Der vollständige Algorithmus zur Ermittlung der Linkpopularität wird jedoch von Google geheim gehalten (wie die Coca Cola Brauseformel), um erstens ein Kopieren der Dienstleistung zu verhindern und um zweitens das Geschäftsmodell der Werbevermarktung nicht zu gefährden. Denn jeder Website-Besitzer könnte seine Site den Auswahlkriterien von Google anpassen. Das machen heute professionelle Suchmaschinen Optimierer. Wer mit seiner Homepage nicht auf Seite eins bis drei beim Suchergebnis auftaucht, wird von 80 Prozent der User nicht mehr wahrgenommen. Beispiel: Ein Londoner Hotelier muss sich etwas einfallen lassen, um bei den Suchworten „London Hotel“ auch vom Kunden vorn unter den ersten 30 Treffer-Ergebnissen in Google gefunden zu werden.

Google, die wohl einzigartigste Börsenstory des Internet-Kapitalismus, versucht diese Optimierung an den Google-Algorithmus als „Manipulation“ in den Geruch des Unmoralischen zu rücken. Wer Googles Geschäftmodell unterläuft, soll ausgeschlossen (delisting) werden. Bei BMW ist dies vor einiger Zeit passiert. Der deutsche Autohersteller hatte so genannte Landing pages gebaut, (Linklisten von BMW-freundlichen Sites, die von den Google Robots nicht als solche erkannt wurden) und online gestellt, um sich im Suchmaschinen-Ranking vorn zu platzieren. Daraufhin nahm Google die BMW Homepage kurzfristig vom Netz. Dem BMW-Verkauf übers Internet drohte ein Umsatzverlust, solange die BMW-Homepege in Google nicht zu finden ist.

Die Streichung aus dem Google-Index wäre an sich hinzunehmen, denn Google ist ein privates Unternehmen, das seine allgemeinen Geschäftbedingungen selbst bestimmen kann. Da Google jedoch in Europa einen Marktanteil bei Suchmaschinen von nahezu 90 Prozent hält, droht die Gefahr, dass Google die Informationsbeschaffung im Internet monopolisiert.

Wer im Google-Ranking nicht unter den ersten 30 Treffern auftaucht, findet in der Online- Welt nicht statt. Viele User/Unternehmen nehmen deshalb den Google-Algorithmus nicht wie gottgegeben hin, sondern versuchen, die eigene Homepage zu optimieren (Suchbegriffe im Dokumententitel, Überschriften oder im Ankertext, Verlinkungen von gekauften Websites).

Das Google Monopol ist deshalb ein ernstzunehmendes Problem in der Web 2.0 Welt. Denn der von Google behauptet Qualitätsstandard seiner Suchergebnisse besteht nur scheinbar. Das gilt besonders für intellektuelle, wissenschaftliche und politische Inhalte. Die Popularität etwa eines Artikels eines Ökonomie-Professors über Inflation, der oft angelinkt wird, hat nichts mit der wissenschaftlichen Qualität dieser Arbeit zu tun. Eine Untersuchung des Handelsblatts zeigt, dass die Professoren mit dem höchsten wissenschaftlichen Renommé nicht automatisch die populärsten sind. Deshalb werden ihre Homepages auch nicht automatisch am meisten besucht - eher das Gegenteil ist der Fall: Die meiste Linkpower haben nicht die besten, sondern die populärsten Sites. Der Zusammenhang zwischen Popularität und Qualität ist zwar vorhanden, deckt sich aber nicht.

Ein Zugeständnis von Google an der Vorwurf der schlechten Qualität ist, dass das erste

Suchergebnis eines Suchwortes (etwa nach einer bestimmten Person) in der Regel dessen eigene Homepage ist, auch wenn diese weniger PageRank, also Linkpopularität, enthält als andere Seiten. Damit wird zugestanden, dass die meisten User sich zunächst für die Homepage ihrer Suche interessieren und dann für Sites drum herum. Diese Homepage ist aber nicht per Google-Algorithmus an die erste Ranking-Stelle gesetzt, sondern wird von Google unter Umgehung des eigenen Algorithmus dorthin gestellt.

Zudem hat die Google-Formel Schwierigkeiten mit dem Kriterium Neuigkeit, die aber wichtig für viele User ist. Die populärste Site muss nicht die aktuellste sein. Wer etwa den neuesten (und fundiertesten) Artikel über Inflation lesen will, wird mit dem populärsten (auf dem sich vielleicht Politiker äußern, die oft verlinkt werden) schlecht bedient. Wer das Theaterprogramm von heute haben will, fängt nichts an mit der populärsten Inszenierung dieses Theaters vor drei Jahren.

Bei Google News wird zwar in diesem speziellen Filter nach Aktualität gerankt, aber die Meinung der Web 2.0-Enthusiasten trügt bislang, Google könne den Print- Informationsbereich (Zeitungen, Zeitschriften) massiv ablösen oder mit Google News den etablierten Journalismus eliminieren. Es hat derzeit eher den Anschein, dass der online- Journalismus (also das Abwandern der Nachrichten, was mit einem Sterben der Verlags- und Zeitschriftenhäuser verbunden wäre) bei etablierten Medien wie spiegel-online, bild-online, welt-online etc seine Heimat behält.

Auch die Blogger-Szene tritt auf der Stelle. Zwar nehmen die Blogs zu, aber die wenigsten finden einmal den Weg in die etablierte Medienwelt, die die Themanagenda setzt und die Meinung bildet. Über Leser-Reporter und an die Redaktion gebundene Blogger bereichern manche Zeitungen (WAZ-Konzern) ihren redaktionellen online-Auftritt und wenn sich Meldungen wie beim Rücktritt von Kleinfeld als Siemens Vorstandsvorsitzender überschlagen, findet online ein packendes Wettrennen statt, wer eine News als erster hat - kein Blogger hat bei der Siemens Neubesetzung der Vorstands auch nur eine relevante News beigesteuert. Wie bei den meisten Nachrichten sind es immer noch die etablierten Journalisten, die die Top-Nachrichten liefern. Blogger bleiben marginal, machen das Nachrichtenwesen allerdings bunter und unberechenbarer - auch nutzbarer für PR-Strategien über Bloggs und für Manipulationen/Kampagnen. Eine Folge wird sein, dass die Qualitätsanforderungen für den Profijournalismus steigen, was dem Medium letztlich hilft.

Viele onlinejournalistische Angebote bestehen aus blankem Text und nutzen die breitbandigen Möglichkeiten des Web (DSL, Podcast etc) gar nicht. Oft sind sie nur Füllmasse für kommerzielle Internetportale, die wie Anzeigenblätter ihre Seiten mit Nachrichten füllen - was legitim ist, aber nicht unbedingt den Journalismus voranbringt. Der Copy and Paste Journalismus erfüllt oft die Kriterien für die Transparenz der Quellen nicht, Meinung wird mit unbelegten Tatsachenbehauptungen vermischt, Recherche weit mehr als beim Offline-Journalismus sträflich vernachlässigt. Oft stammen Informationen wie im klassischen Journalismus aus Agentur- und Pressemeldungen, werden unhinterfragt übernommen und spätere Richtigstellungen oder Dementis von diesen verpasst. Für die User intransparent ist auch die mehrfache Aktualisierung eines Online-Beitrags, sodass nicht mehr erkennbar ist, wie die ursprüngliche Information im Laufe des Tages verändert wurde und warum. Andererseits nutzen die Profi-Journalisten heute die Möglichkeiten des Web stärker denn je. Die Welt hat das Prinzip Online-first ausgegeben. Die Neue Nachricht wandert ins Web und dann je nach Bedeutung in die Tageszeitung. Dagegen stehen die Blogger insgesamt etwa bei Themen aus der Politik in der deutschen Blogger-Statistik unter ferner liefen.

[...]

1 URL:

2 = freie, plattformunabhängige und interpretierte Programmiersprache

3 = ist ein kurzer Eintrag in einer meist kleinen Datenbank

4

Geschichte des Internet

7 Milliarden Menschen leben heute. Fast 95% davon nutzen in irgendeiner Form das Internet: Sei es in Internetcafés in der 3. Welt oder high speed Hubs in Silicon Valley. Unsere Welt könnte ohne das Internet nicht mehr funktionieren. Ökonomie, Handel, Politik, Gesellschaft, Kultur, Medizin, Medien, Bildung und Kooperation zwischen Nationen und Menschen wäre ohne das Internet nicht machbar. Globalisierung wurde durch das Internet immens beschleunigt.

Wie kam es dazu? Woher stammt dieses Netz, das uns alle verknüpft und verbindet?

Es fing an, mit einer Idee. Wie so viele technologische Innovationen wurde es aus einer Notwendigkeit des Krieges erfunden. In diesem Fall war es der Kalte Krieg zwischen den USA und Russland. Als Russland 1957 erfolgreich den ersten Satelliten – Sputnik – ins All schickte wurde es den USA klar, dass Russland auf der technologischen Front die Überhand zu gewinnen drohte. Das konnte Amerika nicht hinnehmen und entwickelte eine Initiative um die innovative Oberhand zurückzugewinnen – APRA war geboren. APRA steht für Advanced Project Research Agency und war damit beauftragt mittels neuen Methoden wie Computern, Amerika zu technologischen Durchbrüchen zu bringen. Da diese Supercomputer aber in ganz Amerika verteilt waren, wurde es langsam notwendig, diese verschiedenen Teams und Arbeiten zu vernetzen. APRANET war die Antwort.

Ein weiterer Meilenstein des modernen Internets war in der Schweiz. Als die Entwicklung und der wissenschaftliche Durchbruch in CERN zu immer grösseren Fortschritten führte, musste eine Möglichkeit gefunden werden, diese Datensätze mit anderen Wissenschaftlern weltweit zu teilen. Aus diesen ersten Ansätzen wurde 1989 das Worldwide Web von Tim Berners-Lee, einem Britischen Wissenschaftler in CERN erfunden. Er entwickelte die Grundbausteine Internet, die noch heute genutzt werden, wie beispielsweise die Sprache HTML, http und URLs. Obwohl das Worldwide Web nie ein „offizielles“ Projekt in CERN war, fand es dort seinen Ursprung. Eine grundlegende Eigenschaft der Idee war, dass sie demokratisch sein sollte: Es musste jedem Menschen ohne zusätzliche Kosten und ohne um Erlaubnis fragen zu müssen zugänglich gemacht werden, so die Philosophie von Berners-Lee. Diese grundlegenden philosophischen Aspekte bilden noch heute einen wichtigen Bestandteil: Es darf zum Beispiel in Regierungen keinen „kill switch“ geben, der den Internetzugang behindert, oder es einer bestimmten Gruppe unmöglich macht, das Internet zu nutzen und Informationen zu verbreiten.

In dem Jahrzent das folgte, entwickelte sich dieses Netz zu einem der wichtigsten Bestandteile des heutigen Lebens – dem Internet.

Web 1.0

Diese ersten Ansätze der internationalen Kommunikation zwischen Computern, brachten in den 90er Jahren grosse Änderungen mit sich, die jedoch klein anfingen. Die ersten Internetnutzer waren Wissenschaftler, das Militär, die Regierung und grosse Firmen. In der Mitte des Jahrzehnts wurde das Web jedoch auch für private Nutzer immer mehr zugänglich. Mit der Einführung von Windows 95 und Apple’s MAC Computern gab es plötzlich die Möglichkeit, Computer in privaten Haushalten zu haben. Und um diese vollständig nutzen zu können, bedurfte es einer Verbindung, die 1994 mit dem „Internet in a Box“ eingeführt wurde. Service Provider nutzten das bereits etablierte Telefonnetz um diesen neuen Service an die Kunden zu bringen.

Diese ersten Webseiten bestanden hauptsächlich aus Verzeichnissen und Suchmaschinen, die diese Verzeichnisse durchsuchten und Informationen herausgaben. Dieses Internet, auch Web 1.0 genannt ist also in erster Linie ein „read-only“ Web. Informationen werden nur bereitgestellt und in keiner Weise kann auf diese Informationen Einfluss genommen werden. Endnutzer haben keine Beziehungen zu den Seiten und es gibt keine Funktionen innerhalb des Internet. Webseitenbetreiber nutzen statische Seiten um Informationen über Produkte, Services oder die eigene Firma zu verbreiten. Es wirkte fast wie eine Anzeige in einer Zeitung und stammte auch im Geiste davon ab.

Diese Proto-Webseiten waren durch Hyperlinks miteinander verbunden, man konnte also von einer Seite zur nächsten springen. Erste Ansätze von Suchmaschinen Google, AOL) waren auch bereits vorhanden und konzentrierten sich damals noch sehr auf die Klassifizierung der Seite, nicht unbedingt auf eine Wiedergabe des Inhaltes. Gegen Ende der 90er Jahre und zur Jahrtausendwende entwickelte sich eine Nische heraus, die plötzlich interaktiv war, und wo „normale“ User Webseiten manipulieren konnten. Kurz gesagt, Web 2.0 war angekommen.

Web 2.0

Es kann nicht klar definiert werden, wo der genaue Punkt ist an dem Web 1.0 zu Web 2.0 wurde. Mit Sicherheit kann jedoch gesagt werden, dass zum Jahr 2004 das Internet durch einen vollständigen Wandel gegangen ist. User nutzen das Internet nun nicht mehr nur um Informationen daraus zu erlangen, sondern auch um selbst Informationen einzustellen und mit Webseiten zu interagieren. Services wie oder Blogger bilden hierbei Vorreiter: User schreiben Texte selbst und erstellen Webseiten, die wiederum von anderen Menschen gelesen und kommentiert werden können.

Das „read-only“ Web wird zu einer beschreibbaren Plattform, die Interaktion anbieten und fördert – man sieht hier erste Züge eines sozialen Netzwerkes, welches in Services wie MySpace (welches 2005 auf den Markt kam) kulminiert. Es handelt sich hierbei nicht um einen technologischen Durchbruch, der die Grundsätze des Internet verändert, sondern vielmehr um eine Weiterentwicklung der Webseiten bisher. Zu beachten ist, dass Protokolle und Programmiersprachen sich hier noch nicht besonders verändern, weshalb es viele gibt, die das Web 2.0 nicht als eine eigenständige Inkarnation des Internet sehen, sondern vielmehr als eine natürliche Schicht des Web 1.0.

Erste Multimedia Plattformen wie Youtube werden ebenfalls in dieser Phase entwickelt, was einen Schritt weg von der reinen Text-Form des Mediums hin zur Visualisierung des Internet andeutet. Visuelle Inhalte sind immer mehr verbreitet und können leichter erstellt werden. Jedoch sind diese visuellen Inhalte immer noch von Menschen gemacht und noch nicht automatisiert.

Erste Blogs und Social Media Plattformen führen zu einer wahren Explosion von Webseiten. Services wie Wikipedia, die erstmals von Usern für User aufgebaut werden spielen hier eine wichtige Rolle. Zu diesem Zeitpunkt gibt es fast eine Milliarde Webseiten im Worldwide Web. Suchmaschinen entwickeln sich dementsprechend weiter und grasen nun nicht mehr nur die Klassifizierungen (tags) der Webseiten ab, sondern haben die Möglichkeit, Inhalte zu durchsieben um akkuratere Ergebnisse zu liefern.

Diese Stufe des Internet führt ebenso zu einer Ausweitung der allgemein gängigen Standards der Internet Netiquette und einer Ausweitung der Kommunikationsprotokolle zwischen Webseitenbetreibern und Usern. Es ist nun relativ einfach, das Internet zu nutzen. Die neue Generation wächst mit dem Internet auf: Millenials.

Web 3.0

Diese enge Zusammenarbeit, dieses soziale Vernetzen zwischen Menschen weltweit war die Grundlage des Internet, und die Grundlage des Web 1.0 und 2.0. Was jedoch der nächste Schritt darauf ist, ist die Kommunikation zwischen Computern ohne menschlichen Input. Web 3.0 (auch bekannt als „Semantic Web“) ist eine Fortführung der bisher genutzten Standards und Protokolle. Durch den enormen Anwuchs an Informationen wurde es nötig, Prozesse zu automatisieren und von Programmen (in einer gewissen Weise von künstlicher Intelligenz) leiten zu lassen. Im Grunde genommen führt es dazu, dass Webseiten (Internet-Inhalte) nicht mehr nur von Menschen gelesen werden können, sondern auch von Maschinen.

Diese grundlegende technologische Weiterentwicklung in der Art der Programmierung und in der Art wie Webseitenprotokolle miteinander kommunizieren (also neue HTML Protokolle) hat kulturell gesehen wenig Einfluss. Was jedoch in dieser neuen Ära kulturell wichtig ist, ist die Einbindung des Internet in das allgemeine Leben. Auf Grund der neuen Protokolle ist nun die Kommunikation mittels anderer Medien möglich – das Internet ist nicht mehr nur von Computern abhängig, sondern kann auf Geräten wie Smartphones bis hin zu Kühlschränken und Microwellen zugänglich gemacht werden.

Dies ermöglicht den Usern die vollständige Einbindung des Internet in alle Aspekte des Lebens; Arbeit, Privatleben, Familienleben, Freizeit und Medizin hängen nun vom Internet ab, und die Informationen die im Web vorhanden sind, sind so vielfältig vernetzt, dass soziale Medien den sozialen Umgang des echten Lebens widerspiegeln können.

Applikationen. Smartphones. Smarte Küchengeräte. Autoradios, die die Playliste vom Handy finden und abspielen. Web 3.0 ist das Web, das seit den letzten Jahren des letzten Jahrzehnts besteht.

Worin hat Web 3.0 seinen Anfangspunkt?

Das Semantische Web ist rein technisch gesehen klar durch eine neue Welle von Programmen definiert: Neuen HTML Protokollen. Ziel dieses neuen Webs ist es nun nicht mehr, eine reine, unverbundene Ansammlung von Information zu sein, sondern diese Informationen innovativ und vor allem intuitiv miteinander zu verknüpfen. Das Internet soll eine intelligente und „mitdenkende“ Informationsquelle sein – weit entfernt von den statischen „Zeitschriftenanzeigen“ der 90er Jahre. Um dies zu ermöglichen, muss das Internet ein gewisses Selbst-Verständnis und eine künstliche Intelligenz aufbringen. Maschinen müssen daher die Inhalte besser lesen und verstehen können, um Informationen und Daten zu verknüpfen. Wir sind in einem datengesteuerten Zeitalter angekommen. Darüber hinaus müssen Maschinen Inhalte direkt selbst erstellen und „rendern“ können: Funktionen wie Google Streetview wären ohne diese Fähigkeiten undenkbar.

Hier spielt eine weitere Innovation des Web 3.0 eine Rolle: Sprachverständnis. Mit der Ankunft von Services wie Siri (Apple’s persönlicher Assistentin) wurde die Tür zum oralen Sprachverständnis aufgestossen. Was jedoch bereits seit Jahren in Entwicklung ist, ist das Sprachverständnis in geschriebener Form: Computer lernen lesen. Inhalte werden nun nicht mehr nur auf Stichworte durchsiebt oder nach Tags abgegrast, sondern Suchmaschinen und Programme lernen den Inhalt der Daten tatsächlich zu „lesen“ und verwandte Informationen erfolgreich miteinander zu verknüpfen, ohne dass es einer menschlichen Hand bedarf.

Es ist unklar wo genau sich Web 3.0 von dessen Vorgänger kulturell gesehen abhebt. Ab dem Jahr 2011 haben Social Media und Smartphones jedoch einen festen Bestandteil des Lebens gebildet. Somit sind wir in einer Welt angekommen, wo man während des Autofahrens aktuelle Verkehrsupdates erhält, ohne den Bordcomputer erst danach fragen zu müssen. Eine Welt, wo Nachrichten gezielt an verschiedene Geräte gesendet werden können und Kollaboration und Kommunikation auf verschiedensten Plattformen möglich ist.

Was ist in Web 3.0 möglich und wo liegt der Focus?

Das neue, heutige Internet bietet unendliche Möglichkeiten an: Im Vordergrund scheinen jedoch Kommunikation, Kollaboration zwischen verschiedenen Geräten und Usern und die Erstellung von immer mehr visuellen Inhalten zu sein. Mittels der heutigen Struktur des Internet können Datensätze schnell geteilt werden und Informationen verbreitet werden. Intelligente Services wie Such-Algorithmen oder erlernte Präferenzen tragen dazu bei, wie unsere persönliche Weltanschauung geformt werden kann. Das soziale Medien Profil kann gezielt manipuliert werden, sodass nur Werbung gezeigt wird, die auch für den Nutzer interessant ist. Dies ist nur durch die künstliche Intelligenz möglich, die in Web 3.0 entwickelt und verfeinert wird.

Der neue Focus auf visuelle Inhalte bietet auch die Möglichkeit, 3D Grafiken immer besser darstellen zu lassen. Virtuelle Realität oder Augmentierte Realität wird langsam aber sicher möglich und verbessert. Plattformen wie Google Street View erlauben es Usern, virtuell durch Strassen zu wandern oder Museen zu besuchen. Spiele wie „Pokemon Go“ implementieren Karten und ein virtuelles Abbild der echten Welt um diese echte Welt zu bereichern. Dieser kreative Prozess wird aber nicht mehr nur von Menschen geleistet. Web 3.0 ermöglicht es uns, Maschinen zu ermöglichen, Daten direkt zu erstellen und zu verteilen. Ebenso können Computer nun selbstständig „Entscheidungen“ treffen, was nötig ist um beispielsweise herauszufiltern, welche Suchergebnisse für einen bestimmten User relevanter sind.

Die Implikationen sind weitreichend. Eine Zukunft, die an die Filme der „Matrix“ Reihe denken lässt ist nun absehbar und möglich.

Der Focus des neuen Web ist in 2 Bereiche gegliedert. Der Vordergrund – das User Interface – konzentriert sich in der ersten Linie auf eine vereinfachte Nutzung. Webseiten sind klar und intuitiv aufgebaut und sind für Mensch und Maschine leicht leserlich, mit vielen visuellen Inhalten. Informationen werden nicht mehr nur kommentarlos und ohne Unterscheidung oder Bewertung dem User bereitgestellt, sondern werden bereits mittels künstlicher Intelligenz verfeinert und gefiltert, bevor sie zum User kommen.

Der Hintergrund – die Programmierung und Protokolle – verlassen sich immer mehr auf künstliche Intelligenz. Programme schreiben Programme, Computer entwickeln Computer. Es hat eine neue Art von Evolution begonnen, in der der technologische Fortschritt längst nicht mehr von Menschen ausgearbeitet wird, sondern die Feinarbeit von Maschinen erledigt wird.

Es handelt sich in diesem Web um eine neue Demokratisierung der uns verfügbaren Informationen. User können Informationen erstellen, die durch ein „Verdauungssystem“ dann weiter aufgearbeitet werden und in gezielten Dosen an andere User weitergeleitet werden – aber nur in der Form die für die einzelnen User am besten nutzbar ist.

Dieses organische Teilen und diese natürliche Kollaboration zwischen dem Datensatz, der künstlichen Intelligenz die den Datensatz ausarbeitet und dem User, der die Daten erhält bildet die Grundlage des Web 3.0.

Tagged:

  • web3.0 Internet der neuen Generation
  • Leave a Reply