Die dimensionsen des Web Coaching

Unsere Dienstleistungen

  • Unterstützung bei der Einrichtung eine Performance-Analyse-System (Traffic, Umsatz)
  • Entwicklung der Verkehrsprognose Tabellen, Vertrieb und Erstellen von Dateien
  • Analyse der kommerziellen Angebote von Web-Providern angeboten
  • Entwicklung von Dashboards
  • Unterstützung für die Sammlung von intelligenten Informationen für die Qualifizierung von Internet im Vorgriff auf die Einführung eines fortgeschrittenen eCRM-System
  • Neue Techniken oder Praktiken der Web-Marketing
  • Optimisierung der Ergonomie Ihrer Website
  • Synergien zwischen der Offline- und Online-Kommunikationsbudgets zu entwickeln.
  • Performance-Analyse von Ausgaben Kampagnen

The Invisible Web

Definitionen

Das unsichtbare Netz ist die Menge der Dokumente (Text, Video, Bilder ...) Web, die nicht von traditionellen Suchmaschinen indexiert wird.
In den späten 80er Jahren entwickelt am CERN, waren die Ziele des Webs, um die Veröffentlichung und Verbreitung von Multimedia-Dokumenten über das Internet zu erleichtern. Aber er das Opfer seiner Fülle und Leichtigkeit der Schöpfung war: sein Wachstum war phänomenal seit 1995, aber die Technik der Veröffentlichung statischer HTML-Seiten hat ihre Grenzen gezeigt ..
Auf der anderen Seite haben viele alte Dienste, um ein auf der Basis der Browser wie Webmail oder OPAC-Schnittstelle migriert.

So viel für das Web ist zum Synonym für das Internet.

Die Gründe für die unsichtbare Web

Aktuelle Methoden der das Ranking in den Suchmaschinen zu erklären das unsichtbare Web. SEO ist das Speichern von HTML-Seiten in den Suchmaschinen und Webseiten in Verzeichnissen, um sie den Nutzern bekannt ist, um die Sichtbarkeit zu erhöhen und damit die Zahl der Besucher.

Mehrere Szenarien sind:

     Allgemeine Verbraucherverzeichnisse : Seiten werden vom Urheber angeboten. Dies ist durch Vorlage bekannt ist, zu zahlen, da Ende 2001 Verfahren;

     Spezialisiert Verzeichnisse: Seiten sind frei von der Dokumentar gewählt;
     Suchmaschinen: die Identifizierung und Indizierung Seiten sind durch Roboter automatisch.

Die Grenzen der Webseiten zu indizieren, zu halten oder Inhalte, die nicht indiziert werden kann: refresh Zeitindex, Grad der Indexierung Tiefe oder die Tiefe der Inhalte indizierten Seiten, die nichts Spitze, oder nicht andere als html einige Textdateien, Indizierung, nicht die Indizierung von dynamischen Web-Seiten, Suchmaschinenoptimierung oder schlechte Absicht der Autoren und Schauspielern etc. ....

Und Unterlagen, die die unsichtbare Bahn kann dynamisch sein (nicht nachweisbar), referenzierte (freiwillig oder nicht) oder nicht Wendetyp (z. B. Flash-Animationen, ...). Hier sind die Gründe:

     Geschützt durch Passwörter und Intranetseiten.

     Problem Rahmen: eine Rahmenstruktur (Frames) besteht aus einer übergeordneten Seite und Kinderseiten . Der Informationsgehalt ist immer noch in den Mädchen-Seiten. Die Schwierigkeit ist, dass, wenn eine übergeordnete Seite unterliegt den Motoren, sind sie oft nicht in der Lage, um Mädchen und Index-Seiten zu finden. Nur die übergeordnete Seite gefunden wird, dann indiziert. Aber da es eine Seite ohne Inhalt ist, SEO ist unwirksam.

     Dateiformate: HTML ist die von allen anerkannt Roboter nativen Format, aber viele haben Web aufgenommen. Google indiziert nur anderen PDF-und Postscript (PS), Microsoft Excel (xls), Powerpoint (ppt), Wort (doc) und Rich Text Format (rtf), Works (wks, wps, wdb) Microsoft Write (wri) Text (ans, txt) Adobe Photoshop (PSD), Lotus 1-2-3 (wK1, WK2, WK3, wK4, WK5, WKI, wks, WKU), Lotus WordPro (LWP) MacWrite (mw) 3 DBASE (DBF), Paradox (db), Wordperfect, ...).

     SEO verboten Verwendung einer robots.txt-Datei Seiten: Dieses Verbot wird durch den Autor der Seiten oder das Bauleiter angehoben.

     Statische HTML-Seiten / dynamische HTML-Seiten:
         Statische HTML-Seite: ASCII-Datei, die strukturiert worden ist mit HTML-Tags, um im Web ausgestrahlt. Die Datei bleibt wirksam, bis sie geändert oder durch den Autor zerstört wird;
         Seite dynamische HTML-Seite HTML in Antwort auf die Anfrage eines Benutzers erstellt wird, wird die Form der festen und der variablen aus einer Inhaltsdatenbank, die den Suchkriterien anpassen können, dass der abgeleitete oben.
     Die Schwierigkeit ist, dass die Roboter benötigen, um Links innerhalb der Website, um die entsprechenden Seiten Index folgen. Wenn dynamische Seiten können nur durch die Abfrageformular zugegriffen werden, können sie nicht von Suchmaschinen indexiert werden. Es muss daher von den ersten Seiten integriert werden, Links zu den Haupt dynamische URL, die Sie indizierte sehen wollen. Dies kann unsichtbar gemacht werden, um nicht das Design und die Struktur der Site zu gefährden.

     Seiten abgeschnitten: Einige Roboter nicht vollständig die Seiten-Index. Also Google ist auf 101 KByte. Diese Information ist nur selten der Öffentlichkeit.

     Roboter anzuhalten, wenn sie eine URL mit einem Fragezeichen zu begegnen.

     Das Fehlen von Hyperlinks wurde von IBM als IBM Theorie Knoten Schmetterling Studie bekannt, nachgewiesen worden.

     IBM, Compacq Altavista und Forscher haben eine Karte des Internet aus der Analyse von Verbindungen zwischen Web-Seiten erstellt. Netzwerkstruktur , die vergleichbar mit der von einem Spinnennetz gedacht war, hat eigentlich 4 Sätze von Seiten in Bowtie organisiert. Wir unterscheiden das Herz zusammenhängendes Netz, und dann eine zweite Reihe von Seiten, die Links zu diesen hergestellt haben, eine dritte Gruppe leicht vom Kern erkennbar. Weitere Seiten dessen bleiben getrennt und vom Netzwerk getrennt.

     Die Presseinformation: Immer mehr News-Seiten (Zeitungen, Radio, Fernsehen ...) zu verbreiten Echtzeit-Informationen. Herkömmliche Roboter sind nicht in der Lage zu folgen.

Und die Situation wurde immer komplexer und fordert die Schaffung von neuen Forschungswerkzeuge unter Berücksichtigung dieser neuen Zwängen. Einige Kunden Metasuchmaschinen wie Kopernikus, Strategische Finder oder Anspruch Lexibot Lösungen.