Die dimensionsen des Web Coaching

Unsere Dienstleistungen

  • Unterstützung bei der Einrichtung eine Performance-Analyse-System (Traffic, Umsatz)
  • Entwicklung der Verkehrsprognose Tabellen, Vertrieb und Erstellen von Dateien
  • Analyse der kommerziellen Angebote von Web-Providern angeboten
  • Entwicklung von Dashboards
  • Unterstützung für die Sammlung von intelligenten Informationen für die Qualifizierung von Internet im Vorgriff auf die Einführung eines fortgeschrittenen eCRM-System
  • Neue Techniken oder Praktiken der Web-Marketing
  • Optimisierung der Ergonomie Ihrer Website
  • Synergien zwischen der Offline- und Online-Kommunikationsbudgets zu entwickeln.
  • Performance-Analyse von Ausgaben Kampagnen

Methoden Rang Suchergebnisse

Suchmaschinen haben Methoden zur automatischen Sortierung der Ergebnisse entwickelt. Dies ermöglicht es ihnen, sich voneinander unterscheiden. In der Praxis ist kein Sortierverfahren perfekt, aber diese Vielfalt bietet dem Anwender die Möglichkeit, Informationen auf verschiedene Weise zu verfolgen; deshalb erhöht es die Chancen zur Verbesserung ihrer Forschung.

Der Zweck der Klassifizierung ist in den ersten zehn bis zwanzig Antworten Dokumente, die am besten die Frage angezeigt. Wenn Sie nicht finden können, was Sie in den ersten Seiten der Suchergebnisse zu suchen, ist es notwendig, die Frage neu zu formulieren. Um dies zu tun, müssen wir die zugrunde liegenden Mechanismen, um wirklich Gewinn ziehen zu verstehen.

Wir können drei Sortierverfahren zu berücksichtigen:

     Sortieren nach Relevanz

     Dieses Verfahren basiert auf Forschungsarbeiten schon alt Robertson und Sparckjones, in der WAIS Indizierungssoftware in den späten 80er Jahren umgesetzt basiert.

     Die Abfrageergebnisse werden in einem durch die Berechnung eine Punktzahl für jede Antwort festgelegten Reihenfolge angezeigt. Relevanz wird auf die folgenden fünf Faktoren, die unter der Frage zugrunde lagen:

         das Gewicht eines Wortes in einem Dokument von seiner Stelle im Dokument bestimmt wird: es liegt an den Titel und den Anfang des Textes; innen, ist es wichtiger, wenn das Wort wird groß geschrieben;
         die Dichte wird auf der Auftrittsfrequenz in einem Dokument in Bezug auf die Größe der Vorlage basiert. Wenn zwei Dokumente die gleiche Anzahl von Ereignissen, wird das kleinste Dokument begünstigt werden;
         das Gewicht eines Wortes in der Datenbank auf der Häufigkeit des Auftretens für die gesamte Datenbank. Seltene Wörter im Korpus sind begünstigt. Leere Worte sind entweder beseitigt oder unterbewertet;
         Übereinstimmung der Ausdruck auf der Ähnlichkeit zwischen der Expression der Frage und die entsprechende Expression in einem Dokument. Ein Dokument mit dem gleichen Satz als Frage erhält die höchste Gewicht;
         die enge Beziehung zu der Nähe der hinsichtlich der Frage zwischen ihnen im Dokument. Kurzfristig sind begünstigt.

     Diese Technik hat sich als wirksam im Zusammenhang mit Datenbanken WAIS ziemlich homogen und wenig sperrig erwiesen. Es wurde in den im Jahr 1994 entstanden und auf der Grundlage der technischen Untersuchung von Web-Robots Suchmaschinen gemacht. Allerdings ist der genaue Algorithmus nie bekannt, weil es als ein Geschäftsgeheimnis und manchmal durch ein Patent geschützt (wenn Excite).

     HTML-Dokumente können in ihrem Header-Informationen über den Inhalt des Dokuments enthalten. Diese entsprechen den Metadaten Titel, Meta-Keywords und Meta-Description-Tags. Alles ist bereit für die Autoren Katalogisierung "ihre Seiten. Leider sind die Meta-Tags nicht verwendet, die oft aus Unwissenheit, die ihren Interessen, und nur wenige Suchmaschinen berücksichtigen bei der Berechnung des Score.

     , Sortierung nach Relevanz hat jedoch den Nachteil, dass sie leicht von Autoren bestrebt, ihre Seiten in oben auf der Liste für das setzen, wiederholen Sie die wichtigen Wörter entweder im Kopf oder in die umgeleitet Text mit Spam-Techniken (weißer Text auf weißem Hintergrund zum Beispiel zu schreiben), um die Klassifizierung zu seinem Vorteil zu ändern. Motoren durch Erkennen diese Prozesse und ihre Datenbank ohne belastende Seiten reagiert.

     Diese Methode wird von AltaVista, Ecila, Excite verwendet, FAST, Hobot, Inktomi, Lokace, Voila. Das Ergebnis hängt sehr stark von der Ausgabe und wird gewählt, wenn möglich, spezifische und eindeutig.

     Nach Beliebtheit

     Die Grenzen sortiert nach Relevanz haben zur Suche führte, die auf den Prinzipien ganz anders als andere unabhängige Methoden der Dokumenteninhalte. Bekannt als Sortier Beliebtheit, diese Methoden sind zwei an der Zahl:

         DIE METHODE AUF DER GRUNDLAGE CO-ZITAT
         Im Jahr 1998 von zwei Studenten der Stanford University gegründet, Google das Ranking von Seiten durch die Kombination von mehreren Faktoren ab, wird die Haupt genannt PageRank. Artikel Page und Sergey gibt eine Beschreibung. PageRank nutzt die Anzahl der Links auf den Seiten. Der Suchalgorithmus berücksichtigt auch die Bedeutung von Websites, die auf die Suchergebnisse. Einige Suchmaschinen haben diese Funktion integriert.
         Es ist schon lange möglich, zu bestimmen, welche Seiten einen Link auf einem anderen. Also mit AltaVista, geben Sie ein:

         + verlinken: www.site.com / seite.html-host: www.site.com

         Links, die auf Ihre Werke finden.

         So ist die Sortierung unabhängig vom Inhalt und verhindert ein Verrutschen der bisherigen Methode wird die Auswahl der Links zu den Autoren Ermessen Millionen HTML-Seiten hinterlassen.
         Doch einige Unternehmen haben kriechen, um Tausende von künstlichen Gründung Links auf Ihre Seiten gegen Zahlung Vertiefung bieten. Diese so genannten Spam-Praktiken sind identifizierbar.

         Es sei angemerkt, dass die Technik der Google auch negative Aspekte und neue und daher unbekannt Seiten wie die in hochspezialisierten Inhalt ein begrenztes Publikum interessiert benachteiligt.

         DIE METHODE AUF DEM PUBLIKUM Messung
         DirectHit Gesellschaft wurde im April 1998 gegründet und schlägt vor, die Seiten basierend auf der Anzahl der Besuche, die sie erhalten zu sortieren. DirectHit analysiert das Verhalten eines Benutzers in der Verwendung einer Suchmaschine:

         "Es geht auf der Homepage, nahm er ein oder mehrere Wörter in einer Form, die Ergebnisseite gegeben (in der mehrere Links angezeigt werden, in der Reihenfolge der Relevanz) berät es, wählt er eine der sie, gehen Sie zu der entsprechenden Stelle berät. Wenn diese Seite nicht zu ihm passen, kehrt er auf die Seite der Suchmaschinen-Ergebnisse, wählt einen anderen Link, etc.., Bis er eine entsprechende Dokument. "

         DirectHit zeichnet die Verhaltens Aspekt des Internets, um zu versuchen, herauszufinden, welche Seiten sind die meisten "populären" auf einer Suchmaschine und Verbesserung ihrer Rangliste.
         Es arbeitet in der Regel im Hintergrund eines vorhandenen Motors. Bei jedem Besuch ein Benutzer, wird es auf einen Link angeklickt und welchen Rang diese Verbindung war vermerkt werden. Es berechnet dann, wie lange der Benutzer vor der Rückkehr zur Ergebnisseite bringt. Wenn es nicht zurück, er "geschlossen", dass die vorgeschlagene Website relevant war. Seine Adresse wird besser in den folgenden Ergebnissen eingestuft werden, wenn sie auf das gleiche Keyword abgefragt. Die Fragen, wie die Abfrage und das Web zu navigieren, dann wird die Datenbank bereichern DirectHit. Diese Methode, wie die vorhergehende, bestraft den letzten Seiten, aber Spam zu vermeiden.

         DirectHit können direkt auf der Website abgefragt werden, sondern speist auch die Ergebnisse vieler Forschungswerkzeuge wie HotBot, Looksmart und Websites wie ZDNet.

         Das Telefon Schnapp verwendet eine Technik namens Global Gehirn, die Websites zählt nach ihrer Popularität unter den Nutzern, um in seiner Relevanz-Algorithmen enthalten.

     Sortierung nach Kategorien dynamische Berechnung

     Northern bietet eine Lösung namens Clustering in Englisch oder Aggregation. Es wurde in der Bibliometrie in der 80 entwickelt und auf einem Korpus von Literaturangaben im Rahmen der Technologiebeobachtung angewendet. Es ist derzeit in Textmining-Tools gefunden.
     NothernLight verwendet vordefinierte Kategorien wie "Special Collection Dokumente" kommerzielle Websites, persönliche, etc. ... und Kategorien automatisch identifiziert.
     Allerdings ist die Heterogenität von Web-Seiten macht diese weniger sicher als die traditionellen bibliometrischen Verfahren.

Keine Methode ist ideal. Der heterogene Inhalt der Seiten nicht die Dinge einfacher. Das negative Verhalten einiger (Spamming) erfordert regelmäßig Suchmaschinen ändern ihre Algorithmen. Der aktuelle Trend ist es, verschiedene Ansätze zu mischen zu abhängig von einer einzigen Methode nicht zu sein.