Diese Präsentation wurde erfolgreich gemeldet.
Wir verwenden Ihre LinkedIn Profilangaben und Informationen zu Ihren Aktivitäten, um Anzeigen zu personalisieren und Ihnen relevantere Inhalte anzuzeigen. Sie können Ihre Anzeigeneinstellungen jederzeit ändern.

Vortrag 35. SEO Stammtisch Ruhrgebiet

44 Aufrufe

Veröffentlicht am

Warum WDF IDF Quatsch ist und wie man den Content Fingerprint trifft und richtig optimiert.

Veröffentlicht in: Technologie
  • Als Erste(r) kommentieren

  • Gehören Sie zu den Ersten, denen das gefällt!

Vortrag 35. SEO Stammtisch Ruhrgebiet

  1. 1. Warum WDF * IDF Quatsch ist und wie man Text richtig optimiert.
  2. 2. StartUp - OM-Manager.com “Schritt für Schritt einfach selber optimieren für KMU!” Deshalb werden einfache Lösungen benötigt!
  3. 3. LEARNING Heute 1. WDF * IDF kurz erklärt. 2. technischer Status und Wissenschaft 3. Wie man richtig optimiert! Unsere Lösung.
  4. 4. WDF * IDF Keyworddichte: Zählen von Wörtern im Text. WDF * IDF : Zählen von Wörtern in Relation zu einer Gruppe von Texten (z.B. Top 10 rankende Seiten)
  5. 5. WDF * IDF
  6. 6. WDF * IDF Probleme ● Nur Termfrequenzen ● Kein Verständnis des Textes als Solches. ● keine Wortbeziehungen ● Keine Prediction, also keine Wörter in der Ausgabe die nicht in den Texten vorhanden sind! Termfrequenzen zählen ist ein Verfahren das für die ersten Textprogramme von IBM entwickelt wurde um 1950. In der Zeit von Machine Learning und KI muss einem doch das zählen von Worten albern vorkommen, oder nicht! “WDF IDF ist doch nur ein verbesserte Version der Keyworddichte!” Aussage eines OMM Kunden.
  7. 7. ABER !?--- WDF IDF funzt doch! JA begrenzt, weil… ● menschliche Kreativität ● Wortschatz des Content Producers ● Synonyme automatisch den Text ergänzt beim schreiben. GOOGLE erledigt das aber automatisch! Alles nicht direkt in der WDF IDF Textanalyse drin. Ein nicht so kreativer Texter, schreibt einen schlechteren Text! Mit besserer Vorgabe könnte auch ein schlechterer Texter einen gut optimierten Text schreiben!
  8. 8. So ähnlich wird Google es machen, oder? Ziel, den Text verstehen! Siloing bzw. thematische Gruppierungen Kategorisierungen NER - Named Entity Recognition Wortdatenbanken Wortbeziehungen
  9. 9. https://cloud.google.com/natural-language/ Axel’s Ankündigung für den Stammtisch auf FB an die Natural Language API geschickt. Jede Menge erkannte Entity’s.
  10. 10. Worum geht es im Text? Was sind die wichtigen Worte? Anstatt nur Wörter zu zählen…. neuere Methoden z.B. Textrank, Singlerank, N- Grams, Machine Learning, Neuronale Netze, Wort Datenbanken, Wortbeziehungen usw. Aus allen Möglichkeiten die Google hat, wird höchstwahrscheinlich ein Netz aus Relationen gebildet eine Art “Content Finger Print” für jeden Query. Zum Teil deuten US Patente darauf hin bzw. verifizieren.
  11. 11. Was könnte so ein Content Fingerprint sein? ● für jeden Query individuell ● Thematisch eng gefasst ● berücksichtigt Wortbeziehungen und Synonyme ● passend zur Search Intention ● moderne Ermittlung der möglichen Keywords, nicht einfach Worte zählen!
  12. 12. Wie optimiert man richtig? WDF * IDF Methodik + Machine Learning ist unsere Methode den “Content Fingerprint” zu treffen.
  13. 13. Schritt 1 - fast alle Keywords werden automatisch gefunden und geprüft, oder manuell hinzufügen. Schritt 2 - Fokus Keywords wählen URL Detailanalyse aufrufen, aus zugeordneten Keywords die Fokus Keyword auswählen mit Klick auf Sternchen
  14. 14. Schritt 3 - Ziele und Keyword Liste. Aus ihren gewählten Keywords erhalten Sie den Optimierungsvorschlag für die URL. Richtwerte für die Anzahl einzigartiger Worte, Anzahl Sätze und eine Liste von Worten die der Text enthalten sollte um in den Top 10 zu den gewählten Keywords zu ranken.
  15. 15. Content Optimierung ● Klare Zielvorgaben ● Einfache Benutzung (Ihre Keywords , Fokus wählen, Optimierungsziele ) ● Schwierigkeitsgrad 0-100 und Ampelfarben für einzelnen Keywords ● Optimierungsziele ○ mit Worten und ○ Sätzen und ○ Liste von Worten .
  16. 16. Fragen !? Kann ich den “Content Fingerprint” selber erstellen? Nein. z.B. Wikidata SQL Dump ist 140 GB groß, importiert in eine DB 800 GB gross Wie gut ist euer “Content Fingerprint” im Vergleich mit Googles Vorstellungen? Case Study’s laufen, erste Ergebnisse sind sehr gut. Wie konkret ist eure eigene Version des CF realisiert? im wesentlichen NER, Wort Datenbanken, Machine Learning und etwas Hot Sauce ein eigener Algo. Nur 50 Mio keywords, kann ich meine eigenen hinzufügen? und wird der CF auch für … ? Ja und Ja Wird eure Version des CF verbessert? Ja, die Komponenten werden ständig verbessert. Momentan sind wir bei Version 1.8

×