Kategorie: SEO

  • KI-Webcrawler und Urheberrechte: Das Dilemma der Webseitenbetreiber

    KI-Webcrawler und Urheberrechte: Das Dilemma der Webseitenbetreiber

    Die zunehmende Integration von KI-gestützten Tools in den täglichen Gebrauch führt zu tiefgreifenden Veränderungen im digitalen Ökosystem. Zwei prominente Beispiele sind ChatGPT von OpenAI und die Google Search Generative Experience. Beide werfen bedeutende Fragen zur Nutzung und zum Schutz von Inhalten auf, wie die jüngsten Entwicklungen bei der New York Times und Google zeigen.

    Die New York Times hat neulich ihre Crawling-Vorgaben aktualisiert und sowohl den CommonCrawl-Webindex als auch den OpenAI-Webcrawler ausgeschlossen. Dieser Schritt kam nach gescheiterten Verhandlungen mit OpenAI über die Nutzung ihrer Inhalte zustande. Einige Spekulationen deuten darauf hin, dass eine rechtliche Auseinandersetzung zwischen den beiden Parteien bevorstehen könnte.

    Die Intention, Inhalte öffentlich im Internet zur Verfügung zu stellen, war immer klar:

    Sie generieren Aufmerksamkeit und Sichtbarkeit, was wiederum zu monetären Vorteilen für den Anbieter führt.

    Doch die Integration künstlicher Intelligenz in Suchmaschinen und Web-Crawler stellt dieses bisher unausgesprochene Abkommen in Frage. Tools wie die Google Search Generative Experience benötigen keinen direkten Besuch auf der Webseite, um den Inhalt anzuzeigen, da die KI die Arbeit für den Nutzer übernimmt. Dies führt zu einem erheblichen Problem, insbesondere aus der Perspektive der Webseitenbetreiber:

    KIs klicken nicht auf Anzeigen oder schließen Abonnements ab.

     Trotz der Einführung von Google-Extended, einem neuen Tool, das Webseitenbetreibern erlaubt, Google darüber zu informieren, ihre Inhalte nicht für bestimmte KI-Projekte wie Bard und Vertex AI zu nutzen, gibt es einen Haken. Dieses Tool schützt Inhalte nicht vor der Nutzung in der Search Generative Experience (SGE).

    Google erklärt, dass die SGE ein integraler Bestandteil der Google-Suche ist und nicht einfach ein aufgesetztes Feature. Daher sollten Webseitenbetreiber weiterhin den Googlebot über die robots.txt und den NOINDEX-Meta-Tag steuern. Beunruhigend ist, dass es Fälle gibt, in denen die SGE KI-generierte Antworten zeigt, obwohl die betreffenden Webseiten ausdrücklich verlangt haben, dass Google ihren Inhalt nicht für KI-Zwecke nutzt.

    Für Webseitenbetreiber, die ihre Inhalte nicht in der SGE sehen möchten, bleibt nur eine radikale Option: Googlebot komplett zu blockieren. Ein Schritt, den nur wenige in Betracht ziehen würden.

    Google argumentiert, dass KI und LLM schon seit Jahren im Zusammenhang mit der Google Suche eingesetzt werden und deren Suchergebnisse verbessern helfen.

    Das Aufkommen von KI-Tools wie ChatGPT und die Google Search Generative Experience führt zu einem Paradigmenwechsel in der digitalen Landschaft. Während sie Nutzer:innen innovative und effiziente Lösungen bieten, stellen sie Webseitenbetreiber:innen vor komplexe Herausforderungen hinsichtlich Urheberrecht und Monetarisierung. Es bleibt abzuwarten, wie sich dieser Konflikt entwickelt und welche Kompromisse in der Zukunft gefunden werden.

  • Jetzt ist die Zeit sich mit Googles Core Vital INP zu befassen

    Google hat kürzlich ihren Artikel zu INP aktualisiert. INP steht für “ Interaction to Next Paint “ und ist ein neuer Core Web Vital-Indikator, der gerade entwickelt wird. Er misst, wie flott deine Webseite auf Benutzerinteraktionen reagiert, indem er die Verzögerungen dieser Interaktionen während eines Besuchs beobachtet. Ziel des Spiels? Ein INP von 200ms oder weniger für ein Top-Benutzererlebnis!

    Stell dir vor, du hast eine Webseite mit verschiedenen interaktiven Elementen wie Knöpfen, Formularen, Menüs und so weiter. Wenn ein Nutzer deine Seite besucht und mit diesen Elementen spielt, dauert es einen Moment, bis die Webseite auf diese Interaktion reagiert. Diese Reaktionszeit oder „Latenz“ ist genau das, was der INP-Indikator misst.

    Egal, ob deine Seite wenige oder viele Interaktionen hat, ein hoher INP kann das Benutzererlebnis in den Keller fahren. Als erstes brauchst du Daten, um zu verstehen, ob der INP deiner Webseite eine Frischzellenkur braucht. Felddaten von einem Real User Monitoring (RUM) Anbieter können dir wertvolle Einblicke liefern, wie zum Beispiel den INP-Wert einer Seite und die spezifische Interaktion, die ihn verursacht.

    Falls du keinen RUM-Anbieter nutzt, kann der Chrome User Experience Report (CrUX) über PageSpeed Insights die Lücken füllen. Er bietet eine Zusammenfassung von Metriken für Millionen von Websites, einschließlich INP. Aber denk dran, ein RUM-Anbieter oder deine eigene RUM-Lösung ist immer der King.

    Hast du langsame Interaktionen identifiziert, geht’s ans Optimieren. Jede Interaktion besteht aus drei Phasen: der Eingabeverzögerung, der Verarbeitungszeit und der Präsentationsverzögerung. Jede Phase steuert zur Gesamtlatenz bei, also ist es essentiell, jeden Teil zu optimieren. Die Minimierung der Eingabeverzögerung ist hier besonders wichtig.

    Die Optimierung von Event-Callbacks ist ein absolutes Muss. Ist deine Interaktionslogik komplex, ziehe in Erwägung, die Arbeit in Event-Callbacks in separate Aufgaben zu teilen, zum Beispiel mittels Methoden wie setTimeout. Das hilft, lange Aufgaben zu vermeiden, die den Haupt-Thread blockieren könnten.

    Auch die Verbesserung der Bildaufbauzeit spielt eine große Rolle. Strukturiere deinen Code so, dass nur die Logik, die für visuelle Updates vor dem nächsten Frame benötigt wird, ausgeführt wird. Alles andere kann zu einem späteren Zeitpunkt erledigt werden. Und vermeide Layout-Wechsel, um die Darstellungsleistung zu verbessern.

    Zum Schluss nicht vergessen: Die Verbesserung des INP ist ein Prozess, der step by step läuft. Optimiere stetig und mit der Zeit kannst du die Reaktionsfähigkeit deiner Seite so verbessern, dass die Nutzer happy sind. Es erfordert Einsatz, aber das Ergebnis ist ein besseres Benutzererlebnis, und das ist die investierte Zeit definitiv wert!

    Tiefer in das Thema einsteigen könnt Ihr hier https://remkusdevries.com/the-time-to-focus-on-inp-is-now/

  • Die Zukunft der Suche

    Die Zukunft der Suche im Internet steht an einem Wendepunkt. Branchenriesen wie Microsoft und Google experimentieren öffentlich mit großen Sprachmodellen (LLMs) und KI-gestützten Chatbots, um Nutzeranfragen zu beantworten. Gleichzeitig haben Plattformen wie TikTok erhebliche Fortschritte in ihren Suchfunktionen gemacht und sich als effektives Werkzeug zur Inhaltsentdeckung etabliert. Nutzer passen ihre Suchanfragen zunehmend an bestimmte Plattformen an, um präzisere und personalisierte Ergebnisse zu erhalten, was die Rolle zentralisierter Suchmaschinen wie Google in Frage stellt.

    In der Unendlichkeit des Internets, das an Jorge Luis Borges‘ Kurzgeschichte „Die Bibliothek von Babel“ erinnert, hat Google bislang die Rolle des Bibliothekars gespielt, indem es seit den 1990er Jahren Websites indiziert, organisiert und über ein SEO-beeinflussbares Ranking-System zugänglich macht. Doch die Qualität der Suchergebnisse lässt häufig zu wünschen übrig. Die obersten Artikel in den Suchergebnissen sind oft mit Keywords überladen und wirken unauthentisch, da sie eher für Algorithmen als für Menschen geschrieben zu sein scheinen.

    Darüber hinaus hat die schiere Anzahl der URLs seit der Einführung der Google-Suche exponentiell zugenommen, während gleichzeitig minderwertige Inhalte stetig zunehmen. SEO-getriebene Websites und Linkfarmen, die Googles Suchalgorithmus manipulieren, um Seitenaufrufe und damit Werbeeinnahmen zu generieren, dominieren die Suchergebnisse. Aus diesem Grund wenden sich die Nutzer immer häufiger anderen Plattformen zu, um ihre Suchbedürfnisse zu erfüllen.

    TikTok stellt dabei eine wachsende Bedrohung für Googles Dominanz dar. Die Plattform hat sich bei jungen Nutzern etabliert und wurde 2021 zum weltweit beliebtesten Web-Domain, laut Daten von CloudShare. Gen Z-Nutzer suchen zunehmend auf TikTok nach Informationen und Nachrichten, was auf eine Veränderung des Suchverhaltens hinweist. TikTok bietet Nutzern eine Vielzahl an Inhalten, von unterhaltsamen Videos bis hin zu lehrreichen Tutorials, und erfüllt damit sowohl den Bedarf an Unterhaltung als auch an Information.

    TikTok hat auch seinen eigenen Suchalgorithmus entwickelt, der es Nutzern ermöglicht, nach spezifischen Themen oder Stichworten zu suchen. Dies hat dazu geführt, dass einige Marketer bereits von „TikTok SEO“ sprechen. Gleichzeitig hat TikTok seine Reputation als bloße Teenie-App abgelegt und sich als universelles Werkzeug für Nutzer aller Altersgruppen positioniert.

    Die Expansion des Suchbegriffs hat jedoch nicht nur TikTok betroffen. Plattformen wie Reddit werden immer häufiger für meinungsbasierte oder erfahrungsbasierte Suchen genutzt. Ebenso entstehen neue Plattformen wie Diem, die sich als „soziale Suchmaschinen“ positionieren und die soziale Komponente der Suche stärken.

    Google hat ein beeindruckendes Werbemodell entwickelt, das SEO als Marketingdisziplin etabliert hat. Es ist der Standard für Werbetreibende geworden, da sie genau wissen, wofür sie bezahlen.

    TikTok hingegen wird von Werbetreibenden noch mit Vorsicht betrachtet. Die Plattform wird nicht als formelle Suchmaschine angesehen, sondern eher als Sprungbrett zur Viralität mit einer geringeren Conversion-Rate im Vergleich zu Google. Marketer haben auch weniger Einblick in den Ranking-Algorithmus und die Anzeigenplatzierung auf TikTok. Im Gegensatz dazu sind sie bei Google mit dem vertraut, wofür sie bezahlen.

    Die anhaltende Treue zu Google hat seinen Ruf gestärkt und seine Schwachstellen verdeckt. Studien zeigen jedoch, dass Google-Algorithmen rassistische und sexistische Ergebnisse liefern können. Suchanfragen zu bestimmten Bevölkerungsgruppen können unangemessene Vorschläge hervorbringen oder stereotype Vorstellungen verstärken. Es besteht auch eine geschlechtsspezifische Datensammlungslücke, da die meisten Daten aus der Perspektive von Männern erhoben werden.

    Infolgedessen haben Plattformen wie Diem versucht, eine Lücke zu füllen, indem sie eine zentralisierte soziale Komponente zur Suche bieten. TikTok hat ebenfalls eine Rolle als Alternative zu Google eingenommen, indem es eine persönlichere und unterhaltsamere Erfahrung bietet. Die Nutzer fühlen sich gesehen und finden relevante Inhalte, noch bevor sie eine Suchanfrage stellen.

    Das Suchen ist erfüllender, wenn ein algorithmischer Bibliothekar die Bedürfnisse der Nutzer antizipieren kann und potenzielle Antworten, Produkte, Empfehlungen und Wünsche präsentiert, von denen sie vorher nichts wussten. Google hingegen setzt die Verantwortung für die Entdeckung auf den Suchenden selbst. In dieser aktuellen Situation stellt sich die Frage, welchen Mehrwert Google bietet, wenn wir unsere eigenen Bibliothekare sein müssen.

    Trotzdem bleibt die Frage nach Wettbewerb und Innovation im Bereich der Suche bestehen. Google wird seit 2020 mit fünf Kartellrechtsklagen konfrontiert, die seine Monopolstellung im digitalen Werbemarkt herausfordern. Es ist wichtig, dass neue Akteure wie TikTok und andere Plattformen den Markt diversifizieren und dazu beitragen, dass die Suche im Internet vielfältiger und zugänglicher wird.

    Insgesamt befindet sich die Suche im Internet im Wandel. Plattformen wie TikTok haben gezeigt, dass es alternative Wege gibt, um Inhalte zu entdecken und Informationen zu finden. Obwohl Google nach wie vor eine wichtige Rolle spielt, sind die Nutzer zunehmend bereit, andere Optionen zu erkunden und nach authentischeren und personalisierteren Sucherlebnissen zu suchen. Die Zukunft der Suche liegt in der Fähigkeit, die Bedürfnisse der Nutzer zu verstehen und ihnen eine intuitive und relevante Erfahrung zu bieten.

    Den gesamten Artikel von Terry Nguyen könnt Ihr hier bei The Dirt lesen

  • Wie sieht die Zukunft von SEO in einer Post-ChatGPT Welt aus?

    Die Einführung der generativen KI, wie GPT-4, hat massive Auswirkungen auf die Suchmaschinenoptimierung (SEO). Die Fähigkeit, schnell und effizient optimierte Inhalte zu generieren, führt zu einer massiven Zunahme des Wettbewerbs um Suchergebnisse. Die Veröffentlichungsfrequenz und die Länge des Contents nehmen zu und Unternehmen sind weniger wählerisch mit den Keywords, die sie anvisieren.

    Die Technologie ermöglicht es den Unternehmen, eine Vielzahl von Artikeln zu veröffentlichen, die sich in Qualität und Einzigartigkeit unterscheiden könnten. Dies könnte zu einer Zunahme von programmatischem SEO führen, da GPT-4 die Fähigkeit hat, Python-Skripte für das Web-Scraping zu schreiben und zu beheben.

    Google wird wahrscheinlich seine Prioritäten ändern und Off-Page-Ranking-Faktoren stärker gewichten. Die Ähnlichkeit vieler AI-generierter Inhalte könnte dazu führen, dass Google mehr Wert auf Backlinks und den Autor des Contents legt. Zudem könnte Google Inhalte belohnen, die neue Informationen in die Diskussion einbringen und solche bestrafen, die dies nicht tun.

    Die Renditen aus der Suchmaschinenoptimierung könnten massiv sinken. Mehr Zero-Click-Suchanfragen, die direkt in den Suchergebnissen beantwortet werden, könnten Verlage benachteiligen. Die Fragmentierung der Suche könnte zunehmen, da KI-gesteuerte Suchmaschinen auf spezifische Datensätze abzielen könnten.

    Für Unternehmen, die bereit sind, die AI-Welle zu reiten, gibt es dennoch zahlreiche Möglichkeiten. Langfristig könnte es jedoch ratsam sein, in Bereiche jenseits des reinen „Schreibens“ zu investieren, eigene Informationen in den Content einzubringen und sich über die Suchmaschinenoptimierung hinaus zu diversifizieren. Experimentieren ist angesagt: Spielen Sie mit generativer KI, entdecken Sie seltsame und wundervolle Anwendungsfälle und finden Sie selbst heraus, was ihre Stärken und Grenzen sind.

    Noch tiefer könnt Ihr Euch bei Animalz einlesen