Schlagwort: Google

  • KI-Webcrawler und Urheberrechte: Das Dilemma der Webseitenbetreiber

    KI-Webcrawler und Urheberrechte: Das Dilemma der Webseitenbetreiber

    Die zunehmende Integration von KI-gestützten Tools in den täglichen Gebrauch führt zu tiefgreifenden Veränderungen im digitalen Ökosystem. Zwei prominente Beispiele sind ChatGPT von OpenAI und die Google Search Generative Experience. Beide werfen bedeutende Fragen zur Nutzung und zum Schutz von Inhalten auf, wie die jüngsten Entwicklungen bei der New York Times und Google zeigen.

    Die New York Times hat neulich ihre Crawling-Vorgaben aktualisiert und sowohl den CommonCrawl-Webindex als auch den OpenAI-Webcrawler ausgeschlossen. Dieser Schritt kam nach gescheiterten Verhandlungen mit OpenAI über die Nutzung ihrer Inhalte zustande. Einige Spekulationen deuten darauf hin, dass eine rechtliche Auseinandersetzung zwischen den beiden Parteien bevorstehen könnte.

    Die Intention, Inhalte öffentlich im Internet zur Verfügung zu stellen, war immer klar:

    Sie generieren Aufmerksamkeit und Sichtbarkeit, was wiederum zu monetären Vorteilen für den Anbieter führt.

    Doch die Integration künstlicher Intelligenz in Suchmaschinen und Web-Crawler stellt dieses bisher unausgesprochene Abkommen in Frage. Tools wie die Google Search Generative Experience benötigen keinen direkten Besuch auf der Webseite, um den Inhalt anzuzeigen, da die KI die Arbeit für den Nutzer übernimmt. Dies führt zu einem erheblichen Problem, insbesondere aus der Perspektive der Webseitenbetreiber:

    KIs klicken nicht auf Anzeigen oder schließen Abonnements ab.

     Trotz der Einführung von Google-Extended, einem neuen Tool, das Webseitenbetreibern erlaubt, Google darüber zu informieren, ihre Inhalte nicht für bestimmte KI-Projekte wie Bard und Vertex AI zu nutzen, gibt es einen Haken. Dieses Tool schützt Inhalte nicht vor der Nutzung in der Search Generative Experience (SGE).

    Google erklärt, dass die SGE ein integraler Bestandteil der Google-Suche ist und nicht einfach ein aufgesetztes Feature. Daher sollten Webseitenbetreiber weiterhin den Googlebot über die robots.txt und den NOINDEX-Meta-Tag steuern. Beunruhigend ist, dass es Fälle gibt, in denen die SGE KI-generierte Antworten zeigt, obwohl die betreffenden Webseiten ausdrücklich verlangt haben, dass Google ihren Inhalt nicht für KI-Zwecke nutzt.

    Für Webseitenbetreiber, die ihre Inhalte nicht in der SGE sehen möchten, bleibt nur eine radikale Option: Googlebot komplett zu blockieren. Ein Schritt, den nur wenige in Betracht ziehen würden.

    Google argumentiert, dass KI und LLM schon seit Jahren im Zusammenhang mit der Google Suche eingesetzt werden und deren Suchergebnisse verbessern helfen.

    Das Aufkommen von KI-Tools wie ChatGPT und die Google Search Generative Experience führt zu einem Paradigmenwechsel in der digitalen Landschaft. Während sie Nutzer:innen innovative und effiziente Lösungen bieten, stellen sie Webseitenbetreiber:innen vor komplexe Herausforderungen hinsichtlich Urheberrecht und Monetarisierung. Es bleibt abzuwarten, wie sich dieser Konflikt entwickelt und welche Kompromisse in der Zukunft gefunden werden.

  • Jetzt ist die Zeit sich mit Googles Core Vital INP zu befassen

    Google hat kürzlich ihren Artikel zu INP aktualisiert. INP steht für “ Interaction to Next Paint “ und ist ein neuer Core Web Vital-Indikator, der gerade entwickelt wird. Er misst, wie flott deine Webseite auf Benutzerinteraktionen reagiert, indem er die Verzögerungen dieser Interaktionen während eines Besuchs beobachtet. Ziel des Spiels? Ein INP von 200ms oder weniger für ein Top-Benutzererlebnis!

    Stell dir vor, du hast eine Webseite mit verschiedenen interaktiven Elementen wie Knöpfen, Formularen, Menüs und so weiter. Wenn ein Nutzer deine Seite besucht und mit diesen Elementen spielt, dauert es einen Moment, bis die Webseite auf diese Interaktion reagiert. Diese Reaktionszeit oder „Latenz“ ist genau das, was der INP-Indikator misst.

    Egal, ob deine Seite wenige oder viele Interaktionen hat, ein hoher INP kann das Benutzererlebnis in den Keller fahren. Als erstes brauchst du Daten, um zu verstehen, ob der INP deiner Webseite eine Frischzellenkur braucht. Felddaten von einem Real User Monitoring (RUM) Anbieter können dir wertvolle Einblicke liefern, wie zum Beispiel den INP-Wert einer Seite und die spezifische Interaktion, die ihn verursacht.

    Falls du keinen RUM-Anbieter nutzt, kann der Chrome User Experience Report (CrUX) über PageSpeed Insights die Lücken füllen. Er bietet eine Zusammenfassung von Metriken für Millionen von Websites, einschließlich INP. Aber denk dran, ein RUM-Anbieter oder deine eigene RUM-Lösung ist immer der King.

    Hast du langsame Interaktionen identifiziert, geht’s ans Optimieren. Jede Interaktion besteht aus drei Phasen: der Eingabeverzögerung, der Verarbeitungszeit und der Präsentationsverzögerung. Jede Phase steuert zur Gesamtlatenz bei, also ist es essentiell, jeden Teil zu optimieren. Die Minimierung der Eingabeverzögerung ist hier besonders wichtig.

    Die Optimierung von Event-Callbacks ist ein absolutes Muss. Ist deine Interaktionslogik komplex, ziehe in Erwägung, die Arbeit in Event-Callbacks in separate Aufgaben zu teilen, zum Beispiel mittels Methoden wie setTimeout. Das hilft, lange Aufgaben zu vermeiden, die den Haupt-Thread blockieren könnten.

    Auch die Verbesserung der Bildaufbauzeit spielt eine große Rolle. Strukturiere deinen Code so, dass nur die Logik, die für visuelle Updates vor dem nächsten Frame benötigt wird, ausgeführt wird. Alles andere kann zu einem späteren Zeitpunkt erledigt werden. Und vermeide Layout-Wechsel, um die Darstellungsleistung zu verbessern.

    Zum Schluss nicht vergessen: Die Verbesserung des INP ist ein Prozess, der step by step läuft. Optimiere stetig und mit der Zeit kannst du die Reaktionsfähigkeit deiner Seite so verbessern, dass die Nutzer happy sind. Es erfordert Einsatz, aber das Ergebnis ist ein besseres Benutzererlebnis, und das ist die investierte Zeit definitiv wert!

    Tiefer in das Thema einsteigen könnt Ihr hier https://remkusdevries.com/the-time-to-focus-on-inp-is-now/

  • Die Zukunft der Suche

    Die Zukunft der Suche im Internet steht an einem Wendepunkt. Branchenriesen wie Microsoft und Google experimentieren öffentlich mit großen Sprachmodellen (LLMs) und KI-gestützten Chatbots, um Nutzeranfragen zu beantworten. Gleichzeitig haben Plattformen wie TikTok erhebliche Fortschritte in ihren Suchfunktionen gemacht und sich als effektives Werkzeug zur Inhaltsentdeckung etabliert. Nutzer passen ihre Suchanfragen zunehmend an bestimmte Plattformen an, um präzisere und personalisierte Ergebnisse zu erhalten, was die Rolle zentralisierter Suchmaschinen wie Google in Frage stellt.

    In der Unendlichkeit des Internets, das an Jorge Luis Borges‘ Kurzgeschichte „Die Bibliothek von Babel“ erinnert, hat Google bislang die Rolle des Bibliothekars gespielt, indem es seit den 1990er Jahren Websites indiziert, organisiert und über ein SEO-beeinflussbares Ranking-System zugänglich macht. Doch die Qualität der Suchergebnisse lässt häufig zu wünschen übrig. Die obersten Artikel in den Suchergebnissen sind oft mit Keywords überladen und wirken unauthentisch, da sie eher für Algorithmen als für Menschen geschrieben zu sein scheinen.

    Darüber hinaus hat die schiere Anzahl der URLs seit der Einführung der Google-Suche exponentiell zugenommen, während gleichzeitig minderwertige Inhalte stetig zunehmen. SEO-getriebene Websites und Linkfarmen, die Googles Suchalgorithmus manipulieren, um Seitenaufrufe und damit Werbeeinnahmen zu generieren, dominieren die Suchergebnisse. Aus diesem Grund wenden sich die Nutzer immer häufiger anderen Plattformen zu, um ihre Suchbedürfnisse zu erfüllen.

    TikTok stellt dabei eine wachsende Bedrohung für Googles Dominanz dar. Die Plattform hat sich bei jungen Nutzern etabliert und wurde 2021 zum weltweit beliebtesten Web-Domain, laut Daten von CloudShare. Gen Z-Nutzer suchen zunehmend auf TikTok nach Informationen und Nachrichten, was auf eine Veränderung des Suchverhaltens hinweist. TikTok bietet Nutzern eine Vielzahl an Inhalten, von unterhaltsamen Videos bis hin zu lehrreichen Tutorials, und erfüllt damit sowohl den Bedarf an Unterhaltung als auch an Information.

    TikTok hat auch seinen eigenen Suchalgorithmus entwickelt, der es Nutzern ermöglicht, nach spezifischen Themen oder Stichworten zu suchen. Dies hat dazu geführt, dass einige Marketer bereits von „TikTok SEO“ sprechen. Gleichzeitig hat TikTok seine Reputation als bloße Teenie-App abgelegt und sich als universelles Werkzeug für Nutzer aller Altersgruppen positioniert.

    Die Expansion des Suchbegriffs hat jedoch nicht nur TikTok betroffen. Plattformen wie Reddit werden immer häufiger für meinungsbasierte oder erfahrungsbasierte Suchen genutzt. Ebenso entstehen neue Plattformen wie Diem, die sich als „soziale Suchmaschinen“ positionieren und die soziale Komponente der Suche stärken.

    Google hat ein beeindruckendes Werbemodell entwickelt, das SEO als Marketingdisziplin etabliert hat. Es ist der Standard für Werbetreibende geworden, da sie genau wissen, wofür sie bezahlen.

    TikTok hingegen wird von Werbetreibenden noch mit Vorsicht betrachtet. Die Plattform wird nicht als formelle Suchmaschine angesehen, sondern eher als Sprungbrett zur Viralität mit einer geringeren Conversion-Rate im Vergleich zu Google. Marketer haben auch weniger Einblick in den Ranking-Algorithmus und die Anzeigenplatzierung auf TikTok. Im Gegensatz dazu sind sie bei Google mit dem vertraut, wofür sie bezahlen.

    Die anhaltende Treue zu Google hat seinen Ruf gestärkt und seine Schwachstellen verdeckt. Studien zeigen jedoch, dass Google-Algorithmen rassistische und sexistische Ergebnisse liefern können. Suchanfragen zu bestimmten Bevölkerungsgruppen können unangemessene Vorschläge hervorbringen oder stereotype Vorstellungen verstärken. Es besteht auch eine geschlechtsspezifische Datensammlungslücke, da die meisten Daten aus der Perspektive von Männern erhoben werden.

    Infolgedessen haben Plattformen wie Diem versucht, eine Lücke zu füllen, indem sie eine zentralisierte soziale Komponente zur Suche bieten. TikTok hat ebenfalls eine Rolle als Alternative zu Google eingenommen, indem es eine persönlichere und unterhaltsamere Erfahrung bietet. Die Nutzer fühlen sich gesehen und finden relevante Inhalte, noch bevor sie eine Suchanfrage stellen.

    Das Suchen ist erfüllender, wenn ein algorithmischer Bibliothekar die Bedürfnisse der Nutzer antizipieren kann und potenzielle Antworten, Produkte, Empfehlungen und Wünsche präsentiert, von denen sie vorher nichts wussten. Google hingegen setzt die Verantwortung für die Entdeckung auf den Suchenden selbst. In dieser aktuellen Situation stellt sich die Frage, welchen Mehrwert Google bietet, wenn wir unsere eigenen Bibliothekare sein müssen.

    Trotzdem bleibt die Frage nach Wettbewerb und Innovation im Bereich der Suche bestehen. Google wird seit 2020 mit fünf Kartellrechtsklagen konfrontiert, die seine Monopolstellung im digitalen Werbemarkt herausfordern. Es ist wichtig, dass neue Akteure wie TikTok und andere Plattformen den Markt diversifizieren und dazu beitragen, dass die Suche im Internet vielfältiger und zugänglicher wird.

    Insgesamt befindet sich die Suche im Internet im Wandel. Plattformen wie TikTok haben gezeigt, dass es alternative Wege gibt, um Inhalte zu entdecken und Informationen zu finden. Obwohl Google nach wie vor eine wichtige Rolle spielt, sind die Nutzer zunehmend bereit, andere Optionen zu erkunden und nach authentischeren und personalisierteren Sucherlebnissen zu suchen. Die Zukunft der Suche liegt in der Fähigkeit, die Bedürfnisse der Nutzer zu verstehen und ihnen eine intuitive und relevante Erfahrung zu bieten.

    Den gesamten Artikel von Terry Nguyen könnt Ihr hier bei The Dirt lesen

  • Google will unsere Fragen ohne Links – dafür mit KI beantworten. Was bedeutet das für Publisher?

    Google will unsere Fragen ohne Links – dafür mit KI beantworten. Was bedeutet das für Publisher?

    Google plant, Fragen ohne Links und mit künstlicher Intelligenz zu beantworten. Die Frage ist, wie sich dies auf Verlage auswirkt. Vor zwölf Jahren prognostizierte Eric Schmidt die KI-Wende, die sich nun vollzieht. Die daraus resultierenden Fragen – rund um die Link-Ökonomie, die faire Nutzung und die Aggregation – sind relevanter denn je.

    Schmidt verteidigte damals die Qualität von Googles Suchergebnissen und kündigte an, dass man versuche, von linkbasierten zu algorithmusbasierten Antworten überzugehen, wobei man die richtige Antwort berechnen könne. Inzwischen hat Google ein Imperium aufgebaut, indem es seine Suchergebnisse mit Anzeigen „verschmutzt“. Doch es hat eine potenzielle Schwachstelle: einen Konkurrenten, der den Nutzern Antworten anstatt Links zu Websites gibt, die möglicherweise Antworten haben.

    Microsoft hat angekündigt, seine Suchmaschine Bing mit ChatGPT zu aktualisieren, einer verblüffenden konversationellen, generativen KI, die Ende letzten Jahres vorgestellt wurde. Der neue Bing soll das Versprechen „Echte Fragen stellen. Komplette Antworten bekommen.“ einlösen. Sie werden auch in der Lage sein, mit „Ihrem KI-gesteuerten Antwortmotor“ zu chatten.

    Google hat versucht, dieser Nachricht zuvorzukommen, indem es seinen eigenen KI-gesteuerten Chatbot, Bard, angekündigt hat. Dieser ist derzeit für „vertrauenswürdige Tester“ verfügbar und soll in den kommenden Wochen für die breite Öffentlichkeit zugänglich sein.

    Dies ist eine äußerst spannende Entwicklung – vielleicht der bedeutendste Wandel in der Verbrauchertechnologie seit dem iPhone. Aber es gibt auch eine engere Frage, die für die Nachrichtenbranche von Interesse ist. Im Moment schickt Google viel Traffic zu Nachrichtenseiten. Aber je mehr Fragen Google ohne einen Klick beantwortet, desto weniger Traffic werden diese „antwortenden“ Nachrichtenseiten erhalten. Weniger Traffic bedeutet weniger Anzeigeneindrücke und damit geringere Einnahmen.

    Ein Wechsel von „linkbasiert“ zu „algorithmusbasiert“ könnte einen großen Einfluss auf Verlage haben, die Antworten auf die Fragen der Suchenden liefern. Aber auch traditionelle Verlage könnten betroffen sein. Es ist nicht schwer vorstellbar, dass Google in der nahen Zukunft direkte Antworten auf Fragen wie „Wann läuft Modern Family?“ oder „Wer sind die republikanischen Präsidentschaftskandidaten?“ geben kann.

    ChatGPT ist in seiner aktuellen öffentlichen Form nicht mit dem offenen Internet verbunden und ist nur auf Informationen bis 2021 trainiert, daher ist es nicht besonders aktuell. Aber sowohl Google als auch Microsoft haben angekündigt, dass ihre Bots auf das gesamte Web in Echtzeit zugreifen können, sodass ihre Ergebnisse wahrscheinlich stark sein werden.

    Es ist denkbar, dass Googles KI sich weiter verbessert und Fragen wie „Hat der Stadtrat von Dallas die Baurechtsänderung letzte Nacht genehmigt?“ oder „Was wird das Space Shuttle-Programm ersetzen?“ beantworten kann. Das stellt eine Herausforderung für die Geschäftsmodelle von Nachrichtenhäusern dar.

    Die Zukunft der Suche geht weit über den Kontext hinaus, den wir bisher kannten. Die Verschmelzung von Suchmaschinen und KI-Technologien bietet eine Fülle von Möglichkeiten, stellt aber auch neue Herausforderungen und Fragen für Verleger und die Medienbranche dar. Die Verschiebung vom „Link-basierten“ zum „Algorithmus-basierten“ Ansatz könnte bedeutende Auswirkungen auf die Umsätze von Nachrichtenseiten haben, da weniger Klicks auf ihre Websites zu geringeren Werbeeinnahmen führen könnten.

    Das neue Zeitalter der Suche könnte auch die Art und Weise verändern, wie wir mit Informationen interagieren und sie konsumieren. Die Einbindung von KI in Suchmaschinen könnte dazu führen, dass Benutzer:innen eine vollständig personalisierte, interaktive und konversationelle Sucherfahrung haben, bei der sie direkte Antworten auf ihre Fragen erhalten, anstatt sich durch eine Reihe von Links zu navigieren.

    Es ist jedoch wichtig zu beachten, dass diese Fortschritte nicht ohne Kontroversen kommen. Fragen zur Datenprivatsphäre, zum geistigen Eigentum und zur ethischen Nutzung von KI-Technologien werden sich wahrscheinlich intensivieren, während Suchmaschinen weiterhin KI-Technologien integrieren. Wie Google, Microsoft und andere Tech-Giganten diese Herausforderungen angehen, wird entscheidend sein, nicht nur für ihre eigenen Geschäftsmodelle, sondern auch für das gesamte digitale Ökosystem.

    Schließlich zeigt diese Entwicklung auch die Notwendigkeit für Verleger und Medienunternehmen, ihre Strategien anzupassen und neue Wege zu finden, um ihre Inhalte zu monetarisieren und ihre Zielgruppen zu erreichen. In einer Welt, in der Suchmaschinen möglicherweise nicht mehr auf Links angewiesen sind, um Antworten zu liefern, könnten Verleger neue Geschäftsmodelle und Partnerschaften in Betracht ziehen, um ihre Inhalte direkt an die Verbraucher:innen zu liefern.

    Zusammenfassend lässt sich sagen, dass wir uns an einem spannenden und unsicheren Punkt in der Entwicklung der Suchtechnologie befinden. Die Integration von KI in Suchmaschinen könnte das Potential haben, die Art und Weise, wie wir Informationen suchen und konsumieren, grundlegend zu verändern. Es bleibt abzuwarten, wie sich diese Entwicklung auf die Medienbranche und die Gesellschaft insgesamt auswirken wird.

    Hier sind die kompletten Gedanken dazu beim NiemanLab

  • 6 Risiken KI-generierter 🤖 Inhalte

    6 Risiken KI-generierter 🤖 Inhalte

    Dieses Magazin ist mit Hilfe von KI gebaut. Grund genug also, dass wir uns mal anschauen, ob wir uns vielleicht selbst ins Knie schießen. Entscheidet selbst, ob der Nutzen für Euer Unternehmen die Risiken überwiegt.

    1. Google-Risiko: Im April 2022 erklärte Googles John Mueller KI-generierte Inhalte als Spam. Inzwischen hat Google seine Haltung angepasst und betont die Nützlichkeit von KI bei der Erstellung hilfreicher Inhalte. Dennoch bleibt die Frage offen, ob Google solche Inhalte in Zukunft bestrafen könnte.
    2. Kanalrisiko: Die wachsende Konkurrenz um Keywords und die Möglichkeiten der KI könnten den Nutzen von SEO verringern. Ty Magnin, Head of Brand bei Vendr, wirft dabei die Frage auf, wie sich Suchmaschinen in der Chat-Ära verhalten werden.
    3. Halluzinationsrisiko: KI-generierte Inhalte können Falschinformationen enthalten. Eine menschliche Überprüfung ist notwendig, um Fehler zu erkennen und zu beheben.
    4. Rechtliches Risiko: Die schnelle technologische Entwicklung lässt Fragen zum Urheberrecht und zur Nutzung von KI-generierten Inhalten offen. Eine menschliche Überprüfung kann hier auch rechtliche Risiken minimieren.
    5. Mittelmäßigkeitsrisiko: Die Gefahr besteht, dass KI-generierte Inhalte zwar funktional, aber wenig einprägsam sind. Um dies zu vermeiden, sollte die KI als Werkzeug innerhalb einer größeren Content-Strategie eingesetzt werden.
    6. Letztbeweger-Risiko: Obwohl KI-generierte Inhalte Risiken bergen, bieten sie auch Chancen. Diejenigen, die nicht experimentieren und lernen, könnten hinter ihren Wettbewerbern zurückbleiben.

    KI-generierte Inhalte

    sind ein spannendes, wenn auch riskantes Gebiet. Nur durch Experimentieren und Anpassen könnt Ihr herausfinden, wie KI Eurer Content-Strategie am besten dient. Nutzt diese revolutionäre Technologie klug und findet Eure einzigartige Anwendung, um Eurem Unternehmen zum Erfolg zu verhelfen.

    Danke an Ryan fürs Gedanken machen.