Wie kommt eine Künstliche Intelligenz, die Texte schreibt oder Bilder malt, eigentlich an ihre Daten? Also: Wie recherchiert sie? Welche Quellen wählt sie aus, welche berücksichtigt sie nicht, wie bewertet sie also die Quellen?
Ich weiß es nicht. Aber ich kann mir vorstellen, dass sich daraus nun eine Aufgabe für "SEO" formuliert: Bereite Deinen Content so auf, dass er für die KI vertrauenswürdiges, relevantes und verarbeitbares Material ist.
Bei klassischem SEO möchte ich bekanntermaßen a) auf die 1. Seite der Suchmaschinen. Wir mussten lernen, wie die Suchmaschine Relevanz definiert und haben Keywords und Backlinks und Cornerstone Content und was wir sonst noch für "SEO 1.0" gebraucht haben geliefert. Warum? Damit wir Menschen es leichter haben, uns in der unermesslichen Fülle der Angebote zurechtzufinden.
Bei schema-orientiertem SEO möchte ich zudem b) der relevanteste Beitrag zu dem Thema werden. Weil: Alexa und Siri und all die Sprachassistenten benötigen einen glaubwürdigen "Relevanz-Proof", den ihnen die Suchmaschine liefert. Wir haben also einzigartigen Content gezeugt mit FAQs und Schritt-für-Schritt-Anleitungen, haben den Knowledge Graph-Infobedarf ordentlich gestillt und darauf gehofft, dass die Suchmaschinen nach 9 Monaten ein Snippet gebären. Bei "SEO 2.0" reichte die 1. Seite der Suchmaschine nicht mehr, mein Content musste der von der Maschine vorgeschlagene werden. Warum? Damit unsere elektronische Assistenz weiß, was sie vorlesen muss, wenn wir nach etwas fragen.
Heute müssen wir c) SEO für AI-Bots machen. Wie das geht, weiß ich noch nicht - das möchte ich mir die nächsten Tage mal anschauen. Aber klar ist: Nun reicht es nicht mehr aus, die "Nummer 1" in den SERPs zu werden, nun muss mein Content noch ganz andere Relevanz-, Kontext- und Vertrauenskriterien erfüllen, damit die KI ihn berücksichtigt. Denn: Welchen Sinn hat eine KI-erstellte Pressemitteilung, wenn die Hälfte der Inhalte Unsinn aus fragwürdigen Quellen ist? Damit die KI mittelfristig sinnvoll nutzbare Ergebnisse erzeugen kann, müssen diese unseren menschlichen wissenschaftlichen, journalistischen, ästhetischen, emotionalen und logischen Standards mindestens genügen, besser noch: Sie übertreffen. Damit die KI weiß, was sie für uns produzieren soll.
Das kann die KI nicht aus sich selbst heraus, sie benötigt ja "Material", Substanz, ein "Briefing". Substantielle Inhalte aus dem Netz und den Datenbanken, die sie füttern.
Wie stellen wir also dieses Material bereit? Wie werden wir, wie wird unser Content für eine KI "vertrauenswürdig"? Welche Latte legt die KI an wissenschaftliche Texte an - wie oft sie zitiert sind und wo? Wie groß die Reputation der Autor:innen ist, aus welchem Forschungsinsitut die Studien stammen bspw.? Oder "checkt" die KI die wissenschaftlichen Methoden, die in der Studie verwendet wurden und prüft die Plausibilität der Resultate?
Sorgen die KI-Bots damit für eine Qualitätssteigerung bspw. in der Wissenschaft, weil sie unbestechliche peer reviewer sind? Finden die Bots so auch Fake News - und markieren sie als solche?
Was passiert da gerade, und was bedeutet das für unseren Content? Denn: Die Befürchtung, dass bald niemand mehr Texte schreiben und Bilder malen muss, weil das die KI eh schneller, besser und billiger kann, teile ich nicht. Im Gegenteil:
- Wir müssen die KI "füttern".
- Unser Content wird dann ihre Ergebnisse "steuern" oder überhaupt erst ermöglichen.
- Wir müssen die Fähigkeiten trainieren, die wir brauchen, um der KI sinnvolle Anweisungen geben zu können.
- Wir müssen also unsere Content Produktion neu denken.
- Und wir müssen unsere "Content-Aufbereitung für die Maschine" - formerly known als SEO - neu denken. Oder zumindest anpassen, modifizieren, optimieren.
Aber vielleicht ist alles ja auch ganz anders. Aber spannend ist es auf jeden Fall, und diese Entwicklung bietet so viele neue Jobs und Anwendungsmöglichkeiten für uns Menschen, dass uns die "Arbeit" ganz sicher nicht ausgehen wird. Sie wird, wenn wir es richtig angehen, eventuell sogar für viel bessere Inhalte sorgen. Weil die KI diese benötigt und "Schrott" und "Fake" und mies belegte unlogische Inhalte erkennt und aussortiert.
Wir werden uns mit besserem Content beschäftigen müssen, um von der KI besseren Content zu erhalten. Das ist meine naive Hoffnung.
Wie seht Ihr das?