Steeds meer ondernemers maken gebruik van Chat GPT en andere artificial intelligence (AI)-hulpmiddelen bij het schrijven van hun websiteteksten, blogs, posts voor social media, enzovoort. Kan Google teksten die met AI geschreven zijn detecteren? En wat vindt Google van content die met behulp van AI gegenereerd is?
Als je dit artikel leest, dan ben je ongetwijfeld al bekend met Chat GPT – of maak je er zelfs al regelmatig gebruik van bij het schrijven van teksten voor je marketing. Misschien ken je ook Google Bard al, het antwoord van Google op Chat GPT.
En als je dan gebruikmaakt van het gemak dat deze AI-chatbots je geven bij het schrijven van teksten, dan vraag je je misschien ook af hoe Google deze teksten beoordeelt. Helpt het maken van content met behulp van AI je om hoger in Google te komen, of schaadt het juist je vindbaarheid?
Kan Google AI-teksten detecteren?
Hoe en wat precies, daar doen ze zelf behoorlijk geheimzinnig over, maar Google beweert in elk geval dat het in staat is om teksten die met AI gegenereerd zijn te detecteren. Tegelijk doet Google verre van geheimzinnig over wat het meest belangrijk is als je met jouw website hoog in de zoekresultaten wilt komen: mensen goed helpen en van betrouwbare informatie voorzien in alle content die je produceert.
Als je daar ook wel eens de hulp van Chat GPT of andere chatbots bij inschakelt, dan heeft Google daar (op dit moment) geen problemen mee, zolang je maar niet aan het spammen bent en geen onjuiste informatie verspreidt. Zolang jij bij het schrijven van je websiteteksten en blogs gefocust blijft op de klanten die je wilt helpen, en je geen trucjes uithaalt in een poging Google te manipuleren, hoef je je waarschijnlijk nergens druk over te maken.
Nieuw beleid van Google, ook over artificial intelligence
Maar Google heeft hier in de zomer van 2023 in zijn nieuwe beleid wel een paar kanttekeningen bij geplaatst. Wat ik hieronder met je deel baseer ik op een Engelstalig blog van de Amerikaanse SEO-specialist Neil Patel.
Geen reviews met behulp van AI
Een stukje uit het nieuwe beleid van Google:
“Automated Content: We don’t allow reviews that are primarily generated by an automated program or artificial intelligence application. If you have identified such content, it should be marked as spam in your feed using the <is_spam> attribute.”
Oftewel: reviews die (grotendeels) met AI-technologie geschreven zijn worden beschouwd als spam. Heel logisch ook, want een review hoort natuurlijk altijd geschreven te zijn door iemand die daadwerkelijk een product of dienst bij je heeft afgenomen. Kunstmatig reviews in scene zetten was vanzelfsprekend altijd al af te raden, dus nu nog steeds.
Medische en andere gevoelige informatie
Maar volgens Neil Patel zal dit niet het enige zijn waar Google kanttekeningen bij plaatst. Als je zelf al aan de slag bent met Chat GPT, Google Bard of andere AI-chatbots, dan weet je dat ze je soms ook complete onzin verkopen. Dat je zelf altijd goed alert moet blijven of de informatie die voor je geproduceerd wordt ook echt klopt.
Dat komt mede doordat er op het internet in het algemeen – naast heel veel goede en waardevolle informatie – ook altijd al onzin te vinden was. En als chatbots dat wat zij voor jou produceren baseren op informatie die online voorhanden is, dan kunnen ze dus ook wel eens van die onzininformatie als bron gebruiken. En het is niet automatisch zo dat chatbots naarmate ze langer bestaan steeds betere informatie gaan produceren.
Neil Patel haalt in zijn blog een voorbeeld aan van artsen met zeventien verschillende specialismes, die aan Chat GPT 284 verschillende medische vragen voorlegden. In 92 procent van de gevallen kwam er een correct antwoord op die vraag.
Dat lijkt misschien een heel hoog percentage, maar als het om medische vragen gaat, kan een onnauwkeurigheid van 1 procent al gevaarlijk zijn. Een niet-kloppend antwoord kan iemands gezondheid mogelijk flinke schade toebrengen.
Wat heeft dit voor gevolgen voor hoe Google AI-content beoordeelt?
Omdat alles dat met AI te maken heeft nog zo nieuw is, is hier geen 100 procent nauwkeurig antwoord op te geven. Maar het vermoeden van Neil Patel is dat Google vooral extra streng zal zijn als het gaat om medische informatie, financieel advies en alle andere soorten onderwerpen waarbij er een kans op direct gevaar is als informatie niet klopt. Als je voor het schrijven daarvan gebruikmaakt van AI, is de kans groot dat je niet hoog in de zoekresultaten zult verschijnen.
Schrijf je over meer onschuldige onderwerpen, zoals het maken van wandelingen, het schrijven van blogs of het tekenen van poppetjes? Dan zul je je waarschijnlijk weinig zorgen hoeven te maken dat Google je benadeelt als je hierbij de hulp van AI-chatbots inroept. Als er dan eens een foutje in je blog staat, zal er immers echt geen direct levensgevaar dreigen voor je lezers.
Conclusie: waar moet je op dit moment rekening mee houden als het gaat om Google en AI?
Sowieso is mijn advies (en ook dat van Neil Patel) altijd om je teksten die je met behulp van AI schrijft nog eens goed na te lezen. Giet er je eigen sausje overheen, zorg dat het in jouw eigen schrijfstijl geschreven is en ga bovenal na of alles inhoudelijk klopt.
Was je begin 2023 al bezig met AI voor het schrijven van je teksten, dan was je echt een voorloper. Maar maak je er nu gebruik van, dan ben je inmiddels een van de velen. Neil Patel verwacht daarom dat juist de ondernemers die nog (grotendeels) zelf hun teksten schrijven de komende tijd beloond gaan worden door Google – simpelweg omdat het meer zeldzaam wordt dat je nog volledig zelf je teksten schrijft.
Schakel je hierbij ook wel eens wat hulp in van Chat GPT of andere chatbots, dan is dat helemaal niet erg. Maar prop je uit gemakzucht je hele website vol met content die puur en alleen door chatbots geproduceerd is, dan zul je waarschijnlijk merken dat dit je geen goede vindbaarheid in Google oplevert.
Als er nieuwe ontwikkelingen of inzichten op dit gebied zijn, dan zal ik dit (overigens volledig door mijzelf geschreven, ik zeg het er maar even bij) artikel updaten.