Veel generatieve AI-systemen worden getraind met gegevens die door automatische software van openbare websites worden ‘gescrapet’.
Als je niet wilt dat jouw werk op deze manier wordt gebruikt, maak dit dan expliciet duidelijk op je website en eventueel in je e-mailhandtekening. Bijvoorbeeld door in de gebruiksvoorwaarden van je site op te nemen dat je geen toestemming geeft voor tekst- en datamining. Dit voorkomt niet dat je werk alsnog onrechtmatig wordt gescrapet, maar het geeft een signaal dat je het gebruik ervan zonder toestemming niet accepteert.
Sommige AI-ontwikkelaars, waaronder OpenAI (ChatGPT), Google (Bard) en Common Crawl (CCBot), bieden de mogelijkheid om een website uit te sluiten van gebruik in hun systemen.
Om dit te activeren, vraag je je webdesigner om de volgende regels toe te voegen aan het robots.txt-bestand van je website:
User-agent: GPTBot
Disallow: /
User-agent: CCBot
Disallow: /
Helaas geldt dit niet voor materiaal dat al is gescrapet, en omdat deze regels slechts verzoeken zijn (geen harde blokkades), is niet zeker in hoeverre ze worden nageleefd