Fügen Sie eine robots.txt-Datei hinzu oder generieren Sie sie entsprechend dem Robots Exclusion Standard im Stammverzeichnis des app-Verzeichnisses, um Suchmaschinen-Crawlern mitzuteilen, auf welche URLs sie auf Ihrer Website zugreifen können.
Fügen Sie eine robots.js- oder robots.ts-Datei hinzu, die ein Robots-Objekt zurückgibt.
Hinweis: robots.js ist ein spezieller Route Handler, der standardmäßig zwischengespeichert wird, es sei denn, er verwendet eine Dynamic API oder dynamische Konfigurationsoption.
Sie können festlegen, wie einzelne Suchmaschinen-Bots Ihre Website crawlen, indem Sie ein Array von User Agents an die rules-Eigenschaft übergeben. Beispiel: