Ich hab gar keine.... die Sitemap ist angemeldet und das Forum liefert für alle auslieferbare Seiten den korrekten Statuscode,
Seiten per robots.txt aussperren, aber dann sämtliche rel Tags nicht anzupassen ist absolut kontraproduktiv.
Das XF schickt in den Seiten die nicht indiziert werden sollten, einen <meta name="robots" content="noindex" /> mit. Wenn man den hat, muss die Seite nicht wirklich noch mal in die robots.txt aufgenommen werden.
Und ob Google die JS Dateien scannt oder nicht, ist mir egal. Die werden über ein CDN ausgeliefert, und stören somit am Ende nicht beim Traffic.
Ich hab aber auch Cloudflare (die kostenlose Variante) im Einsatz. Das schützt den Server schon recht gut vor crawlern, da alle Gast Seiten im CF Cache liegen.
Und Bad Bots interessiert eine robots.txt eh nicht, das sind ja nur Hinweise.
Alle Binärdaten liegen dann im S3 Bucket, der nicht öffentliche Daten eh blockt.