Existe-t-il un moyen de mettre en place une politique autoriser tout sur votre domaine de premier niveau et que tous les sous-domaines interdisent tout? Je préférerais que mes serveurs d'applications publics ne soient pas indexés, mais d'après ce que je peux dire, aucun robot n'interroge même le fichier robots.txt lorsqu'il passe de notre domaine de premier niveau à un sous-domaine via un lien.
J'ai toujours eu envie de cartographier tous les endroits interdits pour les robots.txt, c'est donner une feuille de route à quiconque veut savoir où se trouvent les bonnes choses.
Quel type de stratégie de sécurité Robots.txt serait le mieux adapté à un environnement d'application Web?