Question:
(Comment) Des tiers peuvent-ils découvrir les pages hébergées sur mon serveur?
Hoytman
2014-07-15 00:04:38 UTC
view on stackexchange narkive permalink

J'ai un site Web hébergé sur mon serveur. Parfois, je télécharge des scripts de manipulation de base de données dans un dossier qui comprend trois niveaux de profondeur dans le site Web et les exécute à l'aide de mon navigateur Web. Ces scripts ne doivent pas être consultés par des utilisateurs extérieurs et je les supprime dans les heures suivant leur téléchargement. Y a-t-il un risque que ces scripts soient trouvés ou explorés si aucune autre page ne les renvoie? Si tel est le cas, comment les découvrir?

J'ai également un sous-domaine de test situé sur user.mysite.com. Est-il possible pour des personnes extérieures qui ne connaissent pas le sous-domaine de découvrir l'existence du sous-domaine?

Quatre réponses:
Thomas Pornin
2014-07-15 00:22:51 UTC
view on stackexchange narkive permalink

Vos "fichiers secrets" restent secrets aussi longtemps que leurs noms (avec chemin complet) restent secrets. Vous pouvez considérer le chemin comme une sorte de mot de passe. Notez que les chemins vont fuir vers divers endroits (proxy, logs du serveur Web, historique de votre navigateur ...). Si les fichiers sont importants et sensibles, vous devez simplement faire les choses correctement:

  • Utilisez SSL pour télécharger et accéder à ces fichiers.
  • Configurez un mot de passe d'accès pour le répertoire où les fichiers le sont.

De cette façon, vous êtes de retour aux eaux connues: vous avez un (partie de) site Web avec des données sensibles et protégé par un mot de passe. Rendez-le fort, et vous êtes prêt.


Dans le cas du sous-domaine: ce "sous-domaine" est annoncé au monde entier via le DNS. Il est possible de configurer les serveurs DNS de manière à ce que les tiers ne puissent pas facilement énumérer tous les sous-domaines d'un domaine, mais cela demande une certaine prudence. De plus, chaque fois que vous accédez à ce sous-domaine, votre machine utilisera des requêtes DNS (pour l'adresse IP correspondante); ces requêtes voyagent sans protection particulière et contiennent le nom de sous-domaine. Il s'agit donc d'une proie facile pour les écoutes passives (c'est-à-dire "les personnes connectées au même point d'accès WiFi que vous"). Il serait trop optimiste de croire au secret d’un sous-domaine.

Et tout comme les mots de passe, les chemins peuvent être forcés brutalement. Les robots d'exploration utilisent des listes de dictionnaires pour essayer des noms de répertoires courants et essayer de tracer un site Web entier, même s'il n'y a pas de liens vers ces emplacements.
Evgenii Gostiukhin
2014-07-15 00:30:45 UTC
view on stackexchange narkive permalink

Je vois quatre possibilités de fuite de chemin

1) bruteforce

2) malware sur votre hôte

3) accident =) vous pouvez partager ce chemin à quelqu'un ou oublié de supprimer, ou de lier ceci à partir d'un endroit par accident.

4) google chrome =) parce que Google utilise les informations de chrome (et probablement ff) pour alimenter le robot d'exploration

la même chose est à propos de DNS. Se fier au chemin est une mauvaise pratique.

* "Parce que Google utilise les informations de chrome (et probablement ff) pour alimenter le robot d'exploration" * [citation nécessaire]
Je suis d'accord avec minitech ... Il semble que le n ° 4 pourrait facilement être suivi de "5) vous n'avez pas attaché votre chapeau en papier d'aluminium." Sauf si vous pouvez donner une citation pour Chrome utilisé sur le robot d'exploration, ne suggérez pas que ce soit le cas.
Ceci est de notoriété publique mais OK, voici votre citation. https://support.google.com/websearch/answer/106230 "(À propos des prédictions de saisie semi-automatique) ... toutes les prédictions affichées dans la liste déroulante ont déjà été saisies par les utilisateurs de Google ou apparaissent sur le Web. " Alors oui, les éléments que vous saisissez dans l'omnibox sont regroupés dans les suggestions de Google. La FAQ sur la saisie semi-automatique est accessible dans la documentation de l'Omnibox Google Chrome ici https://support.google.com/chrome/answer/95656?hl=fr&ref_topic=14676. Mais ils excluent le porno, donc si vous ne voulez pas que votre site soit indexé, mettez-y une femme nue.
@Wug "Google users"! = "Google Chrome users", donc cela ne confirme pas complètement votre réclamation. Il est probable qu'ils rassemblent les URL soumises par les navigateurs pour des fonctionnalités de saisie semi-automatique et anti-hameçonnage. J'ai des raisons de les soupçonner d'avoir également récupéré des URL à partir de messages envoyés depuis ou vers GMail, mais pas de preuves tangibles ou de citation.
Alors, vous n'êtes pas d'accord avec moi, mais vous êtes d'accord avec ce que j'ai dit? Je suis confus.
Au moins, ils récupèrent les URL de Google Hangouts - chaque URL qui y est publiée pointe vers Google, qui redirige vers la cible réelle.
Même s'il n'y a aucune preuve / fragile pour soutenir l'idée que Google collecte et analyse toutes les informations auxquelles ils sont exposés, il est toujours bon de noter qu'ils (et leurs employés) SONT exposés à vos informations de différentes manières. .
jk - Reinstate Monica
2014-07-15 14:34:08 UTC
view on stackexchange narkive permalink

Il existe une autre façon de divulguer des informations sur les pages Web "secrètes": lorsque la page appelle d'autres documents (pages Web, mais aussi javascript ou feuilles de style), l'en-tête du référent pointe vers cette page.

A Le scénario courant consiste à charger le populaire JQuery.js directement à partir de code.google.com, en laissant une page Web dans la recherche Google.

Les statistiques d'accès sont également exposées à Google dans ce cas.

Notez que ce type de fuite ne peut pas être contourné en exigeant https. La protection par mot de passe est utile dans la mesure où seuls le nom et le chemin de la page secrète, mais pas son contenu, sont exposés.

Gardez tout local.

ap288
2014-07-15 10:12:04 UTC
view on stackexchange narkive permalink

Première question concernant les pages d'administration: si vous supprimez les pages Web après avoir fini de les utiliser, personne ne pourra les trouver. Cependant, si vous les laissez sur le serveur, ils peuvent être trouvés. Il existe des outils d'analyse de site Web qui peuvent analyser votre site Web à l'aide d'un dictionnaire pour trouver des ressources «cachées».

Afin de mieux protéger ces fichiers, j'ajouterais des contrôles d'accès aux répertoires. Si vous utilisez Apache, consultez .htaccess. Je configurerais également le fichier robots.txt pour demander aux moteurs de recherche de ne pas explorer les zones que vous souhaitez garder cachées.

Deuxième question concernant le sous-domaine: Il est très facile de découvrir des sous-domaines pour les sites Web . Les attaquants peuvent essayer de faire en sorte que vos serveurs DNS renoncent à ces informations, ou ils peuvent simplement utiliser Google pour découvrir ces domaines. Par exemple, supposons que vous souhaitiez trouver tous les sous-domaines de yahoo.com, essayez la recherche Google "site: yahoo.com -www". Tous les sous-domaines que Google a explorés sont répertoriés dans les résultats de recherche. Un script Python rapide pour les analyser et le tour est joué!



Ce Q&R a été automatiquement traduit de la langue anglaise.Le contenu original est disponible sur stackexchange, que nous remercions pour la licence cc by-sa 3.0 sous laquelle il est distribué.
Loading...