Google Hacking

Mettez vos données sensibles à l'abri des moteurs de recherche.

Êtes-vous conscient que Google peut détecter des points d'injection de SQL, exécuter des scans de ports et CGI, copier des serveurs web, localiser des informations sur les firewalls et sur les logs IDS, atteindre des bases de données de mots de passe, des dumps SQL... tout cela, sans envoyer la moindre donnée vers la cible ?

Par l'analyse des techniques des Google Hackers malveillants, ce livre montre aux responsables de la sécurité comment mieux protéger leurs serveurs contre ces formes de fuite de l'information, de plus en plus courantes et dangereuses. Il intéressera également tous ceux qui s'intéressent à la veille technologique et aux outils
de recherche des données sensibles.

Après une présentation complète des bases de la recherche Google et de ses fonctions avancées, les techniques du Google Hacking sont exposées en détail sur plusieurs chapitres. Puis, l'auteur propose différentes méthodes de protection pour contrer ces menaces. Enfin, de nombreuses annexes et F.A.Q viennent compléter l'ouvrage.

Site de l'auteur : http://johnny.ihackstuff.com/

Mythes ou réalités ?

Les SEO (référenceurs de sites web) connaissent depuis longtemps les possibilités exploitées par le moteur de recherche dès lors qu'il s'agit de dénicher l'information. Google a en effet basé tout son empire sur les données qu'internet avait à partager au monde.

Google parcourt donc le web, au travers des liens contenus dans les pages de sites ou tout autre document en ligne : réseaux sociaux, fichiers de travail bureautique comme Microsoft Office, Adobe PDF, etc : dès qu'il trouve une adresse URL, Google envoie son robot (GoogleBot) suivre le lien et indexer les nouveaux contenus.

C'est ce qui a fait le succès de cette entreprise : sa capacité à crawler les internets, à catégoriser les contenus repérés puis indexés, à les classifier au moyen d'algorithmes comme le PageRank, et enfin à les afficher dans les pages de résultats de son moteur de recherche.

Le but de Google est donc de chercher l'information, inlassablement... Et parce qu'il a une exigence d'exhaustivité (indexer plus de documents en ligne que ses concurrents Bing et Yahoo par exemple), Google est un ogre qui avale tout ce qu'il trouve, à quelques exceptions près comme en lui interdisant l'accès à certains documents au moyen d'un fichier texte appelé robots.txt

Les portails du référencement comme WRI ou Abondance ont fait état des capacités des robots de Google à mimer un comportement humain lorsqu'il parcourt une page web, au besoin en interprétant du code informatique JavaScript comme expliqué ici sur WebRankInfo :

http://www.webrankinfo.com/dossiers/strategies-de-liens/javascript-onclick

ou encore en actionnant les formulaires qu'il rencontre comme relaté sur Abondance

http://www.abondance.com/actualites/20150916-15562-google-sait-remplir-et-soumettre-les-formulaires-web.html

Ces sites d'information grand public confirment donc pour partie ce qui est avancé dans le livre Google Hacking que nous vous proposons en destockage.

L'ouvrage propose ainsi de protéger vos contenus en ligne de la boulimie de Google, dans un but de protection de données mais aussi d'anti-référencement. Sujet d'autant plus d'actualité depuis les lois relatives au Droit à l'Oubli sur internet (droit au déréférencement). Pour en savoir plus nous vous invitons à lire http://www.lemonde.fr/pixels/article/2015/07/30/google-ne-veut-pas-appliquer-le-droit-a-l-oubli-dans-le-monde-entier_4705274_4408996.html