Cocorico++

wget http://www.france.fr/robots.txt

[sourcecode language=”text”]
# $Id: robots.txt,v 1.9.2.1 2008/12/10 20:12:19 goba Exp $
#
# robots.txt
#
# This file is to prevent the crawling and indexing of certain parts
# of your site by web crawlers and spiders run by sites like Yahoo!
# and Google. By telling these "robots" where not to go on your site,
# you save bandwidth and server resources.
#
# This file will be ignored unless it is at the root of your host:
# Used: http://example.com/robots.txt
# Ignored: http://example.com/site/robots.txt
#
# For more information about the robots.txt standard, see:
# http://www.robotstxt.org/wc/robots.html
#
# For syntax checking, see:
# http://www.sxw.org.uk/computing/robots/check.html

User-agent: *
Crawl-delay: 10
# Directories
Disallow: /includes/
Disallow: /misc/
Disallow: /modules/
Disallow: /profiles/
Disallow: /scripts/
Disallow: /sites/
Disallow: /themes/
# Files
Disallow: /CHANGELOG.txt
Disallow: /cron.php
Disallow: /INSTALL.mysql.txt
Disallow: /INSTALL.pgsql.txt
Disallow: /install.php
Disallow: /INSTALL.txt
Disallow: /LICENSE.txt
Disallow: /MAINTAINERS.txt
Disallow: /update.php
Disallow: /UPGRADE.txt
Disallow: /xmlrpc.php
# Paths (clean URLs)
Disallow: /admin/
Disallow: /comment/reply/
Disallow: /contact/
Disallow: /logout/
Disallow: /node/add/
Disallow: /search/
Disallow: /user/register/
Disallow: /user/password/
Disallow: /user/login/
# Paths (no clean URLs)
Disallow: /?q=admin/
Disallow: /?q=comment/reply/
Disallow: /?q=contact/
Disallow: /?q=logout/
Disallow: /?q=node/add/
Disallow: /?q=search/
Disallow: /?q=user/password/
Disallow: /?q=user/register/
Disallow: /?q=user/login/
[/sourcecode]

Hypothèse 1 : On l’a copié de quelque part, mais on sait pas trop ce que cela fait
Hypothèse 2 : Quitte à en mettre un, autant bien le remplir

DEFCON : How I Met Your Girlfriend

L’une des présentations les plus en vue cette année à la Defcon, tout comme à la BlackHat, était intitulée « How I met your girlfriend ». Il fallait scrutiner la brochure pour comprendre qu’il s’agissait d’une présentation donnée par Samy Kamkar, illustre créateur du vers « Samy » ayant sévi sur MySpace il y a quelques années, qui allait traiter de plusieurs nouvelles failles Web. Le tout était présenté de manière intelligente autour de la recherche fictive d’une célébrité.

La première attaque vise le générateur de sessions PHP et surtout le générateur de nombre pseudo-aléatoires du mécanisme. En effet, il a démontré qu’il est possible de réduire l’entropie des identifiants de session de 160 à moins de 30 bits, ce qui donne la possibilité de découvrir la valeur d’un identifiant à l’aide d’une attaque de type « bruteforce ».

En examinant le code utilisé pour générer un identifiant de session dans la version 5.3.1 de PHP, on trouve qu’il se base sur les éléments suivants:

  • Adresse IP du client (32 bits)
  • Temps Epoch (32 bits)
  • Microseconde courante (32 bits, mais réellement moins de 20)
  • valeur aléatoire issue de la fonction php_combined_lcg (64 bits)
  • Total : ~148 bits

[sourcecode language=”cpp”]

char *buf;

struct timeval tv;

char *remote_addr = NULL;

gettimeofday(&tv, NULL);

spprintf(&buf, 0, "%.15s%ld%ld%0.8F",

remote_addr ? remote_addr : "",

tv.tv_sec,

(long int)tv.tv_usec,

php_combined_lcg(TSRMLS_C) * 10);

[/sourcecode]

On se rend compte que certaines de ces valeurs peuvent être découvertes relativement facilement par un attaquant, surtout sur des réseaux sociaux. En effet, la plupart d’entre eux offrent aux utilisateurs (dans ce cas ci à l’attaquant) la possibilité de voir lorsqu’un autre utilisateur se connecte, par exemple via un chat. De plus, l’utilisation de ce chat pourrait permettre à un attaquant de convaincre sa victime de visiter un site sous son contrôle afin de découvrir son adresse IP. Cela signifie que les 64 bits d’entropie liés à l’adresse IP du client et de la seconde à laquelle il s’est connecté disparaissent. Il reste donc les 20 bits lié à la microseconde de la connexion, qui sont difficilement devinable, et les 64 bits liés à l’utilisation de la fonction php_combined_lcg.

Cette fonction génère 2 x 32 bits d’informations pour générer les 64 bits d’entropie. Lors du premier appel à la fonction, une valeur est générée par lcg_seed pour aléatoiriser les prochains appels à la fonction. Cependant, si l’on connait cette valeur, on va pouvoir en déduire toutes les prochaines valeurs « aléatoires » générées. La fonction lcg_seed va concaténer deux valeurs de 32 bits afin de créer les 64 bits d’entropie de la fonction.

[sourcecode language=”cpp”]

struct timeval tv;

if (gettimeofday(&tv, NULL) == 0) {

LCG(s1) = tv.tv_sec ^ (~tv.tv_usec);

} else {

LCG(s1) = 1;

}

#ifdef ZTS

LCG(s2) = (long) tsrm_thread_id();

#else

LCG(s2) = (long) getpid();

#endif

[/sourcecode]

Le premier de ces nombres (s1) est un XOR entre la valeur epoch et le complément à un des microsecondes lors de l’appel de la fonction. Le problème ici vient du fait que les microsecondes n’ont qu’une entropie de 20 bits ( 0 – 1’000’000) et les 12 premiers bits du complément à 1 ne changent donc jamais. Les premiers bits du temps en epoch ne sont que peu aléatoires et si l’on peut estimer que le premier « seed » a été généré dans un espace de 12 jours, seul les 20 derniers bits ne sont pas déterministes. Les 12 premiers bits de s1 peuvent donc être considérés comme constants.

Le second nombre (s2) utilisé par lcg_seed est simplement le process ID d’Apache. Sur un système Linux, cet identifiant n’est codé que sur 15 bits par défaut, ce qui signifie que l’entropie de ce deuxième chiffre est réduite de 32 à 15 bits.

On arrive alors à une combinaison de 20+15 bits, soit 35 bits au lieu des 64 bits annoncés par la fonction. En imaginant qu’on puisse exécuter du code sur la machine cible, par exemple via une faille web, on peut alors découvrir le PID exact (commande getmypid()). Il ne reste alors que les 20 bits du lcg à découvrir. En utilisant la fonction lcg_value, on peut écrire un programme permettant de bruteforcer la valeur du seed initial. Au final, il ne reste plus que les 20 bits relatifs à la microseconde de connexion de l’utilisateur. Cela correspond à environ 1 millions de valeurs de cookie différentes, ce qui peut être testé en une journée.

Dans la suite de son discours, Samy a présenté une attaque dite de Cross Protocol Scripting (XPS) qui se base sur l’utilisation de JavaScript pour communiquer avec un protocole autre que le traditionnel HTTP. En effet, il est tout à fait possible d’ouvrir une session en spécifiant un port autre que 80 ou 443, malgré certaines limitations au niveau de quelques navigateurs Internet.

Il est par exemple possible de se connecter à un serveur IRC en envoyant les requêtes désirées via un formulaire caché dans une page. Le serveur recevra les en-têtes HTTP qu’il ignorera car ce ne sont pas des commandes IRC valides, cependant le corps de la requête peut contenir des commandes valides.

L’XPS peut alors être utilisé pour tenter d’exploiter une faille dite de NAT Pinning sur certains routeurs. L’idée se base sur le fait que certains protocoles nécessitent l’ouverture de certains ports sur la machine du client. Par exemple, lors de transferts de fichiers sur IRC via la commande DCC, un nouveau port est ouvert et le contact de l’autre côté se connecte directement sur la machine du client pour récupérer le fichier. Ceci évite de surcharger la bande passante du serveur. Comme de plus en plus de machine se trouvent aujourd’hui derrière un firewall, ces derniers ont évolué et sont capables de reconnaitre ce type de flux et peuvent rediriger automatiquement le port requis vers la machine initiant la connexion. On peut donc utiliser cela pour accéder directement à la machine de la victime en redirigeant les ports voulus sur le firewall.

Finalement, la dernière partie de la présentation se base sur une combinaison d’attaques de type Cross-Site Scripting afin de découvrir la position exacte de la victime. Ceci se fait en plusieurs étapes:

  1. Convaincre la victime d’aller voir une page sous le contrôle de l’attaquant contenant un bout de code javascript permettant de fingerprinter le type de routeur de la victime. Ceci est typiquement fait à l’aide d’iframes cachées recherchant des noms de pages connues pour les différents types de routeurs.
  2. Après avoir trouvé une faille XSS sur le routeur, l’exploiter afin de récupérer l’adresse MAC de ce dernier. S’il est nécessaire de s’authentifier pour cela, l’utilisation des identifiants par défaut du routeur marchent dans la plupart des cas.
  3. Utiliser le service de géolocalisation de Google pour localiser l’adresse exacte de la personne.

Le dernier point est possible car pendant que les voitures Google prennent des photos pour Google Street View, elles captent également les différents réseau WiFi aux alentours. En spécifiant l’adresse MAC d’un routeur WiFi, ce service est alors capable de localiser à une dizaine de mètres près, la position exacte du routeur de la victime.

Alain Mowat

Organisation et préparation d’Insomni’hack 2011

Le lieu et la date exacte du concours pour l’édition 2011 n’ont pas encore été définitivement arrêtés… car nous travaillons encore sur le format de l’évènement.

Nous avons besoin de votre avis car nous envisageons plusieurs options :

  • Est ce que nous gardons le concours le vendredi soir (comme les 3 éditions précédentes…), ou préfereriez vous un concours qui aurait lieu le samedi ?
  • Aimeriez vous que des conférences soient organisées en parallèle du concours ? Pour l’accès au conférences une petite participation vous serait demandée pour couvrir les frais (le concours resterait gratuit)

[polldaddy poll=3624562] [polldaddy poll=3624573]

Quel type de sujets/épreuves aimeriez vous retrouver à Insomni’hack 2011 :
[polldaddy poll=3624695]

Les résultats de vos votes seront postés d’ici quelques semaines.

Introduction aux méthodes de forensics

A partir de la rentrée de septembre SCRT inaugure une nouvelle formation ayant pour thème les analyses forensics.

Cette formation a pour but de donner les bons reflexes à avoir en cas d’incident et d’initier aux différentes techniques et outils utilisés lors d’une analyse post-incident.

Les points suivants seront abordés:

  • les premières étapes
  • la collecte de preuves
  • l’analyse (online, offline, réseau)
  • les techniques de base lors de l’analyse d’un code malveillant

Pour plus d’informations: [email protected]

Les oubliés des forensics: les Local Shared Objects

Dans le cas d’une analyse forensics, lors de la reconstruction des actions d’un utilisateur les cookies du navigateur sont l’un des premiers points à être analysé. Néanmoins, dans un navigateur ce dernier n’est pas le seul à laisser des traces: le lecteur Flash dispose également d’un système de cookies.

Le lecteur Flash utilise également des cookies afin de permettre aux sites de suivre les visiteurs lors de leurs passage. Par défaut, le stockage des cookies est activé ce qui en fait un atout lors de l’analyse d’un poste client. Flash intègre un mécanisme de sécurité basé sur le nom de domaine afin de restreindre l’accès aux LSO, mais ces fichiers sont indépendants du navigateur.

Les Local Shared Objects sont stockés dans le répertoire personnel de chaque utilisateur avec l’extension .sol. Un LSO contient les informations suivantes en plus des métadonnées:

  • le nom du site
  • le nom de l’objet représenté
  • le type des données stockées (nombre, booléen, chaine de caractères, date, …)
  • les données stockées

L’outil log2timeline peut être utilisé afin d’extraire des informations de fichiers LSO.

[sourcecode language=”bash”]

$ perl log2timeline -f sol -z Europe/Zurich "/Users/julien/Library/Preferences/Macromedia/Flash Player/#SharedObjects/36QMEH7N/www.hulu.com/BeaconService.sol"
Starting to parse file using format: [sol]
0|[LSO] modified -> File: /Users/guru/Library/Preferences/Macromedia/Flash Player/#SharedObjects/36QMEH7N/www.hulu.com/BeaconService.sol and object name: BeaconService variable: {visitNumber = (visit => 1, modified => 1253639116241, )}|0|0|0|0|0|1253639092|1253639092|1253639092|1253639092

[/sourcecode]

A noter que Google Chrome est le premier navigateur à avoir ajouté un lien vers la page de gestion des LSO dans sa fonctionnalité de suppression de l’historique de navigation.