Squid est un logiciel qui part du principe, que dans un même lieu
les gens vont souvent voir les mêmes choses sur Internet. Il est donc judicieux d'éviter
de rechercher à l'autre bout de la planète une page 5 fois de suite. C'est pourquoi on
utilise un mandataire (un intermédiaire), qui au nom du "client" WWW va faire la recherche. Si un second client demande
la même page, le mandataire va reprendre la page, qu'il a déjà cherchée,
dans un stock qu'il s'est constitué, et cela dans un temps bien plus court que celui
nécessaire normalement.
Evolution de notre configuration
A l'heure actuelle, le cache n'a plus grand chose à voir avec le cache des débuts.
Il fait tout en mémoire. Le disque ne faisant que ralentir
La généralisation du HTTPS rend son utilité de moins en moins forte
Il effectue toujours du filtrage, mais cf ci-dessus, le DNS RPZ est tout aussi efficace.
L'interception transparente ne marche que par un reroutage un peu complexe.
Bref, a-t-il encore un avenir ? Les points qui marchent encore
pour les 30% de requêtes HTTP, il fait son taf (filtrage, log jusqu'à l'URL)
pour les 70% de requêtes HTTPS, il log correctement les domaines (alors que c'est un vrai bazar sans cela).
le jour où le déchiffrement du HTTPS sera autorisé (mais sera-til possible, ou même souhaitable, avec de la BYOD ?) il reprendra, peut-être, son utilité.
Utilisation
Pour bénéficier du cache il suffit
soit de définir comme serveur proxy cache.ut-capitole.fr et comme port 3128
pour tous les services hormis socks
soit de définir l'automatic proxy configuration avec pour valeur http://dsi.ut-capitole.fr/proxy.pac
Vous pouvez lire ici l'utilisation