Rapport de stage
Nom et prénom :Narjis tazari
Ecole : ensak
filière : réseaux et systeme de telecommunication
Ministère de l'Aménagement du territoire national,
de l'Urbanisme, de l'Habitat et de la Politique de la ville .
Tout d’abord, je tiens à remercier Mr adil benthami . Un grand
merci pour son accueil chaleureux au sein du département qu’il
dirige, ainsi que pour sa patience et ses précieux conseils. Je
voudrais remercier également tous les membres du personnel
qui ont mis tout en œuvre pour que mon stage se déroule dans
les meilleures conditions possible et qui ont contribué
principalement au succès de mon stage , notons Mr. mehdi et
Mme. rawya .
Je saisis également cette occasion pour adresser mes profonds
remerciements aux responsables et au personnel de l‘École
Nationale des Sciences Appliquées précisément Mr bouayadi et
Mme madini . qui ont été toujours à mon écoute et ont su
m’apporter un soutien sans faille, notamment en ce qui
concerne les démarches administratives relatives à mon stage .
Pour finir , je mentionne que durant ces deux mois de stage ,le
temps, l’attention, l’intérêt que votre personnelle avez bien
voulu me témoigner n’ont pas été perdus. Ils m’ont donné envie
de persévérer dans ce métier pour lequel vous m’avez donné le
plus grand respect .
01
01 Les bases du réseau
02 Les bases du sécurité réseau
03 virtualisation
04 Développement d’un site-web
1.Définition :
[Link] classes d’adresses IP :
a. Les adresses IP privées
b. Les adresses IP publiques
c. Les exceptions
[Link]èle de transport
a. Modèle OSI
b. Modèle TCP/IP
4,L’adresse IPv4
5.L’adresse IPv6
6. IPv6 et IPv4
7. Dns
8. VLAN
10. NAT
a. types du nat
b. Implémentation du NAT
c. Problèmes inhérents
d. Bénéfices du NAT
e. Configuration du NAT dynamique
e.1. Pour configurer le NAT dynamique, les étapes suivantes sont
requises:
e.2. Étapes pour configurer le NAT dynamique à l'aide de CLI.
f. Configuration du NAT statique
[Link] configurer le NAT statique sur les appareils Cisco, les étapes
suivantes sont requises:
f.2.Étapes pour configurer le NAT statique sur les appareils Cisco via CLI
[Link]érabilités
2. Menaces
3. Attaques
4. Risques
5. Typologie des attaques les plus courante
6. Sécurité sur les ports
7. HSRP
[Link] du routeur 1
[Link] du tracking
8. Cryptographie
C’est quoi la virtualisation
[Link]:
[Link] types des systèmes de virtualisation
[Link]
b. Hyperviseur de type
c. Hyperviseur de type
[Link]
pourquoi utiliser proxmox
[Link]
[Link]
[Link] et configuration des machine vertuelles
d-Machine virtuelle Windows server 2016 :
e. Configuration du serveur DHCP et dns
[Link] en place de redondance DHCP: en mode failover
[Link] en place de dns
[Link] vertuelle linux
f.1. Wireshark, c’est quoi ?
f.2. utilisation wireshark
[Link] source back-end
<!-- pr md5 -->
<!-- pr sha512 -->
<!-- base64 -->
<!-- Bcrypt -->
<!--argon2I -->
2. Des captures d’écran du site crée
1.Définition :
Une adresse IP est un numéro d'identification qui est attribué de façon
permanente ou provisoire à chaque périphérique relié à un réseau informatique qui
utilise l'Internet Protocol. L'adresse IP est à la base du système d'acheminement
(le routage) des paquets de données sur Internet.
Il permet donc d’identifier chaque hôte connecté à un réseau informatique utilisant le
protocole IP. Actuellement, elle est mondialement utilisée dans sa version 4, une
version dans laquelle l’adresse IP est composée de 4 nombres (4 octets) allant de 0 à
255, séparés par des points. De ce fait, l’adresse IP la plus basse est [Link] et la plus
haute [Link], chacun de ces nombres correspond à un octet.
Internet protocol (protocole internet, abrégé en IP) est une famille
de protocoles de communication de réseaux informatiques conçus pour être utilisés
sur Internet. Les protocoles IP sont au niveau 3 dans le modèle OSI. Les protocoles IP
s'intègrent dans la suite des protocoles Internet et permettent un service d'adressage
unique pour l'ensemble des terminaux connectés.
La commutation de paquets, ou commutation par paquets, ou encore transmission par
paquets, est une technique utilisée pour le transfert de données informatiques dans
des réseaux spécialisés. Elle existe en deux grandes variantes :
les datagrammes (données transmises sans connexions connues dans le réseau), et
les circuits virtuels (données transmises avec connexions connues dans le réseau).
Internet est un réseau informatique mondial accessible au public. Il s'agit d'un
réseau de réseaux, à commutation de paquets, sans centre névralgique, composé de
millions de réseaux aussi bien publics que privés, universitaires, commerciaux,
et gouvernementaux, eux-mêmes regroupés en réseaux autonomes ; il en existe plus
de 91 000 en 20191. L'information est transmise via Internet grâce à un ensemble
standardisé de protocoles de transfert de données, qui permet
des applications variées comme le courrier électronique, le World Wide Web,
la messagerie instantanée, le partage de fichiers en pair-à-pair, le streaming,
le podcasting, la téléconférence.
Les ports sont des numéro dans chaque paquet IP qui permet de savoir à tel ou
tel logiciel le paquet est destiné .
UDP/IP est un protocole qui permet justement d'utiliser des numéros
de ports en plus des adresses IP (On l'appelle UDP/IP car il fonctionne au dessus d'IP).
IP s'occupe des adresses IP et UDP s'occupe des ports.
[Link] classes d’adresses IP :
Chaque adresse IP appartient à une classe qui correspond à une plage d’adresses
IP. Ces classes d’adresses sont au nombre de 5 c'est-à-dire les classes A, B, C, D et E. Le
fait d’avoir des classes d’adresses permet d’adapter l’adressage selon la taille du réseau
c'est-à-dire le besoin en terme d’adresses IP.
- La classe A de l’adresse IP [Link] à [Link] (adresses privées et
publiques).
- La classe B de l’adresse IP [Link] à [Link] (adresses privées et
publiques).
- La classe C de l’adresse IP [Link] à [Link] (adresses privées et
publiques).
- La classe D de l’adresse IP [Link] à [Link] (adresses de multicast).
- La classe E de l’adresse IP [Link] à [Link] (adresses réservées par
l’IETF).
Les adresses IP privées représentent toutes les adresses IP de classe A, B et C
que l’on peut utiliser dans un réseau local (LAN) c'est-à-dire dans le réseau de votre
entreprise ou dans le réseau domestique. De plus, les adresses IP privées ne peuvent
pas être utilisées sur internet (car elles ne peuvent pas être routées sur internet), les
hôtes qui les utilisent sont visibles uniquement dans votre réseau local. Les classes A,
B et C comprennent chacune une plage d’adresses IP privées à l’intérieur de la plage
globale.
- Les adresses privées de la classe A : [Link] à [Link]
- Les adresses privées de la classe B : [Link] à [Link]
- Les adresses privées de la classe C : [Link] à [Link]
Contrairement aux adresses IP privées, les adresses IP publiques ne sont pas
utilisées dans un réseau local mais uniquement sur internet. Les routeurs (par
exemple : votre box) disposent d’une adresse IP publique côté internet, ce qui rend
votre box visible sur internet (elle répondra au ping). Mais aussi, lorsque vous accédez
à un site web vous utilisez l’adresse publique du serveur web.
Une adresse IP publique est unique dans le monde, ce qui n’est pas le cas des
adresses privées qui doivent être unique dans un même réseau local mais pas au
niveau planétaire étant donné que ces adresses ne peuvent pas être routées sur
internet.
Les adresses IP publiques représentent toutes les adresses IP des classes A, B et
C qui ne font pas partie de la plage d’adresses privées de ces classes ou des exceptions
de la classe A.
- Le réseau [Link] est réservé pour les tests de boucle locale avec
notamment l’adresse IP [Link] qui est l’adresse « localhost » c'est-à-dire de boucle
locale de votre PC.
- Le réseau [Link] est lui aussi réservé (et utilisé notamment pour définir une
route par défaut sur un routeur).
[Link]èle de transport
Avant de spécifier les modèles en vigueur sur les réseaux, on va découvrir de
façon sommaire comment l’information est transmise, en tous les cas quels sont les
principes qui ont été retenus. Les modèles d’architecture réseau sont composés de
couches, relativement indépendantes les unes des autres. On part des applications
(haut niveau) à la transmission physique (bas niveau). L’idée retenue a été de
segmenter l’information à transmettre (on parlera de segments, paquets , trames) ,
chaque couche ajoutant des informations (on parlera d’encapsulation)
On voit que chaque donnée est englobée (encapsulée), à chaque étape. Le
processus inverse se produit à la réception du message par la machine réceptrice
L’idée de découper l’information en petits segments est simple : la transmission
est plus rapide, s’il y a une erreur ou une perte, il n’y a pas tout le message à renvoyer,
il y a moins d’engorgement des capacités de transmission… On étudiera en détail une
transmission via TCP/IP
Pour uniformiser les protocoles utilisés lors des communications entre les
différentes couches d’un réseau, l’International Standards Organization (ISO) a fondé
un modèle , le modèle OSI. La dernière révision de ce modèle date de 1995. Le modèle
OSI n’est pas une architecture réseau, car il ne décrit pas explicitement les protocoles
mis en jeu. Elle précise seulement le rôle de chaque couche. Ce modèle est composé de
7 couches
1. La couche physique : est chargée de la transmission effective des signaux
entre les interlocuteurs. Les données sont transmises sous forme de bit.
2. La couche liaison : Son rôle est un rôle de « liant » : elle va transformer la
couche physique en une liaison a priori exempte d’erreurs de transmission pour la
couche réseau. • Fractionne les données en trame • Transmet ces trames • Gère les
acquittements envoyés à l’émetteur • Détection et correction dans les informations
reçues de la couche physique . • Contrôle de flux pour éviter un trop grand afflux de
données. BRUNO SAINT PEE,LYCEE ROTROU DREUX 3
3. La couche réseau : gère les communications, généralement entre machines :
Elle a un rôle de routage , d’adressage des paquets.
4. La couche transport est responsable de l’acheminement des messages. Les
messages sont découpés en unités plus petites (but : Ne pas engorger le réseau), de les
passer à la couche réseau, de s’assurer de la bonne réception. Elle s’occupe aussi du
réassemblage des paquets reçus pour reformer le message initial.
5. La couche session: synchronise les échanges entre tâches distantes.
6. La couche présentation : traite l’information de façon à la rendre compatible
entre les données entre les différentes applications. Elle crypte, reformate,
compresse…
7. La couche application : est le contact entre l’utilisateur et le réseau. Elle offre
donc des services via des protocoles (messagerie, accès au web…). Quelques
protocoles utilisés par les couches
.
Le modèle OSI a eu l’avantage d’imposer des standardisations et de prendre en
compte l’hétérogénéité du monde informatique de l’époque. Cependant, il est
postérieur (fin des années 70 ) au modèle TCP/IP(développé par Arpanet), qui ne
présente que 4 (ou 5) couches , et dont les débuts (université de Berkeley en 74 sous
Unix) ont été couronnés de succès. L’avènement d’internet lui assurera de devenir le
modèle retenu.
Les principes qui ont conduit à ces 7 couches sont les suivants :
une couche doit être créée lorsqu’un nouveau niveau d’abstraction est
nécessaire,
chaque couche a des fonctions bien définies,
les fonctions de chaque couche doivent être choisies dans l’objectif de la
normalisation internationale des protocoles,
les frontières entre couches doivent être choisies de manière à minimiser
le flux d’information aux interfaces,
le nombre de couches doit être tel qu’il n’y ait pas cohabitation de
fonctions très différentes au sein d’une même couche et que l’architecture
ne soit pas trop difficile à maîtriser.
Les couches basses (1, 2, 3 et 4) sont nécessaires à l’acheminement des
informations entre les extrémités concernées et dépendent du support physique. Les
couches hautes (5, 6 et 7) sont responsables du traitement de l’information relative à
la gestion des échanges entre systèmes informatiques. Par ailleurs, les couches 1 à 3
interviennent entre machines voisines, et non entre les machines d’extrémité qui
peuvent être séparées par plusieurs routeurs. Les couches 4 à 7 sont au contraire des
couches qui n’interviennent qu’entre hôtes distants.
La chose la plus frappante à propos du modèle OSI est que c’est peut-être la
structure réseau la plus étudiée et la plus unanimement reconnue et pourtant ce n’est
pas le modèle qui a su s’imposer. Les spécialistes qui ont analysé cet échec en ont
déterminé 4 raisons principales.
Le modèle OSI était idéalement placé par rapport à la recherche, mais hélas, le
modèle TCP/IP était déjà en phase d’investissement prononcé (lorsque le modèle OSI
est sorti, les universités américaines utilisaient déjà largement TCP/IP avec un certain
succès) et les industriels n’ont pas ressenti le besoin d’investir dessus.
Le modèle OSI est peut-être trop complet et trop complexe. La distance entre
l’utilisation concrète (l’implémentation) et le modèle est parfois importante. En effet,
peu de programmes peuvent utiliser ou utilisent mal l’ensemble des 7 couches du
modèle : les couches session et présentation sont fort peu utilisées et à l’inverse les
couches liaison de données et réseau sont très souvent découpées en sous-couches
tant elles sont complexes.
OSI est en fait trop complexe pour pouvoir être proprement et efficacement
implémenté. Le comité rédacteur de la norme a même du laisser de côté certains
points techniques, comme le la sécurité et le codage, tant il était délicat de conserver
un rôle bien déterminé à chaque couche ainsi complétée. Ce modèle est également
redondant (le contrôle de flux et le contrôle d’erreur apparaissent pratiquement dans
chaque couche). Au niveau de l’implémentation, TCP/IP est beaucoup plus optimisé et
efficace.
La plus grosse critique que l’on peut faire au modèle est qu’il n’est pas du tout
adapté aux applications de télécommunication sur ordinateur ! Certains choix
effectués sont en désaccord avec la façon dont les ordinateurs et les logiciels
communiquent. La norme a en fait fait le choix d’un « système d’interruptions » pour
signaler les événements, et sur des langages de programmation de haut niveau, cela
est peu réalisable.
Cela tient tout simplement du fait que le modèle est relativement complexe, et
que du coup les premières implémentations furent relativement lourdes et lentes. A
l’inverse, la première implémentation de TCP/IP dans l’Unix de l’université de
Berkeley (BSD) était gratuite et relativement efficace. Historiquement, les gens ont
donc eu une tendance naturelle à utiliser TCP/IP.
Le modèle OSI a en fait souffert de sa trop forte normalisation. Les efforts
d’implémentation du modèle étaient surtout « bureaucratiques » et les gens ont peut-
être vu ça d’un mauvaise oeil.
A l’inverse, TCP/IP est venu d’Unix et a été tout de suite utilisé, qui plus est par
des centres de recherches et les universités, c’est-à-dire les premiers a avoir utilisé les
réseaux de manière poussée. Le manque de normalisation de TCP/IP a été contre-
balancé par une implémentation rapide et efficace, et une utilisation dans un milieu
propice à sa propagation.
Au niveau de son utilisation et implémentation, et ce malgré une mise à jour du
modèle en 1994, OSI a clairement perdu la guerre face à TCP/IP. Seuls quelques
grands constructeurs dominant conservent le modèle mais il est amené à disparaître
d’autant plus vite qu’Internet (et donc TCP/IP) explose.
Le modèle OSI restera cependant encore longtemps dans les mémoires pour
plusieurs raisons. C’est d’abord l’un des premiers grands efforts en matière de
normalisation du monde des réseaux. Les constructeurs ont maintenant tendance à
faire avec TCP/IP, mais aussi le WAP, l’UMTS etc. ce qu’il devait faire avec OSI, à savoir
proposer des normalisations dès le départ. OSI marquera aussi les mémoires pour une
autre raison : même si c’est TCP/IP qui est concrètement utilisé, les gens ont tendance
et utilisent OSI comme le modèle réseau de référence actuel. En fait, TCP/IP et OSI ont
des structures très proches, et c’est surtout l’effort de normalisation d’OSI qui a
imposé cette « confusion » générale entre les 2 modèles. On a communément tendance
à considérer TCP/IP comme l’implémentation réelle de OSI.
on peut maintenant faire communiquer 2 logiciels situés sur des ordinateurs
différents.
Mais il y a encore de petits problèmes:
Quand vous envoyez un paquet IP sur Internet, il passe par des dizaines d'ordinateurs.
Et il arrive que des paquets IP se perdent ou arrivent en double exemplaire.
Ça peut être gênant : imaginez un ordre de débit sur votre compte bancaire arrivant
deux fois ou un ordre de crédit perdu !
Même si le paquet arrive à destination, rien ne vous permet de savoir si le paquet est
bien arrivé (aucun accusé de réception).
La taille des paquets IP est limitée (environ 1500 octets).
Comment faire pour envoyer la photo JPEG du petit dernier qui fait 62000 octets ? (la
photo... pas le bébé).
C'est pour cela qu'a été conçu TCP.
TCP est capable:
de faire tout ce que UDP sait faire (ports).
de vérifier que le destinataire est prêt à recevoir les données.
de découper les gros paquets de données en paquets plus petits pour que IP les
accepte
de numéroter les paquets, et à la réception de vérifier qu'ils sont tous bien arrivés,
de redemander les paquets manquants et de les réassembler avant de les donner aux
logiciels. Des accusés de réception sont envoyés pour prévenir l'expéditeur que les
données sont bien arrivées.
Par exemple, pour envoyer le message "Salut, comment ça va ?", voilà ce que fait TCP
(Chaque flèche représente 1 paquet IP):
A l'arrivée, sur l'ordinateur [Link], la couche TCP reconstitue le message
"Salut, comment ça va ?" à partir des 3 paquets IP reçus et le donne au logiciel qui est
sur le port 80.
Avec TCP/IP, on peut maintenant communiquer de façon fiable entre logiciels situés
sur des ordinateurs différents.
TCP/IP est utilisé pour des tas de choses:
Dans votre navigateur, le protocole HTTP utilise le protocole TCP/IP pour envoyer et
recevoir des pages HTML, des images GIF, JPG et toutes sortes d'autres données.
FTP est un protocole qui permet d'envoyer et recevoir des fichiers. Il utilise également
TCP/IP.
Votre logiciel de courrier électronique utilise les protocoles SMTP et POP3 pour
envoyer et recevoir des emails. SMTP et POP3 utilisent eux aussi TCP/IP.
Votre navigateur (et d'autres logiciels) utilisent le protocole DNS pour trouver
l'adresse IP d'un ordinateur à partir de son nom (par exemple, de trouver
[Link] à partir de '[Link]'). Le protocole DNS utilise UDP/IP et
TCP/IP en fonction de ses besoins.
Il existe ainsi des centaines de protocoles différents qui utilisent TCP/IP ou UDP/IP.
L'avantage de TCP sur UDP est que TCP permet des communications fiables.
L'inconvénient est qu'il nécessite une négociation ("Bonjour, prêt à communiquer ?"
etc.), ce qui prend du temps.
le modèle TCP/IP n’est pas vraiment éloigné du
modèle OSI. Il ne présente cependant que 4
couches, même si un modèle hybride, séparant les
couches Physique et Liaison peut
faire autorité.
Elle est en fait composée de deux couches : Physique et
Liaison La couche physique décrit les caractéristiques physiques de la connexion :
câbles, ondes… La couche liaison spécifie le moyen utilisé pour acheminer les données
sur la couche physique : Cable Ethernet, wi fi.
Son rôle est l’injection de paquets dans n’importe quel réseau.
Lorsque deux terminaux communiquent entre eux via ce protocole, aucun chemin
pour le transfert des données n'est établi à l'avance : il est dit que le protocole est «
non orienté connexion ». Ainsi les paquets envoyés peuvent arriver dans le désordre
car ils n’auront pas suivi la même route. C’est le protocole transport qui se chargera de
remettre les paquets dans le bon ordre.
Son rôle est similaire à celui de la couche transport du modèle
OSI. Les protocoles utilisés à ce niveau sont TCP et UDP. TCP est fiable, acheminant
sans erreur les paquets à destination, utilisant des services d’acquittement, de gestion
du temps d’attente… UDP est non fiable mais plus rapide. Il est utilisé dans les liaisons
voix IP, où l’on prèfére perdre quelques données qu’attendre. Utilisé aussi pour le
streaming ou la video confèrence. Dans l’entête TCP, on retrouve le code du port
source et du port destination. Par exemple 80 pour http. 5 .
Le Modèle TCP/IP est fondé sur le constat que les logiciels
réseaux n’utilisent que très peu, ou pas , les couches session et présentation. Cette
couche regroupe toute les protocoles de haut niveau (FTP, SMTP, HTTP, DNS…). Cette
couche devra choisir un protocole de transport adapté au service demandé
4,L’adresse IPv4
L’adresse IP IPv4 est codée en décimale sur 4 octets dont chacun peut avoir un
numéro compris entre 0 à 255. Chaque octet est séparé par un point (ex. :
[Link]). L’adresse IP IPv4 est le protocole qu’on utilise aujourd’hui. C’est ce qui
permet la connexion de plus de 4 milliards de machines sur un réseau en même temps.
5.L’adresse IPv6
Ce type d’Internet Protocole est assez récent par rapport à l’IPv4. C’est une
version améliorée de l’IPv4. Elle n’est plus codée en décimale en 4 octets, mais en
hexadécimal sur 16 octets dont 8 parties telles que chaque partie est sur 2 octets. Au
lieu d’un point comme séparation, les 8 parties de l’adresse IPv6 sont séparées par
deux points (ex. : [Link]). Avec l’IPv6, le
nombre de PC qui peuvent se connecter est égal à 2128.
6. IPv6 et IPv4
La grande différence entre l’IPv4 et l’IPv6 est le nombre d’adresses IP. Celui de
l’IPv6 est beaucoup plus nombreux par rapport à celui de l’IPv4. C’est ce qui permet
de mettre au point un réseau encore plus vaste. L’adresse IPv4 a été créée en 1981 et
sa taille est de 32 bits. Quant à l’IPv6, elle a été créée en 1990 et sa taille est de 128
bits.
Cette transition est un processus qui vise au remplacement progressif du
protocole IPv4 par IPv6 sur internet. Vu que les deux adresses ne sont compatibles, la
communication entre un hôte qui dispose d’une adresse IPv6 et d’un autre utilisant
l’IPv4 est donc impossible. Afin de permettre l’échange entre les deux, il existe deux
approches bien distinctes : la double pile et les traducteurs de protocole.
7. Dns
Chaque ordinateur directement connecté à internet possède au moins une adresse
IP propre. Cependant, les utilisateurs ne veulent pas travailler avec des adresses
numériques du genre [Link] mais avec un nom de domaine ou des adresses
plus explicites (appelées adresses FQDN pour Fully Qualified Domain Name) du
type [Link] Ainsi, il est possible d'associer des noms en langage courant
aux adresses numériques grâce à un système appelé DNS (Domain Name System).
Donc le DNS (Domain Name System) est un service permettant d'établir une
correspondance entre un nom de domaine et une adresse IP. Il s'agit donc d'un
système essentiel à Internet afin de ne pas avoir à saisir des adresses IP à longueur de
temps.
On appelle résolution de noms de domaines (ou résolution d'adresses) la corrélation
entre les adresses IP et le nom de domaine associé.
Ce système propose :
♯ un espace de noms hiérarchique permettant de garantir l'unicité d'un nom dans
une structure arborescente, à la manière des systèmes de fichiers d'Unix.
♯ un système de serveurs distribués permettant de rendre disponible l'espace de
noms.
♯ un système de clients permettant de « résoudre » les noms de domaines, c'est-à-
dire interroger les serveurs afin de connaître l'adresse IP correspondant à un nom.
♯ L'espace de noms
il s'appuie sur une structure arborescente dans laquelle sont définis des domaines de
niveau supérieurs (appelés TLD, pour Top Level Domains), rattachés à un noeud
racine représenté par un point.
nom de domaine : chaque noeud de l'arbre. Chaque noeud possède une étiquette (en
anglais « label ») d'une longueur maximale de 63 caractères.
L'ensemble des noms de domaine constitue ainsi un arbre inversé où chaque noeud
est séparé du suivant par un point (« . »).
L'extrémité d'une branche est appelée hôte, et correspond à une machine ou une
entité du réseau. Le nom d'hôte qui lui est attribué doit être unique dans le domaine
considéré, ou le cas échéant dans le sous-domaine. A titre d'exemple le serveur web
d'un domaine porte ainsi généralement le nom www.
Le mot « domaine » correspond formellement au suffixe d'un nom de domaine, c'est-à-
dire l'ensemble des étiquettes de noeuds d'une arborescence, à l'exception de l'hôte.
Le nom absolu correspondant à l'ensemble des étiquettes des noeuds d'une
arborescence, séparées par des points, et terminé par un point final, est appelé
adresse FQDN (Fully Qualified Domain Name, soit Nom de Domaine Totalement
Qualifié).
La profondeur maximale de l'arborescence est de 127 niveaux et la longueur
maximale d'un nom FQDN est de 255 caractères. L'adresse FQDN permet de repérer
de façon unique une machine sur le réseau des réseaux.
Ainsi [Link] représente une adresse FQDN.
Les machines appelées serveurs de nom de domaine permettent d'établir la
correspondance entre le nom de domaine et l'adresse IP des machines d'un réseau.
Chaque domaine possède un serveur de noms de domaines, appelé « serveur de noms
primaire » (primary domain name server), ainsi qu'un serveur de noms secondaire
(secondary domaine name server), permettant de prendre le relais du serveur de
noms primaire en cas d'indisponibilité.
Chaque serveur de nom est déclaré dans à un serveur de nom de domaine de niveau
immédiatement supérieur, ce qui permet implicitement une délégation d'autorité sur
les domaines. Le système de nom est une architecture distribuée, où chaque entité est
responsable de la gestion de son nom de domaine. Il n'existe donc pas d'organisme
ayant à charge la gestion de l'ensemble des noms de domaines.
Les serveurs correspondant aux domaines de plus haut niveau (TLD) sont appelés
« serveurs de noms racine ». Il en existe treize, répartis sur la planète, possédant les
noms « [Link] » à « [Link] ».
il ne faut pas oublier les points suivants :
Chaque ordinateur doit être configuré avec l'adresse d'une machine capable de
transformer n'importe quel nom en une adresse IP. Cette machine est appelée Domain
Name Server. Pas de panique: lorsque vous vous connectez à internet, le fournisseur
d'accès va automatiquement modifier vos paramètres réseau pour vous mettre à
disposition ces serveurs de noms.
L'adresse IP d'un second Domain Name Server (secondary Domain Name Server) doit
également être définie : le serveur de noms secondaire peut relayer le serveur de
noms primaire en cas de dysfonctionnement.
Le serveur le plus répandu s'appelle BIND (Berkeley Internet Name Domain). Il s'agit
d'un logiciel libre disponible sous les systèmes UNIX, développé initialement par
l'université de Berkeley en Californie et désormais maintenu par l'ISC (Internet
Systems Consortium).
Le mécanisme consistant à trouver l'adresse IP correspondant au nom d'un hôte est
appelé « résolution de nom de domaine ». L'application permettant de réaliser cette
opération (généralement intégrée au système d'exploitation) est appelée « résolveur »
(en anglais « resolver »).
Lorsqu'une application souhaite se connecter à un hôte connu par son nom de
domaine (par exemple « [Link] »), celle-ci va interroger un
serveur de noms défini dans sa configuration réseau. Chaque machine connectée au
réseau possède en effet dans sa configuration les adresses IP de deux serveurs de
noms de son fournisseur d'accès.
Une requête est ainsi envoyée au premier serveur de noms (appelé « serveur de nom
primaire »). Si celui-ci possède l'enregistrement dans son cache, il l'envoie à
l'application, dans le cas contraire il interroge un serveur racine (dans notre cas un
serveur racine correspondant au TLD « .net »). Le serveur de nom racine renvoie une
liste de serveurs de noms faisant autorité sur le domaine (dans le cas présent les
adresses IP des serveurs de noms primaire et secondaire de [Link]).
Le serveur de noms primaire faisant autorité sur le domaine va alors être interrogé et
retourner l'enregistrement correspondant à l'hôte sur le domaine (dans notre
cas www).
Un DNS est une base de données répartie contenant des enregistrements,
appelés RR (Resource Records), concernant les noms de domaines. Seules sont
concernées par la lecture des informations ci-dessous les personnes responsables de
l'administration d'un domaine, le fonctionnement des serveurs de noms étant
totalement transparent pour les utilisateurs.
En raison du système de cache permettant au système DNS d'être réparti, les
enregistrements de chaque domaine possèdent une durée de vie, appelée TTL (Time
To Live, traduisez espérance de vie), permettant aux serveurs intermédiaires de
connaître la date de péremption des informations et ainsi savoir s'il est nécessaire ou
non de la revérifier.
D'une manière générale, un enregistrement DNS comporte les informations suivantes :
Nom de domaine (FQDN) TTL Type Classe RData
[Link]. 3600 A IN [Link]
Nom de domaine : le nom de domaine doit être un nom FQDN, c'est-à-dire être
terminé par un point. Si le point est omis, le nom de domaine est relatif, c'est-à-dire
que le nom de domaine principal suffixera le domaine saisi ;
Type : une valeur sur 16 bits spécifiant le type de ressource décrit par
l'enregistrement. Le type de ressource peut être un des suivants :
A : il s'agit du type de base établissant la correspondance entre un nom canonique et
une adresse IP. Par ailleurs il peut exister plusieurs enregistrements A, correspondant
aux différentes machines du réseau (serveurs).
CNAME (Canonical Name) : il permet de faire correspondre un alias au nom canonique.
Il est particulièrement utile pour fournir des noms alternatifs correspondant aux
différents services d'une même machine.
HINFO : il s'agit d'un champ uniquement descriptif permettant de décrire notamment
le matériel (CPU) et le système d'exploitation (OS) d'un hôte. Il est généralement
conseillé de ne pas le renseigner afin de ne pas fournir d'éléments d'informations
pouvant se révéler utiles pour des pirates informatiques.
MX (Mail eXchange) : correspond au serveur de gestion du courrier. Lorsqu'un
utilisateur envoie un courrier électronique à une adresse (utilisateur@domaine), le
serveur de courrier sortant interroge le serveur de nom ayant autorité sur le domaine
afin d'obtenir l'enregistrement MX. Il peut exister plusieurs MX par domaine, afin de
fournir une redondance en cas de panne du serveur de messagerie principal. Ainsi
l'enregistrement MX permet de définir une priorité avec une valeur pouvant aller de 0
à 65 535 :
NS : correspond au serveur de noms ayant autorité sur le domaine.
PTR : un pointeur vers une autre partie de l'espace de noms de domaines.
8. VLAN
Un VLAN (Virtual Local Area Network ou Virtual LAN, en français Réseau Local Virtuel)
est un réseau local regroupant un ensemble de machines de façon logique et non
physique.
En effet dans un réseau local la communication entre les différentes machines est
régie par l'architecture physique. Grâce aux réseaux virtuels (VLANs) il est possible de
s'affranchir des limitations de l'architecture physique (contraintes géographiques,
contraintes d'adressage, ...) en définissant une segmentation logique (logicielle) basée
sur un regroupement de machines grâce à des critères (adresses MAC, numéros de
port, protocole, etc.).
Plusieurs types de VLAN sont définis, selon le critère de commutation et le niveau
auquel il s'effectue :
Un VLAN de niveau 1 (aussi appelés VLAN par port, en anglais Port-Based VLAN)
définit un réseau virtuel en fonction des ports de raccordement sur le commutateur ;
Un VLAN de niveau 2 (également appelé VLAN MAC, VLAN par adresse IEEE ou en
anglais MAC Address-Based VLAN) consiste à définir un réseau virtuel en fonction des
adresses MAC des stations. Ce type de VLAN est beaucoup plus souple que le VLAN par
port car le réseau est indépendant de la localisation de la station ;
Un VLAN de niveau 3 : on distingue plusieurs types de VLAN de niveau 3 :
Le VLAN par sous-réseau (en anglais Network Address-Based VLAN) associe des sous-
réseaux selon l'adresse IP source des datagrammes. Ce type de solution apporte une
grande souplesse dans la mesure où la configuration des commutateurs se modifient
automatiquement en cas de déplacement d'une station. En contrepartie une légère
dégradation de performances peut se faire sentir dans la mesure où les informations
contenues dans les paquets doivent être analysées plus finement.
Le VLAN par protocole (en anglais Protocol-Based VLAN) permet de créer un réseau
virtuel par type de protocole (par exemple TCP/IP, IPX, AppleTalk, etc.), regroupant
ainsi toutes les machines utilisant le même protocole au sein d'un même réseau.
Le VLAN permet de définir un nouveau réseau au-dessus du réseau physique et à ce
titre offre les avantages suivants :
Plus de souplesse pour l'administration et les modifications du réseau car toute
l'architecture peut être modifiée par simple paramètrage des commutateurs
Gain en sécurité car les informations sont encapsulées dans un niveau supplémentaire
et éventuellement analysées
Réduction de la diffusion du traffic sur le réseau
assignement des addresse ip [Link]/24, [Link]/24 et [Link]/24 au pc .
on vas crée vlan 2 et vlan 3 dans switch
Switch(config)#vlan 2
Switch(config)#vlan 3
On a maintenant creee les vlan mais le plus important est d’aasigner les ports
correspandant a chaque vlan
Switch(config)#int fa0/0
Switch(config-if)#switchport mode access
Switch(config-if) #switchport access Vlan 2
Switch(config)#int fa0/1
Switch(config-if)#switchport mode access
Switch(config-if) #switchport access Vlan 3
Switch(config)#int fa0/2
Switch(config-if)#switchport mode access
Switch(config-if) #switchport access Vlan 2
On a donc attribuer vlan2 au port fa0/0 , fa0/2 et vlan 3 au fa0/1 .
9. Routage inter-vlan
Il se peut qu’un besoin de communication se fasse entre les deux groupes de travail. Il
est alors possible de faire communiquer deux Vlans sans pour autant compromettre
leur sécurité.
Pour cela nous utilisons un routeur relié à un des deux switchs. Nous appelons ce type
de routage inter-vlan un Router-on-stick. Cela signifie que le router va, par
intermédiaire d'un seul lien physique router et faire transiter un ensemble de VLAN.
On aurait également pu mettre en place un switch de niveau trois qui aurai été capable
d'effectuer les tâches de routage inter-vlan.
Plusieurs Vlans peuvent avoir pour passerelle un même port physique du routeur qui
sera "découpé" en plusieurs interfaces virtuelles. Nous pouvons en effet diviser un
port du routeur selon les Vlans à router et ainsi créer une multitude de passerelles
virtuelles avec des adresses IP différentes.
Nous allons donc créer nos interface virtuelles sur le port Fa0/0 de notre routeur. Il
faut tout d'abord absolument activer l'interface physique pour que les interfaces
virtuelles soient opérationnelles :
Router#enable
Router#configuration terminal
Router(config)#interface fa0/0
Router(config-if)#no shutdown
Router(config-if)#exit
Nous allons ensuite créer l'interface fa0/0.1 (interface virtuelle 1 de l'interface
physique fa0/0),nous dirons que ce port virtuel sur la passerelle des postes du VLAN
20 :
Router(config)#interface fa0/0.1
Router(config-subif)#encapsulation dot1Q 20
Router(config-subif)#ip address [Link] [Link]
Router(config-subif)#no shutdown
Router(config-subif)#exit
Nous faisons pareil pour l'interface fa0/0.2 et les postes du réseau du vlan 30
Router(config)#interface fa0/0.2
Router(config-subif)#encapsulation dot1Q 30
Router(config-subif)#ip address [Link] [Link]
Router(config-subif)#no shutdown
Router(config-subif)#exit
Un petit mot de la commande "encapsulation dot1q". La norme de
trame 802.1q indique que les trames sont étiquetées pour contenir le numéro de vlan
à laquelle elles sont destinées/attribuées. La commande "encapsulation dot1q 30"
permet donc d'encapsuler une trame pour transiter sur le vlan 30 si elle est destinée à
celui ci. Le routeur a besoin de cette information par exemple quand il voit une trame
venant du vlan 20 (étiquetée vlan 20) qui souhaite se diriger sur le vlan 30. Il change
donc à ce moment la son étiquetage 802.1q pour que les switchs puissent
correctement acheminé la trame vers le ou les postes du vlan 30. N'oublions pas notre
switch ! Il faut également mettre le port fa0/24 de notre "Switch2" (qui fait la liaison
avec le routeur) en mode trunk pour que lui aussi puisse acheminer toutes les VLANs
vers et depuis le routeur :
Switch(config)#interface fa0/24
Switch(config-if)#switchport mode trunk
Switch(config-if)#switchport trunk allowed vlan 20,30,99
Switch(config-if)# switchport trunk native vlan 99
Switch(config-if)#no shutdown
Switch(config-if)#exit
10. NAT
NAT (Network Address Translation) est un processus de modification des adresses IP
et des ports source et de destination. La traduction d'adresses réduit le besoin
d'adresses publiques IPv4 et masque les plages d'adresses réseau privées. Le
processus est généralement effectué par des routeurs ou des pare-feu.
il fait correspondre des adresses IP à d'autres adresses IP. En particulier, un cas
courant est de permettre à des machines disposant d'adresses privées qui font partie
d'un intranet et ne sont ni uniques ni routables à l'échelle d'Internet, de communiquer
avec le reste d'Internet en utilisant vers l'extérieur des adresses externes publiques,
uniques et routables.
Ainsi, il est possible de faire correspondre une seule adresse externe publique visible
sur Internet à toutes les adresses d'un réseau privé, afin de pallier l'épuisement des
adresses IPv4.
La fonction NAT dans un routeur de service intégré (ISR) traduit une adresse IP
source interne en adresse IP globale.
Ce procédé est très largement utilisé par les box internet (ou modem routeur) des
fournisseurs d’accès pour cacher les ordinateurs personnels derrière une seule
identification publique. Il est également utilisé de façon similaire dans des réseaux
privés virtuels.
NAT permet à un seul appareil, tel qu'un routeur, d'agir comme un agent entre
Internet (ou réseau public) et un réseau local (ou réseau privé), ce qui signifie qu'une
seule adresse IP unique est requise pour représenter un groupe entier d'ordinateurs à
quoi que ce soit en dehors de leur réseau.
Il existe trois types de traduction d’adresses:
NAT statique - traduit une adresse IP privée en une adresse publique. L'adresse IP
publique est toujours la même.
NAT dynamique - les adresses IP privées sont mappées au pool d'adresses IP
publiques.
Traduction d'adresse de port (PAT) - une adresse IP publique est utilisée pour tous les
périphériques internes, mais un port différent est attribué à chaque adresse IP privée.
Également connu sous le nom de surcharge NAT
Les correspondances entre les adresses privées (internes) et publiques (externes)
sont stockées dans une table sous forme de paires (adresse interne, adresse externe).
Lorsqu'une trame est émise depuis une adresse interne vers l'extérieur, elle traverse le
routeur NAT qui remplace, dans l'en-tête du paquet TCP/IP, l'adresse de l'émetteur
par l'adresse IP externe. Le remplacement inverse est fait lorsqu'une trame
correspondant à cette connexion doit être routée vers l'adresse interne. Aussi, on peut
réutiliser une entrée dans la table de correspondance du NAT si aucun trafic avec ces
adresses n'a traversé le routeur pendant un certain temps (paramétrable).
IP interne IP externe Durée (s)Réutilisable ?
[Link] [Link] 1 200 non
10.100.54.251193.48.101.8 3 601 oui
[Link] [Link] 0 non
Voici par exemple une table de NAT simplifiée. On supposera qu'une entrée pourra
être réclamée si la traduction n'a pas été utilisée depuis plus de 3 600 secondes.
La première ligne indique que la machine interne, possédant l'adresse IP [Link]
est traduite en [Link] quand elle converse avec le monde extérieur. Elle n'a
pas émis de paquet depuis 1 200 secondes, mais la limite étant 3 600, cette entrée
dans la table lui est toujours assignée. La seconde machine est restée inactive pendant
plus de 3 600 secondes, elle est peut-être éteinte, une autre machine peut reprendre
cette entrée (en modifiant la première colonne puisqu'elle n'aura pas la même IP
interne). Enfin, la dernière machine est actuellement en conversation avec l'extérieur,
le champ de Durée étant 0.
La plupart des pare-feu et routeurs implémentent le NAT pour permettre à plusieurs
machines de partager une seule adresse IP publique.
Bien que certaines applications s'en accommodent sans difficulté, le NAT n'est pas
transparent vis-à-vis des applications du réseau et reporte une complexité
additionnelle sur le fonctionnement des applications (RFC 29933, RFC 30274) :
Les communications entre postes qui se situent derrière des NAT posent un
problème, c'est le cas des protocoles pair à pair.
La fragmentation éventuelle des paquets dans le réseau pose également un
problème quand un NAT est traversé, car il n'est pas possible pour un hôte qui reçoit
des fragments avec le même fragment id et des adresses IP source identiques
d'identifier qu'ils appartiennent en réalité à deux hôtes différents derrière un NAT.
Certains protocoles, comme rlogin, imposent que le port source soit fixé à 512.
La traversée d'un NAT empêche alors plus d'une session sortante par adresse
publique.
Le protocole X Window pose également un problème, car les connexions TCP
sont initiées par les clients vers l'affichage.
rsh et rlogin utilisent un socket initié par le serveur vers le client pour l'erreur
standard.
Un problème majeur se pose lorsqu'un protocole de communication transmet
l'adresse IP de l'hôte source dans un paquet, ou des numéros de ports. Cette adresse
n'étant pas valide après avoir traversé le routeur NAT, elle ne peut être utilisée par la
machine destinataire. Ces protocoles sont dits « passant difficilement les pare-feu »,
car ils échangent au niveau applicatif (FTP) des informations du niveau IP (échange
d'adresses) ou du niveau TCP (échange de ports), ce qui transgresse le principe de la
séparation des couches réseaux.
Les adresses internes peuvent être choisies parmi les adresses définies dans la RFC
1918. Ainsi plusieurs sites peuvent avoir le même adressage interne et communiquer
entre eux en utilisant ce mécanisme. Étant donné que les adresses internes sont
réutilisées, on économise des adresses IP publiques, dont l'occupation, en IPv4, arrive
à saturation.
On peut avoir moins d'adresses dans l'ensemble des adresses externes que ce qu'on a
comme adresses IP à l'intérieur du réseau, si l'on met en place un mécanisme
permettant de récupérer des adresses inutilisées après un certain temps (on appelle
ceci un bail). Plus précisément, si une entrée dans la table des traductions n'est pas
utilisée pendant un certain temps (paramétrable dans le serveur DHCP du réseau),
cette entrée peut-être réutilisée : une autre machine avec une adresse interne va
récupérer l'adresse externe.
On estime parfois que le NAT apporte un bénéfice du point de vue de la sécurité car
les adresses internes sont dissimulées. La sécurité des équipements derrière un NAT
n'est cependant pas supérieure à celle qu'un pare-feu à états peut fournir
1. Configurez l'interface interne du routeur à l'aide de la commande ip nat
inside
2. Configurez l'interface extérieure du routeur à l'aide de la commande ip nat
outside
3. Configurer une ACL contenant une liste des adresses source internes qui
seront traduites
4. Configurer le pool d'adresses IP globales à l'aide de la commande ip nat pool
NAME FIRST_IP_ADDRESS LAST_IP_ADDRESS netmask SUBNET_MASK
5. Activer le NAT dynamique avec la commande de configuration globale AC
NAT_NUMBER pool list NAME ip nat
1. Connectez-vous à l'appareil à l'aide de SSH / TELNET et passez en mode
activation.
2. Passez en mode config.
Router#configure terminal
Entrez les commandes de configuration, une par ligne. Terminez avec CNTL / Z.
Router(config)#
3. Configurer l'interface interne du routeur
Router(config)#interface fa0/0
Router(config-if)#ip nat inside
Router(config-if)#exit
4. Configurer l'interface externe du routeur
Router(config)#interface eth0/0/0
Router(config-if)#ip nat outside
Router(config-if)#exit
5. Configurez une ACL contenant une liste des adresses source internes qui
seront traduites.
Router(config)#access-list 1 permit [Link] [Link]
REMARQUE: la liste d'accès configurée ci-dessus correspond à tous les hôtes du sous-
réseau [Link]/24.
6. Configurer le pool d'adresses IP globales
Router(config)#ip nat pool MY_POOL [Link] [Link] netmask [Link]
REMARQUE: le pool configuré ci-dessus se compose de 5 adresses : [Link], [Link],
[Link], [Link] et [Link].
7. Activer le NAT dynamique
Router(config)#ip nat inside source list 1 pool MY_POOL
REMARQUE: La commande ci-dessus demande au routeur de traduire toutes les
adresses spécifiées dans la liste d'accès 1 dans le pool d'adresses globales appelé
MY_POOL.
8. Quitter le mode de configuration
Router(config)#exit
Router#
9. Exécutez la commande « show ip nat translations » pour afficher la
configuration NAT.
10. Copiez la configuration en cours dans la configuration de démarrage à l'aide
de la commande ci-dessous
Router#write memory
Building configuration... [OK]
Router#
Le NAT statique n'est pas souvent utilisé car il nécessite une adresse IP publique
pour chaque adresse IP privée.
1. Configurer le mappage d'adresses IP privées/publiques à l'aide de la
commande ip nat inside dans la commande statique source PRIVATE_IP
PUBLIC_IP
2. Configurez l'interface interne du routeur à l'aide de la commande ip nat inside
3. Configurez l'interface extérieure du routeur à l'aide de la commande ip nat
outside
1. Connectez-vous à l'appareil à l'aide de SSH / TELNET et passez en mode
activation.
2. Passez en mode config.
Router#configure terminal
Entrez les commandes de configuration, une par ligne. Terminez avec CNTL / Z.
Router(config)#
3. Utilisez la commande ci-dessous pour configurer le NAT statique
Router(config)#ip nat inside source static [Link] [Link]
4. Configurer l'interface interne du routeur
Router(config)#interface fa0/0
Router(config-if)#ip nat inside
Router(config-if)#exit
5. Configurer l'interface externe du routeur
Router(config)#interface fa0/1
Router(config-if)#ip nat outside
Router(config-if)#exit
6. Quitter le mode de configuration
Router(config)#exit
Router#
7. Exécutez la commande « show ip nat translations» pour afficher la
configuration NAT.
8. Copiez la configuration en cours dans la configuration de démarrage à l'aide
de la commande ci-dessous
Router#write memory
Building configuration... [OK]
Router#
1. Vulnérabilités
Tous les actifs d’un système d’information peuvent faire l’objet de vulnérabilités, soit
d’une faiblesse qui pourrait compromettre un critère de sécurité défini comme l’accès
non autorisé à des données confidentielles ou la modification d’un système.
Un exploit est une charge informatique ou un outil qui permet d’“exploiter” une
faiblesse ciblée, soit une vulnérabilité.
2. Menaces
Une menace est l’action probable qu’une personne malveillante puisse mener grâce à
un “exploit” contre une faiblesse en vue d’atteindre à sa sécurité. Une menace est une
cause potentielle d’incident, qui peut résulter en un dommage au système ou à
l’organisation. Quelques exemples de menaces courantes :
# Code malveillant
# Personnes extérieures malveillantes
# Perte de service
# Stagiaire malintentionné
3. Attaques
Une attaque est l’action malveillante destinée à porter atteinte à la sécurité d’un bien.
Une attaque représente la concrétisation d’une menace nécessitant l’exploitation
d’une vulnérabilité.
4. Risques
Une fois les objectifs de sécurisation déterminés, les risques d’attaque pesant sur
chacun de ces éléments peuvent être estimés en fonction de menaces et de
vulnérabilités.
Le niveau global de sécurité des systèmes d’information est défini par le niveau de
sécurité du maillon le plus faible. Les précautions et contre-mesures doivent être
envisagées en fonction des vulnérabilités propres au contexte auquel le système
d’information est censé apporter service et appui.
Il faudrait pour cela estimer :
la gravité des impacts au cas où les risques se réaliseraient,
la vraisemblance des risques (ou leur potentialité, ou encore leur probabilité
d’occurrence).
5. Typologie des attaques les plus courante
Usurpation d’adresses (Spoofing)
Attaque de reconnaissance
Eavesdropping attack
Attaque Buffer Overflow
Malwares
Vulnérabilités des mots de passe
Attaques IP
Attaques TCP
Vulnérabilités humaines
Vulnérabilités des mots de passe
Usurpation d’adresses (Spoofing)
Attaque Denial-of-Service (DoS)/(DDoS)
Attaque par réflexion
Attaque par amplification
Attaque Man-in-the-Middle (MitM)
Attaque de reconnaissance
Eavesdropping attack
Attaque Buffer Overflow
Types de Malwares
Trojan, Virus, Vers
Social engineering : Exploite la crédulité et la confiance humaine ainsi que les
comportements sociaux.
Phishing : Dégise une invitation malveillante en quelque chose de légitime.
Spear phishing : Cible un groupe d’utilisateurs semblables.
Whaling : Cible des profil individuels de haut-niveau.
Vishing : Utilise des messages vocaux.
Smishing: Utilise des messages texte SMS.
Pharming : Utilise des services légitimes pour envoyer des utilisateurs vers un site
compromis.
Watering hole : Cible des victimes spécifiques vers un site compromis.
6. Sécurité sur les ports
On parle de la fonction Switchport Security , Cette fonction permet de contrôler les
adresses MAC autorisées sur un port. En cas de “violation”, c’est-à-dire en cas
d’adresses MAC non autorisées sur le port, une action est prise.
Switchport-Port Security permet donc de contrôler au plus bas niveau les accès au
réseau. Elle fait partie de l’arsenal disponible pour contrer des attaques de bas niveau
sur les infrastructures commutées. Parmi d’autres :
# BPDU Guard
# Deep ARP Inspection
# IPv6 First Hop Security
# DHCP Snooping
# IEEE 802.1X / EAP + Radius
# Bonne pratique VLAN
Par défaut, cette fonction est désactivée.
Si elle est simplement activée, par défaut :
Une seule adresse MAC est apprise dynamiquement et elle la seule autorisée.
En cas de “violation”, le port tombe en mode shutdown.
La fonction s’active en encodant une première fois la commande switchport port-
security en configuration d’interface.
(config)#interface G0/1
(config-if)#switchport mode access
(config-if)#switchport port-security
On peut fixer le nombre d’adresses MAC autorisées, ici par exemple 10 :
(config-if)#switchport port-security maximum 10
Les adresses MAC apprises peuvent être inscrites dynamiquement dans la
configuration courante (running-config) avec le mot clé “sticky“ :
(config-if)#switchport port-security mac-address sticky
Les adresses MAC autorisées peuvent être fixées :
(config-if)#switchport port-security mac-address 0000.0000.0003
Une “Violation” est une action prise en cas de non-respect d’une règle port-security.
(config-if)#switchport port-security violation {protect | restrict | shutdown}
Mode protect : dès que la “violation” est constatée, le port arrête de transférer le trafic
des adresses non autorisées sans envoyer de message de log.
Mode restrict : dès que la “violation” est constatée, le port arrête de transférer le trafic
des adresses non autorisées et transmet un message de log.
Mode shutdown : dès que la “violation” est constatée, le port passe en état err-
disabled (shutdown) et un message de log est envoyé.
Désactivation d’un port err-disabled selon la plateforme (shut/no shutdown) :
(config)#errdisable recovery cause psecure-violation
Diagnostic :
#show port-security
#show port-security address
#show port-security interface G0/1
#show running-config
#clear port-security {all | configured | dynamic | sticky}
7. HSRP
Le protocole HSRP (Hot Standby Routing Protocol) est un protocole propriétaire de
“continuité de service” implémenté dans les routeurs Cisco pour la gestion des “liens
de secours”.
HSRP sert à augmenter la tolérance de panne sur le réseau en créant un routeur
virtuel à partir de 2 (ou plus) routeurs physiques : un “actif” et l'autre (ou les autres)
“en attente” (ou ”standby”) en fonction des priorités accordées à chacun de ces
routeurs.
HSRP est un protocole propriétaire aux équipements Cisco et il n'est pas activé par
défaut.
Les communications HSRP entre les routeurs participant au routeur virtuel se font par
l'envoi de paquets Multicast ([Link]) vers le port 1985 des routeurs concernés.
le protocole HSRP utilise pour authentifier les requêtes un mot de passe qui transite
en clair sur le réseau (même principe que les noms de communauté SNMP - Simple
Network Management Protocol). Au-delà de cette faiblesse, il existe aussi un problème
dans la gestion des adresses IP par HSRP.
En effet, bien que les messages HSPR sont de type Multicast, les paquets de type
Unicast sont acceptés et traités par HSRP. Les paquets HSRP, ayant pour adresse de
destination celle du routeur, seront traités par ce dernier sans contrainte. Ce
comportement peut permettre des attaques à distance en s'affranchissant des
contraintes de sécurité liées au trafic Multicast (le trafic Multicast peut être parfois
interdit au niveau de la politique de sécurité des routeurs).
Il a été constaté dans certaines circonstances que sur certaines versions de Cisco IOS
(11.2.x, 12.1.x), le port 1985 relatif au protocole HSRP était ouvert même si HSRP
n'était pas configuré. Ce phénomène peut être propice à l'inondation de ce port
jusqu'à la saturation des ressources de l'équipement.
Pour une sécurité plus optimale, Cisco propose d'utiliser IPSec ou un autre protocole :
VRRP (Virtual Router Redundancy Protocol).
De son côté Cisco a prévu deux types d'amélioration pour son protocole HSRP :
utilisation de mécanisme de hachage de type MD5 afin de sécuriser les
mots de passe HSRP
vérification plus stricte des adresses IP de destination dans les paquets
relatifs à HSRP
HSRP (Hot Standby Routing Protocol) est un protocole propriétaire crée par
Cisco et très utilisé aujourd’hui dans nos LAN. De ce protocole est dérivé VRRP
(Virtual Router Redundancy Protocol), normalisé et utilisé chez la plupart des autres
constructeurs (Nokia, Alcatel)
En pratique, HSRP permet qu’un routeur de
secours (ou spare) prenne immédiatement, de façon
transparente, le relais dès qu’un problème physique
apparaît.
En partageant une seule même adresse IP et MAC,
plusieurs routeurs peuvent être considérés comme un
seul routeur “Virtuel”. Les membres du groupe de ce
routeur virtuel sont capables de s’échanger des
messages d’état et des informations.
Un routeur physique peut donc être “responsable” du routage et un autre en
redondance.
Nous allons prendre comme cas de figure, le schéma suivant :
Le PC1 veut envoyer une requête sur Internet. R1 et R2 sont donc capables de router
sa demande. Nous allons voir la configuration nécessaire afin que R1 soit le routeur
primaire HSRP du groupe numéro 1 et que R2 soit le secondaire (standby) en cas de
problèmes.
Les interfaces Serial 0/0 des routeurs sont pour les liens vers Internet et les
interfaces FastEthernet 0/0 pour les liens du LAN.
NB : Bien sur, cette configuration s’applique également à une interface VLAN.
Il faut de toute façon affecter une adresse IP physique réelle à chacune des interfaces
puis configurer le HSRP.
Nous choisirons le groupe HSRP Numéro 1 et R1 en tant que routeur primaire.
R1(config)#interface Fastethernet 0/0
R1(config-if)# ip address [Link] [Link]
R1(config-if)#standby 1 ip [Link]
R1(config-if)#standby 1 priority 105
R1(config-if)#standby 1 preempt
Le denier paramètre “preempt” permet d’accélérer le processus d’élection. Le routeur
avec la plus haute priorité sera élu, même si un nouveau routeur avec une priorité plus
haute est ajouté.
R2(config)#interface Fastethernet 0/0
R2(config-if)# ip address [Link] [Link]
R2(config-if)#standby 1 ip [Link]
R2(config-if)#standby 1 preempt
La priorité n’est pas définie ici, en effet par défaut elle est à 100. Donc R1 avec sa
priorité 105 sera élu primaire (active) et R2 secondaire (Standby)
Les requêtes du PC1 seront donc envoyées vers R1 de façon transparente. Si jamais R1
devient inactif, la requête sera redirigée alors vers R2 sans aucun changement de
configuration.
Notre configuration est valide mais qu’arrive-t-il si le lien du Serial 0/0 du R1 est
coupé ?
Le HSRP restera identique car le routeur lui-même n’est pas tombé ou le lien vers le
LAN !!
Le paramètre “track” permet de surveiller une autre interface du routeur et de baisser
la priorité HSRP si celle-ci devient down.
Le décrément est, par défaut, de 10 par interface surveillée mais ce nombre peut être
spécifié par la commande suivante : standby [group] track interface [priority]
Retour à notre configuration, la priorité de R1 est de 105, donc si une interface
surveillée devient inactive elle sera, par défaut, réduite de 10. Sa priorité passera donc
à 95.
La priorité HSRP de R2 étant, par défaut, de 100, R2 deviendra donc actif à la place de
R1 !
Routeur 1 :
R1(config-if)#standby 1 track serial 0/0
Le comportement est le même si on spécifie explicitement la valeur du décrément (ici
10) :
Routeur 1 :
R1(config-if)#standby 1 track serial 0/0 10
Malgré que Le protocole HSRP est très répandu avec du matériel Cisco sur les LAN. Vu
qu’il permet une souplesse de configuration sur tous les matériels Cisco, y compris
Wireless , mais , il présente quelques failles non négligeables.
En effet, le protocole HSRP utilise pour authentifier les requêtes un mot de passe qui
transite en clair sur le réseau (même principe que les noms de communauté SNMP -
Simple Network Management Protocol).
Au-delà de cette faiblesse, il existe aussi un problème dans la gestion des adresses IP
par HSRP. En effet, bien que les messages HSPR sont de type Multicast, les paquets de
type Unicast sont acceptés et traités par HSRP. Cela signifie que les paquets HSRP,
ayant pour adresse de destination celle du routeur, seront traités par ce dernier sans
contrainte. Ce comportement peut permettre des attaques à distance en
s'affranchissant des contraintes de sécurité liées au trafic Multicast (le trafic Multicast
peut être interdit au niveau de la politique de sécurité des routeurs).
8. Cryptographie
cryptographie est un terme générique désignant l'ensemble des techniques
permettant de chiffrer des messages, c'est-à-dire permettant de les rendre
inintelligibles sans une action spécifique. Le verbe crypter est parfois utilisé mais on
lui préfèrera le verbe chiffrer.
La cryptologie est essentiellement basée sur l'arithmétique : Il s'agit dans le cas d'un
texte de transformer les lettres qui composent le message en une succession de
chiffres (sous forme de bits dans le cas de l'informatique car le fonctionnement des
ordinateurs est basé sur le binaire), puis ensuite de faire des calculs sur ces chiffres
pour :
d'une part les modifier de telle façon à les rendre incompréhensibles. Le résultat
de cette modification (le message chiffré) est appelé cryptogramme (en
anglais ciphertext) par opposition au message initial, appelé message en clair (en
anglais plaintext) ;
faire en sorte que le destinataire saura les déchiffrer
C’est quoi la virtualisation ?
La virtualisation consiste, en informatique, à exécuter sur une machine hôte,
dans un environnement isolé, des systèmes d'exploitation1 — on parle alors
de virtualisation système — ou des applications2 — on parle alors
de virtualisation applicative. Ces ordinateurs virtuels sont appelés serveur privé
virtuel (Virtual Private Server ou VPS) ou encore environnement virtuel (Virtual
Environment ou VE).
1. Notions
Chaque outil de virtualisation met en œuvre une ou plusieurs de ces notions :
# couche
......d'abstraction
.
............matérielle et/ou logicielle ;
# syst
....è.
me
..d'exploitation
..............h.
ô.
.te.(installé directement sur le matériel) ;
# syst
....è.
mes
.d'exploitation
.. .
.............(ou applications, ou encore ensemble d'applications)
« virtualisé(s) » ou « invité(s) » ;
# partitionnement
............... , isolation et/ou partage des ressources physiques et/ou
logicielles ;
# .
images
..... manipulables
............ : démarrage, arrêt, gel, clonage, sauvegarde et
restauration, sauvegarde de contexte, migration d'une machine physique à
une autre ;
# .
ré.
seau
....virtuel
.
......: réseau purement logiciel, interne à la machine hôte, entre
hôte et/ou invités.
2. Les types des systèmes de virtualisation
Un isolateur est un logiciel permettant d'isoler
l'exécution des applications dans ce qui est
appelé des contextes, ou bien zones
d'exécution. L'isolateur permet ainsi de faire
tourner plusieurs fois la même application
dans un mode multi-instance (plusieurs instances d’exécution) même si elle
n’était pas conçue pour ça. Cette solution est très performante, du fait du peu
d'overhead (temps passé par un système à ne rien faire d'autre que se gérer),
mais les environnements virtualisés ne sont pas complètement isolés. La
performance est donc au rendez-vous, cependant on ne peut pas vraiment parler
de virtualisation de systèmes d’exploitation. Uniquement liés aux systèmes Linux,
les isolateurs sont en fait composés de plusieurs éléments et peuvent prendre
plusieurs formes.
Par exemple, en logiciels libres : Linux-VServer (isolation des processus
en espace utilisateur), chroot (isolation changement de racine), BSD
Jail (isolation en espace utilisateur), OpenVZ (partitionnement au niveau noyau
sous Linux), LXC (usage des Cgroups du noyau Linux), Docker.
Un hyperviseur de type 1 est comme un noyau système très léger et optimisé
pour gérer les accès des noyaux d'OS invités à l'architecture matérielle sous-
jacente. Si les OS invités fonctionnent en ayant conscience d'être virtualisés et
sont optimisés pour ce fait, on parle alors de para-virtualisation (méthode
indispensable sur Hyper-V
de Microsoft et qui
augmente les performances
sur ESX de VMware par
exemple). Actuellement
l’hyperviseur est la
méthode de virtualisation
d'infrastructure la plus
performante mais elle a pour inconvénient d’être contraignante et onéreuse, bien
que permettant plus de flexibilité dans le cas de la virtualisation d'un centre de
données.
Par exemple : Citrix Xen Server (libre), VMware vSphere (anciennement VMware
ESXi et VMware ESX), Microsoft Hyper-V Server, Parallels Server Bare
Metal, Oracle vm (gratuit), KVM (libre).
Un hyperviseur de type 29 est un logiciel (généralement assez lourd) qui tourne
sur l'OS hôte. Ce logiciel permet de lancer un ou plusieurs OS invités. La machine
virtualise ou/et émule le matériel pour les OS invités, ces derniers croient
dialoguer directement avec ledit matériel. Cette solution est très comparable à
un émulateur, et parfois même
confondue. Cependant l’unité
centrale de calcul, c'est-à-dire
le microprocesseur, la mémoire
système (RAM) ainsi que la mémoire
de stockage (via un fichier) sont
directement accessibles aux
machines virtuelles, alors que sur un
émulateur l’unité centrale est simulée ce qui réduit considérablement les
performances par rapport à la virtualisation.
Cette solution isole bien les OS invités, mais elle a un coût en performance. Ce
coût peut être très élevé si le processeur doit être émulé, comme cela est le cas
dans l’émulation. En échange cette solution permet de faire cohabiter plusieurs
OS hétérogènes sur une même machine grâce à une isolation complète. Les
échanges entre les machines se font via les canaux standards de communication
entre systèmes d’exploitation (TCP/IP et autres protocoles réseau), un tampon
d’échange permet d’émuler des cartes réseaux virtuelles sur une seule carte
réseau réelle.
Par exemple : logiciels Microsoft (Microsoft VirtualPC, Microsoft Virtual Server),
logiciels Parallels (Parallels Desktop, Parallels Server), Oracle VM
VirtualBox (libre), logiciels VMware (VMware Fusion, VMware Player, VMware
Server, VMware Workstation), logiciels libres (QEMU : émulateur de plateformes
x86, PPC, Sparc, et bochs : émulateur de plateforme x86).
On utilisera par suite , pour notre projet un système
de virtualisation de type 2 , on parlera du proxmox .
A l’aide de proxmox on vas créé des machines virtuelles
qui sont :
× Un client : avec système d’exploitation ubunto
× Un serveur : windows server 2016
× Un intermédiaire entre client et serveur :avec
système d’exploitation kali linux
On utilise kali lunix comme intermédiaire entre le client
et le serveur , afin d’analyser les unités de données
transmise , soit disant les paquets .
En guis de conclusion : le but de ce premiere projet est
de décode les paquets capturés et de comprendre les
différentes structures (encapsulation) des protocoles de
communication entre le client et le serveur .
On commence d’abord par la mise en place du
proxmox .
3. Proxmox :
Proxmox Virtual Environment (PVE) est une solution de virtualisation
libre basée sur l'hyperviseur Linux KVM, et offre aussi une solution de containers
avec LXC. C'est une solution de virtualisation de type "bare metal". La base du
système est une distribution Debian. C'est un équivalent à la solution ESX de
VMware.
L’outil propose une interface Web, accessible après l’installation sur votre
serveur. Cette interface facilite la gestion de la machine virtuelle, puisque
généralement, quelques clics suffisent.
Pourquoi utiliser Proxmox ?
Les solutions de management de virtualisation des serveurs ne manquent pas
sur le marché, mais Proxmox se distingue par ensemble de caractéristiques.
✓ Migration directe : cela permet de déplacer une machine virtuelle en cours
d’exécution d’un serveur physique à un autre, sans interruption.
✓ Open source : il est entièrement open source, sousGeneral Public License,
version 3 (GNU AGPL, v3). Cela signifie que vous pouvez librement visualiser,
modifier et supprimer le code source, et distribuer votre propre version, tant que
vous respectez les termes de la Licence.
✓ Mise en réseau pontée : Proxmox VE permet à un utilisateur de créer un
réseau privé entre les machines virtuelles. Des options VLANsont également
disponibles.
✓ Modèle de système d’exploitation : Proxmox VE permet aux utilisateurs de
créer leur propre modèle de système d’exploitation pour un déploiement
ultérieur. Bien sûr, il est également possible pour les utilisateurs de télécharger
un fichier modèle depuis Internet et d’importer ce fichier dans leur système.
✓ Stockage flexible : une large gamme d’options de stockage est disponible, y
compris des technologies de stockage locales .
✓ Sauvegarde planifiée : une interface utilisateur est fournie aux utilisateurs afin
qu’ils puissent configurer leur propre stratégie de sauvegarde. Les fichiers de
sauvegarde peuvent être stockés localement ou sur n’importe quelle option de
stockage prise en charge que vous avez configurée.
✓ Outil de ligne de commande (CLI) : Proxmox VE fournit différents outils de
gestion CLI, permettant aux utilisateurs d’accéder au conteneur de la machine
virtuelle, de gérer les ressources, et Les technologies de virtualisation
supportées :
Proxmox supporte 2 technologies de virtualisation, à savoir la LXC et la
KVM. Elles sont toutes les deux excellentes, mais Il existe quelques
différences entre les deux – liées aux fonctionnalités et aux performances.
✓ LXC s’appuie sur le noyau et le système d’exploitation de la machine hôte pour
fonctionner. Pour cette raison, certaines fonctionnalités sont limitées, telles que :
✓ l’utilisation de Windows et d’autres systèmes d’exploitation,
✓ l’installation de nouveaux noyaux,
✓ la modification des valeurs du noyau du système.
➢ L’utilisation de LXC présente également des avantages :
✓ Peut être plus performant que KVM car il n’y a pas de surcharge d’hyperviseur.
✓ Étant donné que les frais généraux sont inférieurs, le coût global
d’hébergement des conteneurs est inférieur à KVM.
Lorsque vous utilisez KVM, vous ne rencontrerez généralement pas de
fonctionnalités qui ne sont pas prises en charge, comme dans le cas de LXC. Les
serveurs KVM exécutent leur propre système d’exploitation, avec son propre
noyau et son matériel virtuel. Ceci permet :
✓ l’utilisation de systèmes d’exploitation Windows ou BSD,
✓ l’exécution de systèmes d’exploitation spécialisés, tels que le routage, le pare-
feu et d’autres systèmes d’exploitation centrés sur le réseau,
✓ l’utilisation de votre propre technologie de conteneur telle qu’ OpenVZ, LXC,
Docker ou bien d’autres. Installation Proxmox : Ici, il faudra sélectionner « Install
Proxmox VE »
En installation actuellement :
Apres des simple configuration , tel que nom adresse ip , passerelle …
Pour finir, vous aurez à l’écran un rappel de l’URL d’accès à l’interface
d’administration. Je vous invite à la noter pour après, ensuite cliquez sur «
Reboot » :
Vous pouvez maintenant vous connecter à votre serveur via votre navigateur en
utilisant l’URL notée précédemment avec le port 8006. Une fois sur l’interface, il
faudra vous authentifier avec le mot de passe root en sélectionnant « Linux PAM
standard authentication » et le langage souhaité :
Commençons par la création d’une machine virtuelle sous le nom « ubuntu »
avec les paramètres résumés dans la figure suivante :
Après la création, comme vous voyez voilà votre machine près à utiliser.
Après avoir démarré la machine virtuelle et fait toutes les modifications
nécessaires. On peut installer les services Openssh et Docker et cloudnext les
vérifier en tapant les commandes suivantes :
Authentification en tant qu'administrateur
Installation du protocol ssh, après la vérification. ssh n'est pas encore installer tu
peux vérifier avec la commands ssh localhost.
On a commencé l’installation de protocole pour accéder à distance :
Voilà notre protocole est activé avec succès.
Nous avons accéder à l'intérieur de notre machine avec ssh.
De la meme facon qu’on a cree avec la machine vertuelle ubunto - le client - on
cree deux autre machine kali linux et windows server
Windows server 2016 : Kali linux :
d.
Sur machine serveur on configure dhcp et dns :
On va commencer par
affecter une adresse
IPv4 statique à notre
serveur, on le fait car on
ne peut se permettre
que notre serveur
DHCP change d’adresse
IP régulièrement:
Pour pouvoir installer
le serveur DHCPv4 il
faut ajouter des rôles et
fonctionnalités, pour cela
on se rend dans le
gestionnaire de serveur,
puis cliquez sur
« Ajoutez des rôles et des
fonctionnalités »:
Une fenêtre apparaîtra,
cliquez sur « Suivant ».
Puis, choisissez « Installation
basée sur un rôle ou une
fonctionnalité » puis cliquez
sur « Suivant ».
Ensuite, Sélectionnez votre
serveur de destination puis
cliquez sur « Suivant »:
Dans la liste des rôles de serveurs,
cochez la case « Serveur
DHCP » et « Serveur DNS
» (qu’on configurera plus tard)
puis cliquez sur « Suivant ».
Cette fenêtre apparaîtra, cochez la
case « Inclure les outils de gestion
(si applicable) » puis cliquez sur « Ajouter des fonctionnalités »:
Une fenêtre vous expliquant le rôle d’un serveur DHCP apparaîtra, cliquez sur
« Suivant ».
Vous pouvez maintenant installer les rôles Serveur DHCP, cliquez sur « Installer »:
Pour pouvoir
configurer notre
serveur DHCP, on se
rend dans
le gestionnaire de
serveur, onglet DHCP:
Cliquez sur
« Gestionnaire
DHCP »:
Dans cette fenêtre on clique droit sur IPv4 puis on va définir une nouvelle
étendue:
On définit un nom à l’entendue, dans notre cadre d’étude nous avons définit le
nom « PPEIPv4-SDIS29 »:
Cette fenêtre nous permet de configurer la plage d’adresses IPv4 de l’étendue:
On définit ensuite la ou les adresses exclues (comme par exemple l’adresse du
serveur DHCP):
Puis on définit la durée du bail:
Et on termine la création d’une nouvelle étendue:
Le serveur DHCPv4 est désormais opérationnel.
Mise en place de redondance DHCP: en mode failover
Avoir un serveur DHCP c’est bien, cependant si il vient à planter, c’est
compromettant. C’est pour ça que nous allons voir comment mettre en place une
redondance DHCP sur Windows Server 2016.
Il existe deux sortes de redondance DHCP, le Failover et le Load Balancing.
Le Failover consiste à avoir deux serveurs DHCP, un fonctionnel que l’on
appellera « Maître » et un autre en veille que l’on appellera « Esclave », le but
étant que si le serveur DHCP « Maître » vient à planter le serveur DHCP
« Esclave » prenne le relais.
Pour le Load Balancing, les deux serveurs DHCP fonctionnent en même temps et
se répartissent les charges (en fonction d’un pourcentage défini par
l’administrateur).
Configuration IP des machines :
Serveur DHCP 1 : [Link]
Serveur DHCP 2 : [Link]
La première chose à faire est d’installer le rôle DHCP sur notre deuxième serveur
DHCP:
Inutile de configurer une étendue sur votre second serveur DHCP,
puis qu’avec le basculement la configuration du serveur 1 sera
envoyé vers le serveur 2.
Ensuite, nous pouvons donc
mettre en place le basculement:
On saisit l’adresse IP de notre
second serveur DHCP :
Maintenant nous pouvons
choisir quel type de
redondance nous
voulons, Failover ou Load
Balancing.
Pour ce tutoriel nous
allons utiliser le
mode Failover:
Après avoir configuré notre basculement nous allons maintenant voir si ça
fonctionne.
On éteint le serveur DHCP Maître afin de voir si l’esclave va prendre le relais, une
fois le serveur éteint on peut voir que le serveur esclave a bien reçu la
configuration du serveur Maître, la petite flèche orange indique que ce serveur
est bien un serveur redondant.
Sur le client on ouvre un
cmd, on fait un ipconfig
/release et
un ipconfig/renew afin
de charger une nouvelle
configuration IP.
Passons maintenant a linux : problèmes réseau et assurer des
formations. Il n’y a pas de meilleur
On utilise par suite wireshark moyen pour apprendre le
Par défaut wireshark est déjà installe fonctionnement des réseaux que
dans kali linux , on est censée de l’ouvrir d’analyser du trafic sous le microscope
tout simplement . de Wireshark. La question de la légalité
de Wireshark est souvent posée, car il
Wireshark est un logiciel open source s’agit d’un puissant outil de capture de
d’analyse des protocoles réseau créé paquets. Pour rester du côté lumineux
par Gerald Combs en 1998. Un groupe de la Force, vous ne devez utiliser
international d’experts réseau et de Wireshark que sur les réseaux dont
développeurs gère aujourd’hui cet outil vous avez l’autorisation d’inspecter les
et le met à jour pour assurer sa paquets. Utiliser Wireshark pour
compatibilité avec les nouvelles observer des paquets sans autorisation
technologies réseau et méthodes de vous ferait basculer du côté obscur de la
chiffrement. Wireshark ne pose Force.
absolument aucun risque de sécurité. Il
Les options de capture les plus utiles
est notamment utilisé par des agences
que nous considérerons sont :
gouvernementales, de grandes
Interface réseau – nous n'analyserons
entreprises, des organisations à but non
que les paquets provenant de eth0,
lucratif et des établissements
qu'ils soient entrants ou sortants.
pédagogiques pour résoudre des
Filtre de capture – Cette option nous
permet d'indiquer quel type de trafic
nous voulons surveiller par port,
protocole ou type.
Avant de passer aux astuces, il est
important de noter que certaines
Parfois, vous serez intéressé par
organisations interdisent l'utilisation de
l'inspection du trafic qui correspond à
Wireshark dans leurs réseaux. Cela dit, si
l'une des conditions (ou aux deux). Par
vous n'utilisez pas Wireshark à des fins
exemple, pour surveiller le trafic sur les
personnelles, assurez-vous que votre
ports TCP 80 (serveur web) et 3306
organisation autorise son utilisation.
(serveur de base de données
MySQL/MariaDB), vous pouvez utiliser
une condition OR dans le filtre de
capture :
Inspecter le traffic de http
La règle de filtrage suivante affichera
uniquement le trafic local et exclura les
Inspecter le trafic HTTP à partir d'une paquets entrant et provenant d'Internet :
adresse IP donnée
Pour inspecter le contenu d'une
conversation TCP (échange de données),
faites un clic droit sur un paquet donné et
choisissez Suivre le flux TCP. Une fenêtre Pour résumé , il suffit de taper le
apparaîtra avec le contenu de la protocole que vous cherchez dans la
conversation. bande de recherche pour filtre le
résultats apparut .
Cela inclura les en-têtes
HTTP si nous inspectons le
trafic Web, ainsi que les
informations d'identification
en texte brut transmises au
cours du processus, le cas
échéant.
Dans le cadre du sécurité réseau , on développe un site web qui a comme but la criptographie .
Donc il a pour rôle ; crypter le text donnée en différents forme selon le choix de l’utilisateur ,
soit md5, sha256 , sha512 , base64 , Bcrypt ou argon21 .
Pour ceux-la on utilise php , html , c++ et javascript
1. Code source back-end
<!-- pr md5 -->
<?php
if(isset($_POST['btn'])):
$text = $_POST['texto'];
$textmd5 = md5($text);
echo "<h4>en MD5: $textmd5</h4>";
endif;
?>
<body>
<form action="<?php echo $_SERVER['PHP_SELF']; ?>" method="post">
<p>donner le text a chiffrer en sha256 </p>
<input type="text" name="texto1" placeholder="le text ">
<button type="submit" name="btn1">chiffrer le text </button>
</form>
</body>
</html>
<?php
if(isset($_POST['btn1'])):
$text = $_POST['texto1'];
$textsha256 = hash('sha256',$text);
echo "<h4>en SHA256: $textsha256</h4>";
endif;
?>
<!-- pr sha512 -->
<?php
if(isset($_POST['btn3'])):
$text = $_POST['texto3'];
$textsha512 = hash('sha512',$text);
echo "<h4>en SHA512: $textsha512</h4>";
endif;
?>
<!-- base64 (shit alt a) -->
<?php
if(isset($_POST['btn4'])):
$text = $_POST['texto4'];
$textBase64 = base64_encode($text);
echo "<h4>en Base64: $textBase64</h4>";
endif;
?>
<!-- Bcrypt -->
<?php
if(isset($_POST['btn5'])):
$text = $_POST['texto5'];
$textBcrypt = password_hash($text,PASSWORD_DEFAULT);
echo "<h4>Em Bcrypt: $textBcrypt</h4>";
endif;
?>
<!--argon2I -->
<?php
if(isset($_POST['btn6'])):
$text = $_POST['texto6'];
$textARGON2I = password_hash($text,PASSWORD_ARGON2I);
echo "<h4>en ARGON2I: $textARGON2I</h4>";
endif;
?>
2. Des captures d’écran du site crée :
Ces deux buttons pour
changer les couleurs de la
page selon vos choix
On veut crypter le mot “ rapport stage “ en Bcrypt :
Le résultat est :
En Bcrypt :
En sha256 :
En md5 :
En aron21 :