Virtualisation

La virtualisation consiste à créer une représentation virtuelle, basée logicielle, d’un objet ou d’une ressource telle qu’un système d’exploitation, un serveur, un système de stockage ou un réseau.

Ces ressources simulées ou émulées sont en tous points identiques à leur version physique. Les machines virtuelles sont exécutées sur une couche d’abstraction matérielle.

Ainsi, les entreprises sont en mesure d’exécuter plusieurs systèmes d’exploitation et applications simultanément sur un serveur unique. Les ressources et capacités du serveur sont réparties entre les différentes instances.

Ceci permet de réaliser d’importantes économies et d’utiliser les serveurs plus efficacement puisque leurs capacités sont pleinement exploitées.

De plus, la virtualisation permet d’exécuter des programmes de façon isolée pour effectuer des tests en toute sécurité sans risquer de compromettre les autres machines virtuelles exécutées sur le même serveur hôte.

Pour les particuliers et les utilisateurs de PC, il est aussi possible d’utiliser la virtualisation pour exécuter des applications nécessitant différents systèmes d’exploitation sur un seul et même ordinateur.

Source: https://bit.ly/2okpMVr

Linux

Image de la Mascotte de Linux

Première chose à retenir sur Linux parce qu’il y a pas mal de confusion :

  • Linux est un noyau, c’est pour ça qu’on parle d’ailleurs de “Linux kernel”. Kernel veut dire noyau en francais.
  • Et en gros, c’est ça qui permet de démarrer, de faire la liaison entre le matériel et le système de la machine, ainsi que de faire la liaison entre les applications installées sur la machine.

Le hic c’est qu’on ne peut pas utiliser ce noyau seul. Il faut un environnement (des logiciels autour du noyau afin que tout marche bien : des pilotes,, de quoi gérer la machine, etc).

C’est là où la notion de distribution apparaît :

  • On parle de distribution GNU/Linux quand il s’agit d’une solution prête à être intallée par l’utilisateur final sur sa machine.
  • Cette distribution GNU Linux  comprend un noyau Linux ainsi que des logiciels sous Licence GNU, en gros on va dire que ce sont des logiciels libres qui complètent le noyau pour avoir un système d’exploitation complet.
  • Il est à noter qu’on peut aussi très bien trouver des distributions qui ne contiennent pas seulement les logiciels GNU, il y a parfois d’autre logiciels non GNU.

Bref, c’est ce noyau Linux + des logiciels complémentaires qui vont permettre d’avoir un OS complet.

Voici des exemples de systèmes d’exploitation « Linux » :

  • Red Hat Enterprise Linux
  • Fedora Linux
  • Debian Linux
  • Ubuntu Linux

Ensuite il y a aussi souvent une autre confusion entre Linux et UNIX.

Alors quelle différence ?

  • Déjà pour l’anecdote sachez que le système d’exploitation “Linux” a été créé dans le but de fournir un équivalent libre au système Unix.
  • Linux est un clone d’UNIX en version libre et écrit à partir de zéro par Linus Torvalds, le createur du noyau Linux donc,  avec l’aide d’une équipe d’informaticiens.
  • Par contre UNIX regroupe un ensemble de systèmes d’exploitation différents. Ce ne sont donc pas juste des noyaux mais bien des OS complets.
  • Comme exemples de système Unix connus, on a HP-UX, IBM AIX, Solaris Sun.

Maintenant on va un peu s’intéresser au père de Linux :

En 1991, l’étudiant finlandais Linus Torvalds qui a alors 22 ans, commence le développement d’un noyau de système d’exploitation alternatif à MINIX, qui est un clone d’UNIX utilisé à des fins pédagogiques pour des étudiants. Linux va au final créer avec son nouveau noyau une alternative à UNIX.

Après quelques mois, Il diffusa le code de son travail via un compte FTP de l’Université d’Helsinki. Et pour la petite anecdote le dossier contenant ces travaux a été nommé « Linux » par un administrateur du serveur FTP.  Linux pour « Linus UNIX » ou en français l’UNIX de Linus. Et par la suite, ce nom restera.

Linus publie par la suite ses travaux sur Internet en demandant à d’autres développeurs de l’aider pour le finaliser. Aujourd’hui Linus continue de diriger le développement du noyau Linux.

Concernant la mascotte officielle de Linux, il s’agit d’un manchot du nom de TUX.

TUX étant un acronyme composé des mots Torvalds et UNIX.

A noter que beaucoup pensent à tort que la mascotte de Linux est un pingouin, notamment parce qu’en anglais, le mot « manchot » se dit « penguin », mais TUX est bien un manchot.

La différence ?

Le pingouin est un oiseau de l’hémisphère nord qui peut voler, alors que le manchot est un oiseau qui ne vit que dans l’hémisphère sud et qui est incapable de voler, en gros hein!

Aujourd’hui, bien que peu présent sur les postes de travail, Linux est beaucoup plus présent dans le monde des serveurs.

Le noyau Linux équipe aussi la plupart des systèmes embarqués (box, robots, aérospatial, drones…). mais aussi les supercalculateurs.

Et pour terminer, comme vous le savez sûrement déjà, Linux domine le marché des smartphones via l’OS Android qui s’appuie sur un noyau Linux.

Source: https://bit.ly/2nDO2Sm

Dennis Ritchie, l’inventeur du langage C et papa d’Unix.

Image de Dennis Ritchie.

Son invention du langage C et sa participation au développement d’UNIX, au côté de Ken Thompson, ont fait de lui un pionnier de l’informatique moderne.

Le langage C reste au début du XXIe siècle, un des langages les plus utilisés, tant dans le développement d’applications que de systèmes d’exploitation. UNIX a aussi eu une grande influence en établissant des concepts qui sont désormais totalement incorporés dans l’informatique moderne.

Il déclara que le langage C « semblait être une bonne chose à faire » et que n’importe qui à sa place aurait fait la même chose ; bien que son collègue des laboratoires Bell, [Bjarne Stroustrup], créateur du C++, répondit que « si Dennis avait décidé de consacrer cette décennie à des mathématiques ésotériques, UNIX aurait été mort‐né. »

Suite au succès d’UNIX, Dennis continua ses recherches dans les systèmes d’exploitation et les langages de programmation, dont notamment les systèmes d’exploitation Plan 9 et Inferno, et le langage de programmation Limbo.

Pour beaucoup de développeurs, Dennis Ritchie représente une figure incontournable de la programmation.

Il laisse derrière lui de nombreux supporters dont certains lui ont rendu hommage en écrivant notamment sur Twitter ce message : ‘ son processus s’est terminé avec exit code 0 ‘.

Source: https://bit.ly/2kKorGi

Logiciel libre et open source : mais quelle est la différence ?

Image illustrant l'article des logiciels open et free.

Quand on aborde la question des logiciels dans les communautés de développeurs, il est fréquent de voir deux groupes avec des idéaux opposés.
L’un qui a une préférence pour les logiciels propriétaires et l’autre à l’opposé qui a plutôt opté pour des logiciels libres ou open source.

Si ces deux derniers termes sont utilisés de manière interchangeable par bon nombre de personnes, il s’agit toutefois de deux concepts distincts dont la différence n’est parfois pas évidente.

Mais qu’est ce qui est à l’origine des mouvements de logiciel libre et open source ? Quel est leur dénominateur commun et quelle est la différence fondamentale entre ces deux concepts ?

Des logiciels propriétaires aux logiciels libres:

Il faut avant tout noter que le concept de logiciel libre est plus ancien que celui de l’open source.

L’idée de logiciel libre est née d’un mouvement fondé par Richard Stallman, connu comme le père du projet GNU.

Le logiciel libre vient s’opposer aux logiciels propriétaires qui imposaient des limitations de licences aux utilisateurs.
L’objectif du libre est d’offrir plus de libertés aux utilisateurs individuels ou en collectivités quant à l’utilisation des logiciels.
Les utilisateurs devront avoir la liberté d’exécuter, copier, distribuer, étudier, modifier et améliorer le logiciel.
La définition de logiciel libre a connu plusieurs révisions au fil du temps pour clarifier certaines subtilités.
Mais de manière concrète, pour qu’un logiciel soit qualifié de libre, il doit respecter 4 critères de libertés :

  • La liberté d’exécuter le programme comme vous le souhaitez, et à toute fin (liberté 0).
  • La liberté d’étudier le fonctionnement du programme, et le modifier comme vous le souhaitez pour votre ordinateur (liberté 1).
  • La liberté de redistribuer les copies que vous avez reçues (liberté 2).
  • La liberté de distribuer des copies de vos versions modifiées pour donner à toute la communauté une chance de profiter de vos modifications (liberté 3).

Les libertés 1 et 3 nécessitent un accès au code source.
Tout logiciel qui n’offre pas aux utilisateurs ces 4 libertés est qualifié de logiciel propriétaire, selon le mouvement du logiciel libre. La définition de ces libertés permet de donner le contrôle de l’ordinateur et du logiciel utilisé à l’utilisateur, et non au fabricant du logiciel.

Un logiciel libre n’est pas nécessairement gratuit  !

Plusieurs ont tendance à croire ou ont une fois pensé que le fait qu’un logiciel soit libre voudrait également dire qu’il est gratuit, ce n’est pas du tout vrai.

Cette fausse croyance vient du mot anglais « free » qui veut dire à la fois libre et gratuit. Pour éviter toute confusion, l’appellation « libre software » est parfois utilisée au lieu de « free software ».

Du logiciel libre est né l’open source:

L’association entre logiciel libre et logiciel gratuit a constitué un obstacle à l’adoption commerciale, alors qu’un logiciel libre devrait être également disponible pour l’usage, le développement et la distribution de nature commerciale.

En 1998 en Californie, les partisans du logiciel libre se sont donc réunis pour apporter les idées et les avantages du logiciel libre à l’industrie du logiciel commercial. Le mouvement du logiciel libre a donc été rebaptisé devenant ainsi l’open source, en mettant en avant les avantages du partage du code et la collaboration pour les entreprises.

L’open source repose donc sur les principes du logiciel libre, mais les fondateurs du nouveau mouvement ont défini dix conditions préalables que doit respecter un projet pour être qualifié d’open source :

  • La redistribution doit être libre.
  • Le programme doit être distribué avec le code source, sinon il doit y avoir un moyen très médiatisé pour l’obtenir sans frais.
  • La licence doit autoriser les modifications et les œuvres dérivées, et doit leur permettre d’être distribuées sous les mêmes termes que la licence du logiciel original.
  • Pour maintenir l’intégrité du code source de l’auteur, la licence peut exiger que les œuvres dérivées portent un nom ou un numéro de version différent de ceux du logiciel original.
  • La licence ne doit discriminer aucune personne ou groupe de personnes.
  • La licence ne doit pas défendre d’utiliser le programme dans un domaine d’activité spécifique.
  • Les droits attachés au programme doivent s’appliquer à tous ceux à qui il est redistribué, sans obligation pour ces parties d’obtenir une licence supplémentaire.
  • La licence ne doit pas être spécifique à un produit.
  • La licence ne doit pas imposer des restrictions sur d’autres logiciels distribués avec le logiciel sous licence. Par exemple, la licence ne doit pas exiger que tous les autres programmes distribués sur le même support doivent être des logiciels open source.
  • La licence doit être technologiquement neutre.iels propriétaires. Toutefois, ce n’est pas du tout évident de faire la différence entre logiciel libre et open source. Selon Richard Stallman, la différence fondamentale entre les deux concepts réside dans leur philosophie :

«l’open source est une méthodologie de développement; le logiciel libre est un mouvement social ».

Source: https://bit.ly/2kWBapb

Firewall

Image illustrant l'article du firewall.

Définition du mot Firewall

Traduit en français par le terme de pare-feu, un firewall désigne dans le monde informatique un logiciel ou un matériel dont la principale fonction est d’assurer la sécurité d’un réseau.

Dit autrement, le firewall se présente comme une barrière de sécurité ou un mur empêchant certaines informations de sortir d’un réseau informatique.

Côté fonctionnement, le firewall contrôle et filtre le trafic d’informations entre différentes zones (Internet et un réseau interne), grâce à différents critères de filtrage comme l’adresse IP d’origine ou de destination, la taille des données, etc…

Source : https://bit.ly/2m5nhpi

Proxy

Image illustrant l'article du proxy.

Avant de commencer, il faut savoir que l’on parle souvent  de serveur proxy, mais que cela est un diminutif, en effet il en existe plusieurs types.
Je vais commencer par vous expliquer à quoi correspond le serveur proxy http (appelé aussi proxy web), nous verrons ensuite d’autres types de serveurs proxy : proxy cache, proxy transparent, reverse proxy …

Définition:

Pour commencer, il me semble important de préciser que le terme “proxy” peut être traduit par mandataire, procuration, intermédiaire.

Donc, un serveur proxy est un serveur qui servirait d’intermédiaire ou un serveur que l’on mandaterait pour faire quelque chose.

Essayons d’imaginer le rôle d’un serveur proxy en dehors de l’informatique.

On pourrait expliquer cela comme ça :

Vous devez récupérer un colis ou faire vos courses, mais vous ne pouvez ou ne voulez pas y aller (par faute de temps, parce que c’est loin, ou pour toute autre raison …).

Vous envoyez quelqu’un le faire à votre place. Cette personne (ce mandataire) ira chercher le colis ou faire vos courses pour vous et vous ramènera ce qu’il a récupéré.

Voilà, le principe du serveur proxy (mandataire).

Mais attention, s’il faut que le mandataire paye pour vous, il faudra que vous lui donniez des informations personnelles telles le code de votre carte bleue, et c’est là qu’on voit qu’il faut avoir toute confiance dans ce mandataire (ou alors ne lui confier que des tâches qui ne nécessitent pas d’informations confidentielles : c’est à dire récupérer un colis qui n’a pas besoin de paiement).

Rôle du serveur proxy http (ou proxy web):

Lorsque vous surfez sur Internet,votre ordinateur est directement connecté.

L’inconvénient principal de ce fonctionnement est que votre ordinateur est directement exposé sur Internet. Mais il y a d’autres inconvénients que je vous expliquerai plus loin.

Si maintenant, on place un serveur proxy entre votre ordinateur et Internet :

  • Votre ordinateur est connecté au serveur proxy.
  • C’est lui qui est connecté à Internet.
  • Vous demandez des pages à ce serveur.
  • Va chercher les pages demandées sur Internet
  • Vous renvoie les pages demandées.

Votre ordinateur demande les pages au Proxy.
Celui-ci va chercher les pages et les retourne à votre ordinateur.

Les paramètres:

Pour que tout cela fonctionne, il faut indiquer 2 informations importantes au navigateur pour lui dire d’utiliser un serveur proxy. (sauf dans le cas d’un proxy transparent voir plus bas).

  1. l’adresse du serveur
  2. le port utilisé pour échanger les données (voir C’est quoi service, port, protocole ?)

Le navigateur ne connait alors qu’une seule adresse : celle du serveur proxy !

Pour savoir comment changer ces paramètres, allez sur comment modifier mes paramètres proxy ?

Les avantages:

Les avantages sont nombreux:

  • Le surf anonyme : Ce n’est pas votre adresse qui est vue sur les sites, mais l’adresse du proxy. Vous êtes ainsi “quasiment anonyme” ou “complètement anonyme” (voir un peu plus bas).
  • La protection de votre ordinateur : Ce n’est pas vous qui êtes en première ligne sur Internet, vous êtes donc mieux protégé.
  • Le masquage de votre lieu de connexion : Le proxy peut être dans un pays différent du votre. Lorsqu’il se connecte à un site, c’est la géolocalisation du proxy qui est vu, pas la votre. Cela peut être utile sur certains sites qui filtre les connexions suivants les lieux d’où elles proviennent.
  • Le cache (nous y reviendrons plus loin).
  • Le filtrage : comme toutes les requêtes et les réponses passent par le proxy, il est possible de filtrer ce que l’on autorise à sortir ou à entrer, c’est le cas dans de nombreuses entreprises (nous y reviendrons plus loin).

  • Les inconvénients:

    Qui dit avantages, dit également inconvénients. Comme nous l’avons vu au-dessus, c’est lui qui fait l’intermédiaire entre vous et le web, donc il voit et peut enregistrer tout ce qui circule entre votre ordinateur et le web, cela peut être risqué !

    Imaginez juste que la personne qui gère ce serveur soit mal intentionné. Il a accès à l’ensemble de votre historique de navigation.

    Si vous utilisez un proxy, il doit être irréprochable car lorsque vous vous connectez à votre banque, votre proxy pourrait très bien enregistrer vos codes (même si ceux-ci sont émis dans des flux https) !

    Il faut donc utiliser un proxy donc vous êtes sûr, ou alors ne pas l’utiliser : c’est à dire mettre des exceptions à l’utilisation de celui-ci. Sur certains sites, certains préconisent absolument d’utiliser des proxys pour être cachés, mais ces mêmes personnes oublient de parler de la sécurité des données confidentielles que vous envoyez sur Internet.

    Un autre inconvénient des proxy est la technologie utilisée sur les sites web. En effet, certains sites peuvent utiliser des technologies de connexion directes entre votre ordinateur et le serveur Web, dans ce cas, il peut être impossible de se connecter à ce genre de sites si vous êtes caché derrière un proxy. Vous devrez là encore mettre le site concerné en exception proxy.

    Source: https://bit.ly/2m6bCqf


Dhcp

Image illustrant l'article du dhcp.

Définition du terme DHCP:

Un serveur DHCP (ou service DHCP) est un serveur (ou service) qui délivre des adresses IP aux ordinateurs qui se connectent sur le réseau.

Une fois que j’ai dit ça, j’ai tout dit ou presque ?

Non, car il reste pas mal de petits détails sur lesquels je peux m’étendre un peu…

Déjà, DHCP est l’abréviation de Dynamic Host Configuration Protocol (en français : Protocole de Configuration Dynamique d’Hôte, là c’est facile à traduire). Si la notion de protocole vous est inconnue : vous pouvez lire ceci … “C’est quoi un service ?”.

Comment ça marche le DHCP?

Les cartes réseaux des ordinateurs doivent être paramétrées pour recevoir automatiquement des adresses lorsque l’ordinateur démarre ou que l’on le connecte au réseau.

Par défaut c’est le cas, car c’est la méthode la plus simple pour obtenir une adresse IP. Je suppose d’ailleurs que vous qui êtes en train de lire ce blog, vous n’avez pas attribué d’adresse IP à votre ordinateur. N’est-ce pas ? Eh oui, votre box internet remplit ce rôle de serveur DHCP sans que vous le sachiez !

Je vous rappelle que l’adresse IP doit être unique sur un réseau donc le serveur DHCP (ou service DHCP) va gérer les adresses et n’attribuer que des adresses non utilisées à tout nouvel ordinateur qui en fait la demande.

En fait, le serveur DHCP (ou service DHCP) va délivrer un bail DHCP à l’ordinateur qui en fait la demande. (et uniquement à ceux qui en font la demande, et non pas à tous les ordinateurs qui se connectent sur le réseau).

Wouah, ça a l’air de se compliquer ?
Non, dans ce bail, il y a entre autres 3 choses qui nous intéressent :

  1. Une durée de vie (durée du bail)
  2. Une adresse IP.
  3. Les paramètres du réseau.

Commençons par la plus simple :

Une durée de vie : durée d’un bail DHCP.

Vous l’avez compris, le serveur DHCP (ou service DHCP) m’a donné une adresse IP, mais elle est limitée dans le temps (4h, 6h, … cela dépend du réglage de l’administrateur du service).

Pourquoi donner une durée au bail DHCP plutôt que donner une adresse à vie ?

  •  Un des intérêts du DHCP, c’est justement que les baux (un bail = des baux), sont limités dans le temps, car une fois le délai écoulé, l’adresse IP est à nouveau disponible.

Alors que se passe-t-il à expiration du délai ?

  • Eh bien, si l’ordinateur est toujours connecté, alors il recevra un nouveau bail. Cela est complètement transparent. (en fait le renouvellement est fait avant l’expiration)
  • Si l’ordinateur n’est plus présent sur le réseau, alors l’adresse est disponible pour un autre ordinateur.

Avantages de ce système ?

  • Avec ce système, les adresses sont tournantes, c’est à dire qu’un réseau peut accueillir plus d’ordinateurs (pas tous en même temps, bien évidemment) que si tous les ordinateurs avaient une adresse fixe.
  • Pour vous faire comprendre, prenons l’exemple d’un parking :

Imaginons un parking de 100 places dans une entreprise.

1er cas : Adresses IP fixes,  nous sommes pas en DHCP : Les 100 places sont réservées pour des personnes bien précises, le nom est affiché sur la place de parking . Et les 100 places sont prises même s’il n’y a pas de voiture dessus !

2ème cas : Nous sommes en DHCP : Sur 100 places, nous avons décidé de n’en affecter que 10 à des personnes bien précises, comme au-dessus, le nom est affiché sur ces 10 places. Il reste donc 90 places, qui sont disponibles. (la plage du serveur est alors de 90 places)  Et on peut accueillir plus de personnes différentes car toutes les personnes ne sont pas toutes présentes en même temps. Bien évidemment, quand le parking est plein, il est plein. Pour le DHCP c’est pareil, s’il ne reste plus d’adresse IP de disponible, vous ne pourrez pas connecter l’ordinateur au réseau.

Vous comprenez bien que dans le cas où l’entreprise comprendrait 150 salariés, la 2ème solution est la meilleure, s’ils ne sont pas tous au travail au même moment.

Une adresse IP dynamique

On dit que les adresses distribuées par ce service sont dynamiques, (par opposition aux adresses statiques, celles que l’on enregistre directement sur l’ordinateur) c’est à dire quelles peuvent changer d’une fois à l’autre.

Si je reprends l’exemple de mon parking ci-dessus, les salariés qui n’ont pas de place réservée, peuvent garer leur véhicule sur des emplacements libre mais différents chaque jour.

Comme vous le savez maintenant, une adresse IP seule ne suffit pas, elle doit être accompagnée d’un masque de sous-réseau. (n’hésitez pas à relire : C’est quoi une adresse IP – Les masques réseaux ?) Le serveur DHCP (ou service DHCP)  vous enverra également ce masque. ( Il enverra aussi d’autres informations, voir plus bas).

Avantages de ce système ?

Les avantages sont multiples :

  • Il n’y pas besoin d’attribuer une adresse IP à un ordinateur. Cela se fait tout seul. Comme je le disais au-dessus votre box vous a attribué une adresse.
  •  La gestion des adresses est complètement automatique. Aucune intervention humaine, une fois qu’il est installé.
  • L’administration de toutes les adresses est centralisée, et croyez-moi les administrateurs réseaux préfèrent cela.
  • Le serveur DHCP (ou service DHCP)  va également envoyer d’autres informations concernant votre réseau comme nous allons le voir ci-dessous.

Les paramètres réseaux

Dans le même paquet que le bail DHCP, d’autres informations sont envoyées :

  • Adresse de la passerelle.
  • Adresse du dns.

Vous trouverez à quoi correspondent ces informations dans  “C’est quoi une adresse IP ?” 

Rectificatif

J’ai lu sur plusieurs sites différents une belle bêtise (je suppose que certains ont copié sur d’autres)  :

Voici ce que j’ai trouvé  :

“Dans un réseau, on peut donc n’avoir qu’une seule machine avec adresse IP fixe, le serveur DHCP”

C’est totalement faux !
Le serveur DHCP distribue des adresses sur une ou des plages données (par exemple des adresses de 201 à 250), rien n’empêche d’avoir des machines avec des adresses IP fixes en dehors de cette plage. ( Regardez mon exemple de places parking au dessus, il y en a 10 de fixes, et le reste des places est disponible.)

Dans les réseaux d’entreprise d’autres serveurs (DNS, Passerelle, FW, …) ont des adresses IP fixes.

C’est lors de la mise en place du serveur DHCP, que l’administrateur réseau va définir une ou plusieurs plages d’adresses, on appelle cela l’étendue. (Il peut définir par exemple de ne distribuer que 50 adresses IP).

Source: https://bit.ly/2mFuX21

Dns

Image illustrant l'article du dns.

Qu’est-ce qu’un serveur DNS ?

Le serveur DNS  est un service dont la principale fonction est de traduire un nom de domaine en adresse IP. Pour simplifier, le serveur DNS agit comme un annuaire que consulte un ordinateur au moment d’accéder à un autre ordinateur via un réseau. Autrement dit, le serveur DNS est ce service qui permet d’associer à site web (ou un ordinateur connecté ou un serveur) une adresse IP, comme un annuaire téléphonique permet d’associer un numéro de téléphone à un nom d’abonné.

Conçu en 1983 par Jon Postel et Paul Mockapetris, le DNS est aujourd’hui donc incontournable dans l’univers de la navigation sur le Web. Chaque fournisseur d’accès à Internet dispose notamment de ses propres serveurs DNS, avec des adresses IP qui prennent souvent la forme d’une succession de nombres de chiffres (194.158.122.10 par exemple).

Le dépôt d’un nom de domaine (du type « mondomaine.com ») s’effectue auprès d’un « bureau d’enregistrement » (« registrar » en anglais), organisme intermédiaire entre les demandeurs (ou titulaires) de noms de domaine, et l’ICANN (Internet Corporation for Assigned Names and Numbers), société à but non lucratif responsable de l’allocation des adresses IP dans le monde via le système des noms de domaine.

Source: https://bit.ly/2mcBqkM

Réseaux – Architecture client/serveur à 3 niveaux

Image illustrant l'article du réseaux client/serveur..

Présentation de l’architecture à 2 niveaux:

L’architecture à deux niveaux (aussi appelée architecture 2-tier, tier signifiant rangée en anglais) caractérise les systèmes clients/serveurs pour lesquels le client demande une ressource et le serveur la lui fournit directement, en utilisant ses propres ressources.

Cela signifie que le serveur ne fait pas appel à une autre application afin de fournir une partie du service.

Présentation de l’architecture à 3 niveaux:

Dans l’architecture à 3 niveaux (appelée architecture 3-tier), il existe un niveau intermédiaire, c’est-à-dire que l’on a généralement une architecture partagée entre :

  1. Un client, c’est-à-dire l’ordinateur demandeur de ressources, équipée d’une interface utilisateur (généralement un navigateur web) chargée de la présentation.
  2. Le serveur d’application (appelé également middleware), chargé de fournir la ressource mais faisant appel à un autre serveur.
  3. Le serveur de données, fournissant au serveur d’application les données dont il a besoin.

Étant donné l’emploi massif du terme d’architecture à 3 niveaux, celui-ci peut parfois désigner aussi les architectures suivantes :

  • Partage d’application entre client, serveur intermédiaire, et serveur d’entreprise.
  • Partage d’application entre client, serveur d’application, et serveur de base de données d’entreprise.

Comparaison des deux types d’architecture:

L’architecture à deux niveaux est donc une architecture client/serveur dans laquelle le serveur est polyvalent, c’est-à-dire qu’il est capable de fournir directement l’ensemble des ressources demandées par le client.

Dans l’architecture à trois niveaux par contre, les applications au niveau serveur sont délocalisées, c’est-à-dire que chaque serveur est spécialisé dans une tâche (serveur web/serveur de base de données par exemple).

L’architecture à trois niveaux permet :

  • Une plus grande flexibilité/souplesse.
  • Une sécurité accrue car la sécurité peut être définie indépendamment pour chaque service, et à chaque niveau.
  • De meilleures performances, étant donné le partage des tâches entre les différents serveurs.

Source: https://bit.ly/2m5uRjf

Serveur (informatique) : définition, traduction

Image illustrant l'article du serveur_informatique.

Les serveurs informatiques participent au bon fonctionnement des systèmes en réseaux, de la mise en relation entre appareils à la gestion des données.

Quelle est la définition d’un serveur en informatique ?

Le terme serveur désigne le rôle joué par un appareil matériel destiné à offrir des services à des clients en réseau Internet ou intranet. La taille du support physique d’un serveur varie d’un simple boîtier à une ferme de calcul, selon le nombre d’utilisateurs susceptibles de le solliciter simultanément.

Quels sont les services les plus fréquents rendus par un serveur ?

Les services que peut rendre un serveur sont nombreux. On peut citer parmi les plus importants :

  • un accès au Web, permis notamment par le partage de fichiers en peer to peer.
  • l’envoie et la collecte de courriels, qui demande l’intervention de plusieurs serveurs pour stocker, recevoir et gérer les messages.
  • la mise en commun des imprimantes, notamment en entreprise.
  • le stockage et la consultation de banques de données.
  • le contrôle des accès dans un cadre de la cybersécurité.
  • un soutien au fonctionnement des plateformes de commerce électronique.
  • une mise à disposition facilité de jeux, proxy et autres applications via des logiciels.

Comment fonctionne un serveur informatique ?

Côté fonctionnement, le serveur informatique apporte, de façon automatique, une réponse à la requête d’un client en respectant tout un ensemble de codifications et de protocoles réseau.

Il exerce sa mission en toute autonomie et en toute permanence, 24 heures sur 24, pour pouvoir offrir une continuité du service.

Les serveurs disposent de leur propre système d’exploitation, calibré en fonction de la puissance de calcul que demande leur unité centrale.

Certaines fonctionnalités sont communes entre le serveur et son système d’exploitation. C’est le cas par exemple des contrôles d’identité ou d’accès, des fonctions proxy ou pare-feu et autres protocoles DHCP.

Dans l’univers du web, comme dans d’autres domaines d’ailleurs, le serveur doit répondre favorablement à des critères de sécurité pour la protection des données et des informations qu’il stocke/partage.

La présence d’un administrateur système est indispensable pour maintenir le serveur en bon état et le protéger contre d’éventuelles failles de sécurité.

Source: https://bit.ly/2mszd4r