Fonctionnement d'un ordinateur








télécharger 188.89 Kb.
titreFonctionnement d'un ordinateur
page1/3
date de publication16.04.2017
taille188.89 Kb.
typeDocumentos
p.21-bal.com > loi > Documentos
  1   2   3
Informatique
Fonctionnement d'un ordinateur
L’ordinateur est une machine avec une unité de traitement pour les programmes. Il permet de traiter les données, les informations… C’est un assemblage de composants fonctionnels tels que la mémoire centrale contenant programmes et données, l’unité centrale de traitement exécutant un programme et les unités entrée/sortie permettant l’échange d’informations avec les périphéries.

De plus, l’unité centrale de traitement est un processeur central et l’élément moteur de l’ordinateur qui interprète et exécute les instructions du programme. Avec la mémoire centrale, elle forme l’unité centrale ou microprocesseur.  Cependant, l’unité centrale de traitement est elle-même composée de deux unités fonctionnelles : l’unité arithmétique et logique (UAL) et l’unité de commande (UC).
L’UAL est l’organe de l’ordinateur chargé d’effectuer des opérations logiques et arithmétiques de base telle que les opérations logiques, les opérations élémentaires, les comparaisons. L’UAL se compose de 5 tâches :

  • A et B qui sont les données d’entées à traiter

  • F qui est l’opération à effectuer ou la commande

  • R qui est le résultat de sortie

  • D qui est le mot d’état.

L’UAL est donc décrite par une table de vérité utilisant l’algèbre de Boole décrivant les opérations accomplie suivant les valeurs. Une UAL de n bits est constituée de n tranches d’UAL 1 bit interconnectées. Tout traitement de données a lieu dans cette unité car elle possède tous les circuits capables d’effectuer les opérations élémentaires qui sont à la base de tout algorithme. Cette unité est liée avec l’unité de commande.
L’UC dirige le fonctionnement de toutes les autres unités de l’unité centrale en leur fournissant les signaux de cadence et de commande nécessaires à l’exécution de chaque instruction d’un programme. Ainsi, cette unité lit les données arrivant, les décode et les envoie à l’UAL. Cette unité es également constituée d’un séquenceur (synchroniser l’exécution des instruction), d’un compteur ordinal et d’un registre d’instruction (instruction suivante). Elle dirige les organes de l’ordinateur en fonction des instructions du programme.

Chaque instruction qui arrive dans l’unité de contrôle est d’abord le fait de l’unité d’entrées/sorties car c’est de là qu’arrive les informations de l’extérieur. C’est grâce à cette unité que l’ordinateur a des liens avec le monde extérieur comme le clavier, les lecteurs CD-ROM… Les données de l’extérieur sont directement envoyées à l’unité de contrôle qui les décodera par la suite.

A chaque fois qu’une instruction est exécutée dans le cadre d’un programme, ces instructions, ou données sont temporairement mémorisés dans la mémoire centrale. La mémoire est un élément important dans le fonctionnement d’un ordinateur.

 

De plus, ces quatre unités du microprocesseur sont reliées à trois types de bus : le bus d’adresse, le bus de données, et le bus de commande. Un bus est un système de communication entre les composants de l’ordinateur c'est-à-dire que c’est un regroupement d’un certains groupes de fils électriques réalisant une liaison pour transporter des informations binaires codées sur plusieurs bits. Ces bus assurent la communication interne et externe du microprocesseur.

Le bus d’adresse est une voie unidirectionnelle qui sert à transporter les adresses mémoires auxquelles le processeur souhaite accéder pour lire ou écrire une donnée. Il a une taille différente en fonction des microprocesseurs.

Le bus de données est une voie bidirectionnelle qui peut être d’une largeur de 8 à 64 bits. Toutes les données entrantes et sortantes du microprocesseur sont transportées par le bus de données.

Le bus de commande est une voie directionnelle qui sert à coordonner tous les échanges d’informations. Il évite les conflits de bus lorsque deux éléments cherchent à communiquer en même temps.

 

Pour résumer, le cerveau de l’ordinateur est l’unité centrale. Cette unité est composée elle-même de 4 unités. Quand une instruction arrive par un périphérique, elle va directement vers l’unité d’entrée/sortie qui les stockent pour lui envoyer ensuite vers l’UC qui les lit et les décodent pour ensuite les envoyer vers l’UAL pour qu’elles puissent être exécuté à l’aide d’opérations. Ensuite, ces instructions sont stockées temporairement dans la mémoire jusqu’à la fin du programme. Pour que toutes ces informations et instructions puissent circuler entre les unités, il existe un système de bus qui est la voie d’acheminement des données de la source vers la destination
Multitâche

Un système d'exploitation est multitâche (en anglais : multi-task) s’il permet d’exécuter, de façon apparemment simultanée, plusieurs programmes informatiques. On parle également de multiprogrammation.

Le passage de l’exécution d’un processus à un autre est appelé commutation de contexte. Ces commutations peuvent être initiées par les programmes eux-mêmes (multitâche coopératif) ou par le système d’exploitation lors d’événements externes (multitâche préemptif).

 

_Le multitâche coopératif est une forme simple de multitâche où chaque processus doit explicitement permettre à une autre tâche de s’exécuter. Cette approche simplifie l’architecture du système d’exploitation mais présente plusieurs inconvénients :

  • Si un des processus ne redonne pas la main à un autre processus, par exemple si le processus est bugué, le système entier peut s’arrêter.

  • Le partage des ressources (temps CPU, mémoire, accès disque, etc.) peut être inefficace.

  • Le multitâche coopératif est une forme de couplage fort.

_ Pour remédier à cette situation, les systèmes grand-public ont évolué pour utiliser une approche nommée « multitâche préemptif ».

Dans un tel système, le processeur signale au système d’exploitation que le processus en cours d’exécution doit être mis en pause pour permettre l’exécution d’un autre processus. Le système doit alors sauver l’état du processus en cours (le compteur ordinal, les valeurs des registres) ; le processus est placé dans une file d’attente ; lorsqu’il est en bout de file, son contexte d’exécution est restauré. À la différence du « multitâche coopératif », du point de vue des programmes préemptés, la commutation de contexte est transparente.

 

_ Le système est dit à temps partagé lorsqu'un quota de temps est alloué à chaque processus par l'ordonnanceur. C'est notamment le cas des systèmes multi-utilisateurs qui permettent à plusieurs utilisateurs d'utiliser simultanément sur une même machine des applications différentes ou bien similaires : le système est alors dit «système transactionnel». Pour ce faire, le système alloue à chaque utilisateur une tranche de temps.

 

_ Les systèmes temps réel (real time systems), essentiellement utilisés dans l'industrie, sont des systèmes dont l'objectif est de fonctionner dans un environnement contraint temporellement. Un système temps réel doit ainsi fonctionner de manière fiable selon des contraintes temporelles spécifiques, c'est-à-dire qu'il doit être capable de délivrer un traitement correct des informations reçues à des intervalles de temps bien définis (réguliers ou non).

Le système d'exploitation (noté SE ou OS, abréviation du terme anglais Operating System), est chargé d'assurer la liaison entre les ressources matérielles, l'utilisateur et les applications (traitement de texte, jeu vidéo, ...). Ainsi lorsqu'un programme désire accéder à une ressource matérielle, il ne lui est pas nécessaire d'envoyer des informations spécifiques au périphérique, il lui suffit d'envoyer les informations au système d'exploitation, qui se charge de les transmettre au périphérique concerné via son pilote. En l'absence de pilotes il faudrait que chaque programme reconnaisse et prenne en compte la communication avec chaque type de périphérique ! Le système d'exploitation permet ainsi de "dissocier" les programmes et le matériel, afin notamment de simplifier la gestion des ressources et offrir à l'utilisateur une interface homme-machine (notée «IHM») simplifiée afin de lui permettre de s'affranchir de la complexité de la machine physique.

 

Les rôles du système d'exploitation sont divers :

  • Gestion du processeur : le système d'exploitation est chargé de gérer l'allocation du processeur entre les différents programmes grâce à un algorithme d'ordonnancement. Le type d'ordonnanceur est totalement dépendant du système d'exploitation, en fonction de l'objectif visé.

  • Gestion de la mémoire vive : le système d'exploitation est chargé de gérer l'espace mémoire alloué à chaque application et, le cas échéant, à chaque usager. En cas d'insuffisance de mémoire physique, le système d'exploitation peut créer une zone mémoire sur le disque dur, appelée «mémoire virtuelle». La mémoire virtuelle permet de faire fonctionner des applications nécessitant plus de mémoire qu'il n'y a de mémoire vive disponible sur le système. En contrepartie cette mémoire est beaucoup plus lente.

  • Gestion des entrées/sorties : le système d'exploitation permet d'unifier et de contrôler l'accès des programmes aux ressources matérielles par l'intermédiaire des pilotes (appelés également gestionnaires de périphériques ou gestionnaires d'entrée/sortie).

  • Gestion de l'exécution des applications : le système d'exploitation est chargé de la bonne exécution des applications en leur affectant les ressources nécessaires à leur bon fonctionnement. Il permet à ce titre de «tuer» une application ne répondant plus correctement.

  • Gestion des droits : le système d'exploitation est chargé de la sécurité liée à l'exécution des programmes en garantissant que les ressources ne sont utilisées que par les programmes et utilisateurs possédant les droits adéquats.

  • Gestion des fichiers : le système d'exploitation gère la lecture et l'écriture dans le système de fichiers et les droits d'accès aux fichiers par les utilisateurs et les applications.

  • Gestion des informations : le système d'exploitation fournit un certain nombre d'indicateurs permettant de diagnostiquer le bon fonctionnement de la machine.

 

Enfin, le système d'exploitation est composé d'un ensemble de logiciels permettant de gérer les interactions avec le matériel. Parmi cet ensemble de logiciels on distingue généralement les éléments suivants :

  • Le noyau (en anglais kernel) représentant les fonctions fondamentales du système d'exploitation telles que la gestion de la mémoire, des processus, des fichiers, des entrées-sorties principales, et des fonctionnalités de communication.

  • L'interpréteur de commande (en anglais shell, traduisez «coquille» par opposition au noyau) permettant la communication avec le système d'exploitation par l'intermédiaire d'un langage de commandes, afin de permettre à l'utilisateur de piloter les périphériques en ignorant tout des caractéristiques du matériel qu'il utilise, de la gestion des adresses physiques, etc.

  • Le système de fichiers (en anglais «file system», noté FS), permettant d'enregistrer les fichiers dans une arborescence.

 

 

Différents exemples de systèmes d’exploitation :

-       DOS

-       Windows ( 98, 2000, XP, vista …etc)

-       Unix/Linux

-       Mac/ OS X

-       VMS
Protocoles de communication (TCP/IP, FTP, HTTP) :

 

Pour que les ordinateurs puissent communiquer entre eux, il a fallu mettre en place des liaisons physiques pour leurs interconnections, mais aussi créer des protocoles de communication afin qu'ils puissent avoir un même langage. Un protocole permet la communication entre deux équipements, ce sont des règles et des procédures qui définissent le type de codage et la vitesse utilisé pendant la communication.

Il existe de nombreux protocoles de communication :

 

TCP/IP : (Transmission Control Protocol/Internet Protocol)

C'est un ensemble de deux protocoles qui permettent la gestion des flux d'informations sur Internet. Apparu dans les années 1970 sur les réseaux de machines UNIX, il fonctionne par découpage de l'information en paquets de données afin de les acheminer à l'adresse voulu sur le réseau. C'est le protocole en vigueur régissant les transferts de fichiers sur le Réseau Internet.

TCP prend en charge l'ouverture et le contrôle de la liaison entre deux ordinateurs, et le protocole d'adressage IP assure quand à lui le routage des données transmises ou reçues.

 

FTP : (File Transfer Protocol)

FTP, est un protocole de communication destiné à l'échange informatique de fichiers sur un réseau TCP/IP. Il permet, depuis un ordinateur, de copier des fichiers vers un autre ordinateur du réseau, d'alimenter un site web, ou encore de supprimer ou de modifier des fichiers sur cet ordinateur. Ce protocole FTP obéit à un modèle client-serveur, c'est-à-dire qu'une des deux parties, le client, envoie des requêtes auxquelles réagit l'autre, appelé serveur. En pratique, le serveur est un ordinateur sur lequel fonctionne un logiciel lui-même appelé serveur FTP. Le protocole utilise une connexion TCP et peut s'utiliser de deux façons différentes :

  • En mode actif : C'est le client FTP qui détermine le port de connexion à utiliser pour permettre le transfert de données.

  • En mode passif : Le serveur FTP détermine lui même le port de connexion à utiliser (data connexion) et le communique au client.

 

HTTP : (HyperText Transmission Protocol)

C'est un protocole qui permet le transfert de fichiers HTML entre un internaute et un serveur web. Lorsqu'un visiteur consulte un site web, ce protocole va permettre le transfert des documents entre le serveur HTTP et le navigateur web (en d'autres termes, il envoie les pages web vers l'ordinateur). Ce protocole inventé par Tim-Berner Lee au début des années 1990, fonctionne sur le principe "requête-réponse". L'ordinateur de l'internaute utilise le navigateur pour envoyer une requête à un serveur web. Cette requête demande un document (exemple: page HTML, image, fichier...). Le serveur cherche les informations, puis est amené à interpréter les résultats, pour finalement envoyer la réponse.
Connexion internet
Internet est le réseau informatique mondial qui rend accessibles au public des services variés comme le courrier électronique, la messagerie instantanée et le World Wide Web, en utilisant le protocole de communication IP (internet protocol)  

Il existe de nombreux types d'accès à Internet, usuellement ordonné par l'ancienneté de la technologie et la vitesse atteignable :

 

  •  Le modem (mot-valise de modulateur-démodulateur), est un périphérique servant à communiquer avec des utilisateurs distants. Il permet par exemple d'échanger (envoi/réception) des fichiers, des fax, de se connecter à Internet, d'échanger des e-mails, de téléphoner ou de recevoir la télévision.

  • Modem câble : appareil qui permet d'accéder à Internet via le réseau de câblodistribution. Il possède deux types de connexions: une connexion de type coaxial (vers le câble), une connexion de type ethernet RJ45 (vers la carte réseau de l'ordinateur).  Les liaisons Internet par câble vous permettent de rester connecté à Internet de façon permanente. Il n'y a plus besoin d'attendre que la connexion s'établisse avec le prestataire, car la connexion avec ce dernier est directe.

  • xDSL dont l'ADSL : Technologie de communication haut débit permettant d’utiliser les lignes téléphoniques déjà existantes afin d’accéder à Internet et d’autres services

  • FTTH (fibre optique) : Cette technologie définit un type d'infrastructure de communication permettant l'accès à Internet et aux services associés à des débits jusqu'à 1 Gbit/s dans chaque sens, soit des débits très supérieurs à ceux accessibles via la paire de cuivre téléphonique. Comparable au câble dans son installation, puisqu'il nécessite la coûteuse pose de fibres jusque chez l'abonné, le FTTH est principalement utilisé dans les zones urbanisées. La technologie est toutefois bien adaptée aux zones rurales, car la fibre optique offre l'avantage de pouvoir transporter le signal sans dégradation sur de longues distances, contrairement à la paire de cuivre.

  • T-carrier : En télécommunications, T-carrier est la désignation d'un système générique de télécommunicationnumérique multiplexé originalement développé par Bell Labs et utilisé en Amérique du Nord et au Japon.

  • Wi-Fi :  technologie de réseau informatique sans fil mise en place pour fonctionner en réseau interne et, depuis, devenue un moyen d'accès à haut débit à Internet. Grâce au wifi, il est possible de créer des réseaux locaux sans fil à haut débit. Dans la pratique, le wifi permet de relier des ordinateurs portables, des machines de bureau, des assistants personnels (PDA), des objets communicants ou même des périphériques à une liaison haut débit 

  • Ethernet : Norme de protocole de réseau local très répandue initialement développée par Xerox dans les années 1970. Il est défini par la norme iso IEEE 802.3, qui fonctionne à des débits allant de 10 à 1000 Mbits/s.

  • CPL : Le terme « courants porteurs en ligne » (CPL) réfère à une technique permettant le transfert d'informations numériques en passant par leslignes électriques. De ce fait, il s'agit d'une alternative aux traditionnels câbles et à la technique Wi-Fi.

 

Présentation du BIOS :

  

Tous les PC utilisent un BIOS ("Basic Input/Output System" qui signifie en français "Système d'entrées/sorties basique") pour permettre le contrôle du matériel.

Le BIOS est un composant essentiel de votre ordinateur, il s'agit d'un petit logiciel dont une partie est dans une ROM (mémoire morte, c'est-à-dire une mémoire qui ne peut pas être modifiée), et une autre partie est dans un EEPROM (mémoire modifiable par impulsions électriques, d'où le terme flasher pour désigner l'action de modifier l'EEPROM).

 

 

Lorsque le système est mis sous-tension ou réamorcé (Reset), le BIOS fait l'inventaire du matériel présent dans l'ordinateur et effectue un test (appelé POST, "Power-On Self Test") afin de vérifier son bon fonctionnement.

  • Effectuer un test du processeur (CPU « Central Processing Unit » : microprocesseur)

  • Vérifier le BIOS

  • Vérifier la configuration du CMOS (« Complementary Metal Oxide Semi-conductor » : type de circuit intégré à faible consommation d'énergie utilisé pour la fabrication des micro-processeurs)

  • Initialiser le timer (l'horloge interne)

  • Initialiser le contrôleur DMA (« Direct Memory Access » : Accès direct à la mémoire)

  • Vérifier la mémoire vive et la mémoire cache

  • Installer toutes les fonctions du BIOS

  • Vérifier toutes les configurations (clavier, disquettes, disques durs ...)

Si jamais le POST rencontre une erreur, il va essayer de continuer le démarrage de l'ordinateur. Toutefois si l'erreur est grave, le BIOS va arrêter le système et :

  • afficher un message à l'écran si possible (le matériel d'affichage n'étant pas forcément encore initialisé ou bien pouvant être défaillant)

  • émettre un signal sonore, sous forme d'une séquence de bips permettant de diagnostiquer l'origine de la panne

  • envoyer un code (appelé code POST) sur le port série de l'ordinateur, pouvant être récupéré à l'aide d'un matériel spécifique de diagnostic

Si tout est correct, le BIOS émettra généralement un bip bref, signalant qu'il n'y a pas d'erreur.

La plupart des BIOS ont un "setup" (programme de configuration) qui permet de modifier la configuration basique du système. Ce type d'information est stockée dans une mémoire auto-alimentée (à l'aide d'une pile) afin que l'information soit conservée même lorsque le système est hors-tension (la mémoire vive est réinitialisée à chaque redémarrage).

Il existe de nombreux BIOS dans chaque machine:

  • Le BIOS de la carte-mère

  • Le BIOS qui contrôle le clavier

  • Le BIOS de la carte vidéo

 

Lorsque le système est mis sous tension, le BIOS affiche un message de copyright à l'écran, puis il effectue les tests de diagnostics et d'initialisation. Lorsque tous les tests ont été effectués, le BIOS affiche un message invitant l'utilisateur à appuyer sur une ou plusieurs touches afin d'entrer dans le programme de configuration du BIOS.

Selon la marque du BIOS il peut s'agir de la touche F2, de la touche F10, de la touche DEL (sur les claviers français : "Suppr"), ou bien d'une des séquences de touche suivantes :

  • ++

  • ++

  • ++

Sur les BIOS Award le message suivant est affiché lors du POST :

"TO ENTER SETUP BEFORE BOOT PRESS CTRL-ALT-ESC OR DEL KEY"

Ce message signifie « PRESSEZ "CTRL-ALT-ESC" ou la touche "DEL" pour entrer dans le "SETUP" avant le démarrage du PC ».

Dans la mesure où le setup du BIOS permet de modifier des paramètres matériels, il peut arriver que le système devienne instable, voire ne redémarre plus. Lorsque cela arrive, il est nécessaire d'annuler les modifications apportées au BIOS et de remettre les paramètres par défaut.

 

Logiciel :

 

 

logiciel propriétaire :

Le terme logiciel propriétaire désigne des logiciels qui ont été publiés sans fournir les moyens techniques ou légaux de les utiliser et de les étudier librement. Ceci se matérialise par des restrictions d'utilisation, de diffusion, de modification et d'évolution. Les limitations légales, liées aux choix des ayants droits , sont souvent encadrées par un contrat de licence utilisateur final (CLUF), nommé alors licence propriétaire. Leur application technique est souvent mise en œuvre par des composants logiciels nommés « gestion des droits numériques ». Les droits des utilisateurs de logiciels propriétaires sont souvent réduits à son exécution pour des usages donnés.

Les limitations d'origine techniques sont liée à la diffusion du code source. Contrairement aux logiciels libres et open source l'accès au code source de ces logiciels n'est pas possible ou pas libre. Le terme « propriétaire » fait référence au fait que l'auteur garde le contrôle sur les droits de propriété et d'usage du logiciel.
Opensource:

La désignation open source s'applique aux logiciels dont la licence respecte des critères précisément établis par l'Open Source Initiative, c'est-à-dire la possibilité de libre redistribution, d'accès au code source et de travaux dérivés.Souvent, un logiciel libre est qualifié d'« open source », car les licences compatibles open source englobent les licences libres selon la définition de la FSF.Le terme open source est en concurrence avec le terme « free software » recommandé par la FSF. Le terme « freeware » (gratuiciel) désigne des logiciels gratuits qui ne sont ni nécessairement ouverts, ni libres.

 

 

Logiciel libre :

Un logiciel libre est un logiciel dont l'utilisation, l'étude, la modification, la duplication et la diffusion sont autorisées (notamment techniquement et légalement). Les droits correspondant à ces libertés peuvent être simplement disponibles (comme pour les logiciels du domaine public) ou établis par une licence dite « libre » basée sur le droit d'auteur ; les licences qui garantissent le maintien de ces droits aux logiciels dérivés sont dites « licences copyleft ».Si la production et la distribution de logiciels libres peuvent être rémunérées, leur utilisation doit rester libre, et donc potentiellement gratuite. Ils sont toutefois à distinguer des freewares (gratuiciels) qui ne sont pas nécessairement libres. La notion de logiciel Open Source telle que définie par l'Open Source Initiative est reconnue comme techniquement comparable à celle du logiciel libre.

 
Logiciel gratuiciel :

ATTENTION: Ne doit pas être confondu avec Logiciel libre ou Open Source.

Un freeware ou gratuiciel, ou logiciel gratuit est un logiciel mis gratuitement à disposition par son créateur. Il ne faut pas confondre freeware (gratuiciel) et shareware (partagiciel), où l'on peut utiliser le logiciel complet ou bridé gratuitement mais pendant une durée déterminée : par exemple, un logiciel de traitement de texte pourrait interdire la sauvegarde des fichiers créés, ou fonctionner uniquement pendant les 2 mois qui suivent son installation.Il faut aussi distinguer le freeware du logiciel libre. Un logiciel libre dont le code source est disponible, consultable et modifiable. « Libre ne signifie pas gratuit », en effet, le fait de pouvoir modifier la source n'autorise pas la revente de celui-ci. Quelquefois également, avant d'avoir accès à sa source, le logiciel est vendu.

 

 

 

 

Logiciel partagé (ou pair-à-pair ) :

Le pair-à-pair (traduction de l'anglicisme peer-to-peer, souvent abrégé « P2P »), est un modèle de réseau informatique proche du modèle client-serveur mais où chaque client est aussi un serveur. Le pair-à-pair peut être centralisé (les connexions passant par un serveur intermédiaire) ou décentralisé (les connexions se faisant directement). Il peut servir au partage de fichiers en pair à pair, au calcul scientifique ou à la communication.
LA MEMOIRE :

 
  1   2   3

similaire:

Fonctionnement d\Formant la majorité des membres en exercice
«d’excédents de fonctionnement reportés» soit en investissement sous la forme de dotation complémentaire en «excédents de fonctionnement...

Fonctionnement d\Atelier sur ordinateur

Fonctionnement d\Chapitre 2 l’Architecture d’un ordinateur

Fonctionnement d\Démarrer un ordinateur éteint à partir du réseau

Fonctionnement d\Note : utilisation dans le micro-ordinateur ibm pc xt

Fonctionnement d\Veuillez remplir directement les champs depuis votre ordinateur puis...

Fonctionnement d\Rechercher une fonction
«Bille 1 air avi» situé dans le dossier cdmovie/tp-chutes-ts présent sur le registre C:/ de votre ordinateur

Fonctionnement d\Fonctionnement de la Commission

Fonctionnement d\1) Parmi les commandes suivantes, lesquelles peuvent être utilisées...

Fonctionnement d\Le cours Fonctionnement de l’arbre








Tous droits réservés. Copyright © 2016
contacts
p.21-bal.com