Introduction - ce qu'est un ordinateur et qu'en faisons-nous
Objectifs de la section
Expliquer sommairement le fonctionnement d’un ordinateur
Identifier certaines limites des ordinateurs
Temps requis
10 minutes
Caractéristiques des ordinateurs
Le premier « ordinateur » de l'histoire est la machine d'Anticythère (autour du IIIe ou du IIe siècle av. J.-C.) qui servait dans le calcul des éclipses. Il s'agit d'un ordinateur analogique, car il y a des données (entrée) fournies dans une machine qui ensuite exprime le résultat (sortie).
La machine elle-même effectue un calcul avec les entrées fournies, sous le principe de la boîte noire, principe selon lequel on peut utiliser un appareil sans connaître son fonctionnement interne.

Cette anecdote permet d'extraire les caractéristiques qu'il est nécessaire de constater dans un objet pour être un ordinateur :
- Accepte des données (entrée)
- Fournit une réponse (sortie)
- Effectue un calcul (traitement)
- Conserve de l'information (stockage)
- Opère automatiquement (boîte noire)
La tâche d'une programmeuse ou d'un programmeur est d'utiliser les quatre premières caractéristiques dans le but de concevoir une méthode de traitement systématique (appelé algorithme) des informations pour obtenir le résultat. Le développement d'un système est donc réalisé en boîte blanche et nécessite de comprendre le fonctionnement de la machine (ou du moins de certaines parties comme nous le verrons plus tard).
Les principales composantes
Les ordinateurs modernes sont composés des pièces suivantes :
Carte mère
- La carte mère est la pièce centrale de l'ordinateur. Elle relie l'information entre les différentes pièces. C'est aussi elle qui contient le BIOS, le logiciel responsable du démarrage de l'ordinateur.
Processeur
- Le processeur effectue des comparaisons entre deux signaux électriques (pareil ou différent) et d'inverser un signal électrique. Ces deux opérations logiques peuvent être combinées pour obtenir l'ensemble des opérations arithmétiques et logiques.
Mémoire RAM
- La mémoire RAM est la mémoire de travail de l'ordinateur dans laquelle sont enregistrées les données sur lesquels l'ordinateur travaille. On peut voir le chargement d'un fichier dans la mémoire RAM comme laisser une feuille trainer sur son bureau. C'est plus rapide d'y avoir accès, mais le bordel peut s'installer rapidement.
Mémoire secondaire (disque SSD, disque dur)
- La mémoire secondaire est plus structurée que la mémoire RAM, mais cette structure vient au coût de la performance dans l'accès des informations. On peut voir la mémoire secondaire comme la filière dans lequel on place toutes nos feuilles, bien organisées par dossier et triées en ordre alphabétique. Se lever pour aller consulter une feuille ou y ranger une feuille est long, mais tout est bien ordonné.
Carte graphique
- La carte graphique est un processeur spécialisé dans les calculs de triangles et de certains algorithmes liés au calcul de projections d'éléments tridimensionnels sur un support bidimensionnel.
Moniteur
- C'est le vrai bon terme pour désigner l'écran.
Périphériques d'entrée
- Toutes les composantes qui génèrent un signal qui peut être interprété par l'ordinateur (clavier, souris, manette, écran tactile).
Le processeur : celui qui s'occupe de tout
Dans un ordinateur, tout est une comparaison ou une addition de nombres entiers. Le processeur effectue ces opérations au niveau physique avec les signaux électriques (0V ou 5V). Le processeur fonctionne sur de cycles. À chaque cycle, le processeur reçoit une information à traiter, la traite et émet le signal électrique qui correspond à la réponse du calcul. Les cycles sont régulés par la vibration d'un cristal autour de la fréquence 3 GHz qui permet d'effectuer, dans un cas optimal, 3 000 000 000 de calculs par secondes.
En vérité, il y a toujours du temps d'attente du processeur (les autres pièces ne fonctionnent pas aussi rapidement), ce qui nous amène loin du cas optimal la plupart du temps.
x86 ou 64 bits ?
Une caractéristique déterminante des processeurs est la façon dont ils représentent les nombres entiers. Tous les nombres sont représentés en donnée binaire. On appelle bit. chaque position d'une donnée binaire. Les « vieux » systèmes représentent les entiers en utilisant 32 bits, tandis que les systèmes modernes utilisent plutôt une représentation à 64 bits. Cette représentation est appelée l'architecture du processeur. Un système 64 bits permet de traiter un plus grand volume de données ou des données plus volumineuses lors d'un cycle du processeur qu'un processeur 32 bits ne le permet. On réfère souvent aux processeurs avec une architecture 32 bits comme x86.
D'où vient le nom x86
Ce nom fait référence au processeur 8086, premier processeur lancé en 1978 par Intel. L'architecture du 8086 est encodée sur... 16 bits ! Le nom x86 est resté pour désigner plusieurs produits d'Intel dont le numéro se termine par 86. Comme les processeurs Intel sur une architecture 32 bits ont occupé une large part du marché pendant près de 20 ans, le nom s'est inscrit dans les moeurs de l'informatique pour désigner les processeurs qui opèrent sur 32 bits.
Un processeur 64 bits peut tout à fait exécuter un programme codé pour un processeur 32 bits; la moitié des bits sont simplement inutilisés. Cela entraîne une sous-utilisation du processeur et ne permet pas d'en tirer pleinement profit. Le cas inverse est cependant impossible. Un processeur opérant sur 32 bits ne peut pas exécuter un programme conçu pour un processeur 64 bits, car il devrait éliminer la moitié des données, ce qui cause évidemment des problèmes majeurs.
Installer des logiciels
Plusieurs sites de téléchargement offrent le choix d'installer la version 32 bits (x86) ou 64 bits d'un logiciel. Il faut faire attention lors du téléchargement pour sélectionner la bonne version.
Pour savoir quelle version du processeur est installée dans l'ordinateur, on peut accéder aux informations du système en tapant Système dans la barre de recherche sur Windows 10 ou Windows 11.

D'où vient la discipline informatique
Les premiers à faire de « l'informatique » et qui ont bâti les ordinateurs et les outils étaient principalement spécialistes du génie électrique ou électronique ainsi que des mathématiques. Ils ont défini les bases de l'exécution automatique de traitement par une machine (un ordinateur n'est, fondamentalement, pas plus qu'une boîte remplie de signaux électriques). Au début, des spécialistes de tous les domaines apprenaient l'informatique pour l'appliquer à leur discipline. Aucun programme de premier cycle ne permettait d'apprendre l'informatique. Tranquillement, dans les années 1970, une science s'est développée autour de l'informatique, science qui comporte, encore à ce jour, plusieurs facettes :
- Informatique théorique (souvent simplement informatique) : branche qui étudie les traitements et l'efficacité des calculs. On y retrouve, entre autres, le développement de l'intelligence artificielle et l'analyse de données.
- Génie informatique : génie qui fait le pont entre les composantes électriques et les systèmes informatiques. Il traite de la transcription d'information numérique en contenu intelligible pour un humain et de la communication entre les ordinateurs (réseautique).
- Génie des logiciels : génie qui touche la construction de systèmes informatiques de petite à grande échelle, comme les sites web, les applications mobiles, les systèmes natifs, les jeux vidéo...
- Informatique de gestion : application de l'informatique pour appuyer l'administration et la gestion, particulièrement dans la gestion des données d'entreprise et d'affaires. On utilise encore certaines fois le terme «~système d'information~» pour désigner un logiciel.
Dans le cadre du cours, avec votre posture tant qu'étudiante et étudiant en sciences, nous prendrons l'approche de l'informatique théorique dans le cadre d'analyse de données appartenant à d'autres domaines des sciences.
L'origine du terme informatique
Le terme informatique provient de la branche des mathématiques éponyme (un peu comme les statistiques, l'algèbre et l'analyse sont des branches des mathématiques) qui traitait de la gestion et la codification de l'information. Le terme est resté pour en faire une discipline à part entière, mais encore très proche des mathématiques.
Quelques personnages célèbres
- George Boole (1815-1864) : mathématicien anglais qui fonde la logique moderne qui repose sur une algèbre particulière, dénommée en son honneur Algèbre de Boole. Les ordinateurs exploitent cette algèbre pour parvenir à réaliser leurs calculs.
- John Von Neumann (1903-1957) : mathématicien hongrois qui propose la structure d'ordinateur encore utilisé aujourd'hui. Il a aussi défini une classe d'automates autoreproducteurs qui ont inspiré d'autres modèles comme celui de l'ADN et de la reproduction cellulaire.
- Alonzo Church (1903-1995) : mathématicien américain qui a réalisé des démonstrations sur la possibilité de faire des calculs mécaniquement et définit la Thèse de Church-Turing, fondamentale dans le passage des calculs humains aux calculs automatisés.
- Alan Turing (1912-1954) : mathématicien anglais qui pose les bases d'une machine à calculer automatiquement et pionnier de l'intelligence artificielle.
- Margaret Hamilton (1936-...) : ingénieure américaine qui était responsable de l'équipe de développement du logiciel embarqué pour les missions Apollo. Elle a contribué à fonder et formaliser la branche de l'informatique qu'est le génie logiciel.
Concepts clés de la section
Boîte blanche et boîte noire
- Principe de conception selon lequel on connaît la façon dont les données sont traitées (boîte blanche) ou non (boîte noire).
Composantes de l'ordinateur
- Plusieurs composantes spécialisées interviennent dans l'exécution d'un programme. Les opérations de transport des données entre les composantes et les opérations de synchronisation sont complexes et peuvent occasionner des ralentissements dans l'exécution.
Architectures
- Certains programmes sont conçus pour s'exécuter sur certains types de processeurs. Il faut être attentif lors de l'installation du logiciel pour sélectionner la bonne version.