Anggi Luna Diary 29072025

Diary of Anggi Luna 29072025

Matériel informatique - Partie 1
Architecture du jeu d'instructions
L'architecture du jeu d'instructions (ISA) la plus courante, l'interface entre le matériel et le logiciel d'un ordinateur, est basée sur celle conçue par von Neumann en 1945. Malgré la séparation de l'unité de calcul et du système d'E/S dans de nombreux schémas, le matériel est généralement partagé, un bit de l'unité de calcul indiquant si elle est en mode calcul ou E/S. Les types courants d'ISA incluent le CISC (ordinateur à jeu d'instructions complexe), le RISC (ordinateur à jeu d'instructions réduit), les opérations vectorielles et les modes hybrides. Le CISC utilise un jeu d'expressions plus grand pour minimiser le nombre d'instructions nécessaires aux machines. Partant du constat que seules quelques instructions sont couramment utilisées, le RISC réduit le jeu d'instructions pour plus de simplicité, ce qui permet également d'inclure davantage de registres. Après l'invention du RISC dans les années 1980, les architectures basées sur le RISC, qui utilisaient le pipelining et la mise en cache pour accroître les performances, ont supplanté les architectures CISC, en particulier dans les applications soumises à des restrictions de consommation d'énergie ou d'espace (comme les téléphones portables). Entre 1986 et 2003, le taux d'amélioration annuel des performances matérielles a dépassé 50 %, permettant le développement de nouveaux appareils informatiques tels que les tablettes et les téléphones portables. Parallèlement à la densité des transistors, la mémoire DRAM, ainsi que les supports de stockage flash et magnétiques, sont également devenus exponentiellement plus compacts et moins chers. Ce rythme d'amélioration s'est ralenti au XXIe siècle.

 

Au XXIe siècle, l'augmentation des performances a été stimulée par l'exploitation croissante du parallélisme. Les applications sont souvent parallélisables de deux manières : soit la même fonction s'exécute sur plusieurs zones de données (parallélisme des données), soit différentes tâches peuvent être exécutées simultanément avec une interaction limitée (parallélisme des tâches). Ces formes de parallélisme sont prises en charge par diverses stratégies matérielles, notamment le parallélisme au niveau des instructions (comme le pipelining d'instructions), les architectures vectorielles et les processeurs graphiques (GPU) capables d'implémenter le parallélisme des données, le parallélisme au niveau des threads et le parallélisme au niveau des requêtes (tous deux implémentant le parallélisme au niveau des tâches).

 

Microarchitecture
La microarchitecture, également appelée organisation informatique, fait référence aux aspects matériels de haut niveau, tels que la conception du processeur, de la mémoire et de ses interconnexions. La hiérarchie mémoire garantit que la mémoire la plus rapide d'accès (et la plus coûteuse) est située plus près du processeur, tandis que la mémoire plus lente et moins chère, destinée au stockage de gros volumes, est située plus loin. La mémoire est généralement séparée afin de séparer les programmes des données et de limiter la capacité d'un attaquant à modifier les programmes. La plupart des ordinateurs utilisent la mémoire virtuelle pour simplifier l'adressage des programmes, en utilisant le système d'exploitation pour mapper la mémoire virtuelle à différentes zones de la mémoire physique finie.

 

Refroidissement
Les processeurs génèrent de la chaleur, et une chaleur excessive affecte leurs performances et peut endommager les composants. De nombreuses puces informatiques réduisent automatiquement leurs performances pour éviter la surchauffe. Les ordinateurs disposent également généralement de mécanismes de dissipation de la chaleur excessive, tels que des refroidisseurs à air ou à liquide pour le processeur et le processeur graphique, et des dissipateurs thermiques pour les autres composants, comme la RAM. Les boîtiers d'ordinateur sont également souvent ventilés pour favoriser la dissipation de la chaleur. Les centres de données utilisent généralement des solutions de refroidissement plus sophistiquées pour maintenir la température de fonctionnement de l'ensemble du centre à un niveau sûr. Les systèmes refroidis par air sont plus courants dans les centres de données plus petits ou plus anciens, tandis que les systèmes à refroidissement liquide par immersion (où chaque ordinateur est entouré d'un liquide de refroidissement) et les systèmes à refroidissement direct sur puce (où le liquide de refroidissement est dirigé vers chaque puce) peuvent être plus coûteux, mais aussi plus efficaces. La plupart des ordinateurs sont conçus pour être plus puissants que leur système de refroidissement, mais leur fonctionnement continu ne peut excéder la capacité de ce dernier. Bien que les performances puissent être temporairement augmentées lorsque l'ordinateur n'est pas chaud (overclocking), afin de protéger le matériel d'une chaleur excessive, le système réduit automatiquement les performances ou arrête le processeur si nécessaire. Les processeurs s'éteignent également ou passent en mode basse consommation lorsqu'ils sont inactifs afin de réduire la chaleur. L'alimentation et la dissipation thermique sont les aspects les plus complexes de la conception matérielle et constituent le frein au développement de puces plus petites et plus rapides depuis le début du XXIe siècle. L'augmentation des performances nécessite une augmentation proportionnelle de la consommation d'énergie et des besoins en refroidissement.

 

Link 1  Link 2  Link 3  Link 4  Link 5  Link 6  Link 7  Link 8  Link 9  Link 10  Link 11  Link 12  Link 13  Link 14  Link 15  Link 16  Link 17  Link 18

Ajouter un commentaire

Anti-spam