Un séminaire pour un code harmonisé

L’une des premières conférences s’est ouverte sur le vocabulaire des scripts sur ordinateur personnel et sur les raisons pour lesquelles les entreprises et les nations devraient s’en préoccuper. Il s’agit en fait du court à emporter. Le langage de script informatique est un vocabulaire informatique destiné à résoudre assez peu de problèmes de programmation qui ne nécessitent pas la surcharge de déclarations d’informations et d’autres fonctions nécessaires pour rendre les gros programmes contrôlables. Les langages de script sont utilisés pour créer des ressources de système d’exploitation, pour des applications de manipulation de documents à objectif spécial et, parce qu’ils sont simples à découvrir, parfois pour des programmes beaucoup plus gros. Perl, l’un de ces vocabulaires, a été créé à la fin des années 1980, organisation de seminaire à l’origine pour être utilisé avec le système d’exploitation UNIX. Il avait été conçu pour avoir les capacités des dialectes de script précédemment. Perl a fourni de nombreuses manières différentes de conditionner des procédures typiques et a donc permis à un développeur d’adopter n’importe quel style pratique. Dans les années 1990, il est devenu à la mode en tant que dispositif de programmation système, à la fois pour les petits programmes de puissance ainsi que pour les prototypes de plus grands. Avec d’autres dialectes, il est également devenu populaire pour le codage des serveurs Web d’ordinateurs personnels. Le système d’exploitation (Système d’exploitation) est un programme qui gère les ressources d’un ordinateur, en particulier l’allocation de ces ressources entre d’autres programmes. Les ressources communes incluent le périphérique de traitement principal (unité centrale de traitement), la mémoire de l’ordinateur, le stockage de documents, les périphériques d’entrée/sortie (E/S) et les connexions système. Les tâches de gestion incluent l’organisation de l’utilisation des ressources pour éviter les conflits et les perturbations entre les applications. Contrairement à la plupart des applications, qui terminent une tâche et se terminent, un système d’exploitation fonctionne indéfiniment et ne se termine que lorsque votre ordinateur est éteint. Les systèmes de multitraitement contemporains permettent à de nombreuses méthodes d’être actives, dans lesquelles chaque processus est un « fil » de calcul utilisé pour exécuter un programme logiciel. Une forme unique de multitraitement est appelée temps partagé, qui permet à de nombreux utilisateurs de partager l’accès à un ordinateur personnel en changeant rapidement entre eux. La révélation du temps doit éviter les perturbations entre les applications des utilisateurs, et la plupart des systèmes utilisent une mémoire numérique, où la mémoire, ou « salle d’adresse », utilisée par un logiciel peut résider dans une mémoire secondaire (comme sur la poussée du disque dur magnétique) sinon en utilisation instantanée, à échanger pour occuper la mémoire principale plus rapide de l’ordinateur personnel en cas de besoin. Cette mémoire virtuelle augmente à la fois l’espace disponible pour un programme et permet d’éviter que les programmes n’interfèrent les unes avec les autres, mais elle exige une gestion prudente du système d’exploitation et un ensemble de tables de répartition pour garder un œil sur l’utilisation de la mémoire. La tâche la plus sensible et la plus essentielle pour un système d’exploitation contemporain est peut-être l’allocation à partir du CPU ; chaque processus est autorisé à utiliser l’unité centrale de traitement pendant un temps limité, qui peut être une petite fraction de seconde, et après cela devrait quitter le contrôle et devenir suspendu jusqu’à son prochain tour. Le basculement entre les procédures doit seul faire appel à l’unité centrale tout en protégeant toutes les informations des procédures. Le principal avantage d’un ordinateur personnel multiprocesseur est la vitesse, et donc la capacité de gérer de plus grandes quantités de détails. Étant donné que chaque puce de processeur dans une telle méthode est conçue pour exécuter une fonction particulière, elle peut effectuer son travail, transmettre l’ensemble d’entraînement à la puce de processeur suivante et commencer à se concentrer sur un nouvel ensemble d’instructions. Par exemple, différents processeurs peuvent être utilisés pour gérer l’espace de stockage de mémoire, les communications de données ou les caractéristiques arithmétiques. Ou un processeur plus grand peut utiliser des processeurs «esclaves» pour effectuer diverses tâches de nettoyage domestique, telles que l’administration de la mémoire. Les techniques multiprocesseurs sont apparues pour la première fois dans les grands systèmes informatiques appelés mainframes, avant que leurs dépenses ne diminuent suffisamment pour justifier l’ajout d’ordinateurs (ordinateurs). Il faut cependant noter que le simple fait d’inclure beaucoup plus de processeurs ne garantit pas des gains substantiels en énergie de calcul ; les problèmes du système informatique restent. Alors que les programmeurs et les langages de codage d’ordinateurs personnels ont créé une certaine compétence dans l’attribution des exécutions parmi un petit nombre de processeurs, l’analyse des directions au-delà de deux à huit puces de processeur est impraticable pour toutes les tâches, sauf les plus récurrentes. (Heureusement, la plupart des programmes technologiques de superordinateurs courants impliquent d’utiliser exactement la même formulation ou le même calcul pour une vaste gamme d’informations, ce qui est en fait un problème difficile mais traitable.)

Comments are closed.