Informatique

Intérêt
Le terme informatique désigne la gestion automatisée de l’information par ordinateur. Il a été créé en 1962 par Philippe Dreyfus à partir des mots « information » et « automatique ».
  • Par extension, il désigne aussi bien le matériel informatique que la conception et l'administration de la partie immatérielle d'un ordinateur : les logiciels.
  • L'anglais n'utilise guère ce concept, préférant désigner des noms distincts :
    • ce qui ressort du fonctionnement des ordinateurs et de leurs programmes (Computer science) ;
    • ce qui est du domaine de la mise en pratique des traitements (Data processing) ;
    • l’évolution des techniques elles-mêmes, matériel y compris (Information technology).
  • Alors que des professions aussi diverses que concepteur, développeur, responsable d’exploitation, ingénieur système, technicien de maintenance, matérielle ou logicielle ou directeur d’un centre de calcul relèvent bien du domaine de l’informatique, il n’est pas usité de nommer informaticiens ceux qui les pratiquent. Le terme désigne plus souvent ceux qui conçoivent, déploient et mettent en œuvre des solutions.
Table des matières

1. Origines

L'informatique est un domaine relativement nouveau. Elle trouve ses racines dans la mécanographie, l'électronique, les mathématiques, la logique et la linguistique. C'est dans la seconde moitié du XXe siècle que l'informatique a été reconnue comme une discipline - ou plutôt une série de disciplines - à part entière et a développé des méthodes, puis une méthodologie qui lui étaient propres.

Son image a été quelque temps surfaite : parce que les premiers à programmer des ordinateurs avaient été des ingénieurs rompus à la technique des équations différentielles (les premiers ordinateurs, scientifiques, étaient beaucoup utilisés à cette fin), des programmeurs sans formation particulière, parfois d’ailleurs issus de la mécanographie, cherchaient volontiers à bénéficier eux aussi de ce label de rocket scientist afin de justifier des salaires rendus confortables par :

  • le prix élevé des ordinateurs de l'époque (se chiffrant en ce qui serait des dizaines de millions d'euros aujourd'hui compte-tenu de l'inflation, il reléguait au second plan les considérations de parcimonie sur les salaires) ;
  • l’aspect présenté comme peu accessible de leur discipline et un mythe de difficulté mathématique entretenu autour. En fait, les premiers ordinateurs ne se programmaient pas de façon très différente de celle des calculatrices programmables utilisées aujourd’hui dans les lycées et collèges, et maîtrisées par des élèves de quatorze ans.

L’émergence d’un aspect réellement scientifique dans la programmation elle-même (et non dans les seules applications scientifiques que l’on programme) ne se manifeste qu’avec la série The Art of Computer Programming de Donald Knuth, professeur à l’Université de Stanford, à la fin des années 1960, travail monumental encore inachevé en 2004. Les travaux d’Edsger Dijkstra, Niklaus Wirth et Christopher Strachey procèdent d’une approche également très systématique et elle aussi quantifiée.

On demandait à Donald Knuth dans les années 1980 s’il valait mieux selon lui rattacher l’informatique (computer science) au génie électrique – ce qui est souvent le cas dans les universités américaines – ou à un département de mathématiques. Il répondit : « Je la classerais volontiers entre la plomberie et le dépannage automobile » pour souligner le côté encore artisanal de cette jeune science.

Toutefois, la forte scientificité des trois premiers volumes de son encyclopédie suggère qu’il s’agit là plutôt d’une boutade de sa part. Au demeurant, la maîtrise de langages comme Haskell ou même APL demande un niveau d’abstraction tout de même plus proche de celui des mathématiques que des deux disciplines citées.

2. Approche fonctionnelle de l'informatique

Comme énoncé ci-dessus, l’informatique est le traitement automatisé de données par un appareil électronique : l’ordinateur ; les germanophones parlent de elektronische Daten Verarbeitung / EDV (« traitement électronique de données »), les anglophones d’information technology / IT (« technologies de l’information »), c’est-à-dire :

  • données ou informations : in fine, l’ordinateur manipule des nombres (d’où le terme anglais computer, littéralement « calculateur »), mais ces nombres peuvent représenter divers types d’informations :
    • des... nombres bien évidemment, dans le cas de calculs scientifiques (flottants) ou comptables (décimal, ou binaire entier)... ;
    • un texte, des lettres (caractères), que l'on peut mettre en forme avec un traitement de texte, imprimer, envoyer par courrier électronique... ;
    • du dessin vectoriel (CAO, logiciels d'illustration, et de typographie) ;
    • des images statiques (photographies) ou animées (vidéo), des hologrammes ;
    • des sons, enregistrés (technique du direct to disk) ou bien fabriqués par l’ordinateur (synthétiseur), que ce soient des bruitages, de la musique (cf musique et informatique) ou de la parole ;
la conversion de ces informations en suite de nombres pose le problème du format des données, du codage et des formats normalisés (par exemple représentations des nombres entiers ou à virgule flottante, format ASCII, Unicode, TeX ou RTF et polices PostScript ou TrueType pour les textes, formats bitmap, TIFF, JPEG, PNG... pour les images fixes, formats QuickTime, MPEG pour les vidéo, interface MIDI pour la musique...).
  • automatisé : l’utilisateur n’intervient pas, ou peu, dans le traitement des données ; le traitement est défini dans un programme qui se déroule tout seul, l’utilisateur se contente de fournir des paramètres de traitement ; le programme automatique se déroule selon un algorithme, l’établissement de ce programme est le domaine de la programmation.
  • traitement : ces données sont
    • créées :
      • nombres : acquisition automatique de données d'une expérience avec un ordinateur ;
      • texte : taper un texte au clavier ;
      • images : dessins réalisés à la souris ou sur une tablette graphique, synthèse d'image (pour présenter un projet – objet fictif en cours de conception –, imagerie médicale, dessin artistique – infographie –, film d'animation ou pixilation) ou numérisation d'une image existante (scanner, appareil photographique numérique) ou d'images animées (caméra numérique, webcam) ;
      • sons enregistrés (microphone) ou recréés à partir d'une partition virtuelle (synthétiseur) ou d'un texte (synthèse vocale).
    • analysées :
      • nombres : l'analyse des nombres relève du domaine concerné (mathématiques, physique, économie...) ;
      • texte : rechercher les occurrences de mots dans un texte pour en tirer des statistiques, aide à la correction orthographique et grammaticale ;
      • images : on peut vouloir identifier un objet (reconnaissance de forme, reconnaissance des caractères ou OCR), ou bien déterminer la surface couverte par une couleur (par exemple pour quantifier une surface recouverte) ;
      • sons : analyse spectrale, reconnaissance vocale.
    • modifiées :
      • nombres : calculs ;
      • texte : modification d'un texte existant, traduction automatique dans une autre langue (ou langage de programmation) ;
      • images : modification du contraste, de la luminosité, des couleurs, effets spéciaux ;
      • sons : application d'effets (réverbération, distorsion, ajustement de la hauteur) ;
comme il existe, selon les programmes et les besoins, une grande variété de codages possibles pour représenter chaque type d'information beaucoup de traitements consistent à convertir les données d'un format vers un autre...
    • archivées puis restituées :
      • les moyens et techniques d'archivage varient en fonction de la durée de conservation souhaitée et des quantités de données en jeu : mémoires électroniques, bandes magnétiques, disques magnétiques ou optiques ;
      • les moyens de restitution dépendent de la nature des données : écrans ou imprimantes pour le texte et les images, haut-parleurs ou instruments MIDI pour les sons...

3. Approche organisationnelle

L’informatique pour l’organisation est un élément d’un système de traitement d’information (les entrées peuvent être des formulaires papier par exemple) et d’automatisation. Depuis Henry Ford, l’automatisation des tâches ayant été identifiée comme un avantage concurrentiel, la question est : que peut-on automatiser ?

Autant il est relativement facile d'automatiser des tâches manuelles, autant il est difficile d'automatiser le travail intellectuel et parfois créatif. L'approche de l'informatique dans une organisation commence donc par l'élucidation des processus, c'est-à-dire modéliser le métier. Après validation, la MOA (Maîtrise d'Ouvrage) fournit les spécifications fonctionnelles de (l'ouvrage) qui vont servir de référence dans la conception pour la Maîtrise d'œuvre.

Les échanges entre MOA et MOE ne se résument pas à la maîtrise des chantiers (tenu des délais et coûts et validation des livrables), la MOA et la MOE sont garantes (éventuellement responsables sur un plan juridique) de la cohérence des systèmes d'information, et de l'adéquation des solutions informatiques avec les problèmes utilisateurs finaux initialement constatés.

4. Histoire de l'informatique

Depuis des millénaires, l'Homme a créé et utilisé des outils l'aidant à calculer (abaque, boulier...). Les premières machines – mécaniques – apparaissent entre le XVIIe et le XVIIIe siècle. La première machine à calculer mécanique réalisant les quatre opérations aurait été celle de Wilhelm Schickard au XVIe siècle, mise au point notamment pour aider Kepler à établir les tables Rodolphines d'Astronomie. En 1642 Blaise Pascal réalisa également une machine à calculer mécanique qui fut pour sa part commercialisée et dont neuf exemplaires existent dans des musées comme celui des Arts et métiers et dans des collections privées (IBM). La découverte tardive du mécanisme d'Antikhitère montre que les Grecs de l'Antiquité eux-mêmes avaient commencé à réaliser des mécanismes de calcul en dépit de leur réputation de mépris général pour la technique (démentie d'ailleurs par les travaux d'Archimède).

Cependant, il faudra attendre la définition du concept de programmation (illustrée en premier par Jacquard avec ses métiers à tisser à cartes perforées, suivi de Boole et Ada Lovelace pour ce qui est d'une théorie de la programmation des opérations mathématiques) pour disposer d'une base permettant d'enchaîner des opérations élémentaires de manière automatique.

L'ère des ordinateurs modernes commença avec les développements de l'électronique pendant la Seconde Guerre mondiale, ouvrant la porte à la réalisation concrète de machines opérationnelles (des tentatives précédentes, entièrement mécaniques, avaient échoué en raison de la complexité de la réalisation de telles machines). Au même moment, Alan Turing théorise le premier ce qu'est un ordinateur, avec son concept de machine universelle de Turing.

La miniaturisation des composants et la réduction des coûts de production, associées à un besoin de plus en plus pressant de traitement des informations de toutes sortes (scientifiques, financières, commerciales...) a entraîné une diffusion de l'informatique dans toutes les couches de l'économie comme de la vie de tous les jours.

Voir article détaillé: Histoire de l’informatique

5. Matériel

Article détaillé : Matériel informatique

On utilise également le terme anglais hardware (littéralement « quincaillerie ») pour désigner le matériel informatique. Il s’agit de tous les composants que l’on peut trouver dans :

1. Les ordinateurs et leurs périphériques : un ordinateur est un ensemble de circuits électroniques permettant de manipuler des données sous forme binaire, représentées par des variations de signal électrique. Il existe différents types d’ordinateurs :

  • Les micro-ordinateurs. Principalement sous deux formes : de bureau ou portables. Ils sont composés d'une unité centrale : souvent un boîtier contenant la carte mère, l'alimentation, des unités de stockage, et éventuellement un écran. Divers périphériques peuvent leur être ajoutés, comme un écran, une imprimante, un scanner… ;
  • Les stations de travail, des micro-ordinateurs particulièrement puissants et chers, utilisés uniquement pour des besoins professionnels pointus (conception assistée par ordinateur). Ce terme était particulièrement en vogue dans les années 1980-1990. Depuis les années 2000, il n'est guère possible de concevoir une station de travail plus puissante qu'un micro-ordinateur haut de gamme ;
  • Les mainframes : Une armoire abrite l'unité centrale, l'alimentation, les périphériques de stockage (disque dur, sauvegarde) et, moyens de communication (interface, modem) sont dans la même pièce, mais dans des racks séparés. Une console d'administration (écran, clavier, imprimante) est généralement située dans ce même local ;
  • Les PDA (Personal digital Assistant, encore appelés organiseurs) : ce sont des ordinateurs de poche proposant des fonctionnalités liées à l’organisation personnelle (agenda, calendrier, carnet d’adresse, etc.). Ils peuvent être reliés à Internet par différents moyens (réseau Wi-Fi, Bluetooth, etc.).

2. Et bien d’autres appareils : dans le domaine de l’informatique embarquée (électroménager, automobile, armements militaires, etc.), les cartes à puces, l’informatique industrielle…

6. Logiciel

Le logiciel désigne la partie à première vue immatérielle de l’informatique, l’organisation et le traitement de l’information : les programmes. On s’est en effet vite rendu compte que des machines techniquement très avancées pour leur époque, comme la Bull Gamma 60, restaient invendables tant qu’on n’avait pas de programmes à livrer pour les rendre immédiatement opérationnelles. IBM lança entre 1968 et 1973 une sorte d’ancêtre du logiciel libre avec son ordinateur 1130, politique qui assura à celui-ci par effet boule de neige un succès immédiat et planétaire, mais les conclusions d’un procès antitrust lui interdirent de distribuer bénévolement du logiciel.

Le monde des mainframes classe les logiciels en catégories suivantes :

  • systèmes d'exploitation ;
  • bases de données, comme DB2, Ingres ou Oracle ;
  • programmes de communication, comme NCP ou RSCS ;
  • moniteurs de télétraitement ;
  • systèmes transactionnels, comme CICS ;
  • systèmes de temps partagé, utilisés pour le calcul ou le développement ;
  • compilateurs traduisant les langages en instructions machine et appels système ;
  • tout le reste entrait en une catégorie nommée Logiciels applicatifs.

Plus simplement on distingue généralement 3 type de logiciels :

  • le système d'exploitation ;
  • le firmware ;
  • le software : les logiciels et applications utilisateur.

On classe aussi les logiciels en libre et propriétaire, bien que les deux soient parfois panachés à des degrés divers. Certains ont une fonction bureautique ou multimédia comme par exemple les jeux vidéo. Certains logiciels ont acquis des noms connus de tous.

Le noyau du système d’exploitation crée le lien entre le matériel et le logiciel. Un logiciel, quand il est fourni sous sa forme binaire, serait utilisable uniquement avec un système d’exploitation donné (car il en utilise les services), et ne fonctionnerait que sur un matériel spécifique (car il en utilise le code d’instructions). Une conception plus récente, depuis le milieu de années 80, consiste à distribuer les logiciels tous binaires confondus, et à les munir d’un système de licences par jetons ou tokens permettant l’usage de N copies simultanées du logiciel sur le réseau, tous matériels confondus. Cette approche est majoritaire dans le monde UNIX.

À l'initiative de Richard Stallman et du GNU, à partir de 1985, une mouvance de programmeurs refuse cette logique propriétaire et ceux-ci se muent en concepteurs inventifs pour se lancer dans le développement d'outils et de bibliothèques système libres compatibles avec le système UNIX. C'est pourtant le projet indépendant Linux, initié par Linus Torvalds, basé sur les travaux et les outils du GNU, qui aboutira dans la création d'un système d'exploitation complet et libre.

Une bonne partie des logiciels actuels fonctionnent dans un environnement graphique pour interagir avec l'utilisateur. La diversité des systèmes informatiques a fait apparaître une technique visant à combiner le meilleur de chacun de ces univers: l'émulateur. Il s'agit d'un logiciel permettant de simuler le comportement d'un autre système dans celui que l'on utilise,

  • soit pour qu'une machine semble être une autre (voir IBM 1130),
  • soit pour simuler le comportement d'un système d'exploitation (par exemple DOS ou Windows sous Linux).

Le terme anglais est software, à l’origine un jeu de mot entre hardware (« quincaillerie », pour désigner le matériel) et l’opposition soft/hard (mou/dur), opposition entre le matériel (le dur) et l’immatériel (le mou).Les traductions françaises matériel et logiciel rendent parfaitement cette opposition et cette complémentarité.

Le logiciel réalise normalement une fonction attendue de ses utilisateurs. Néanmoins, des effets secondaires (parfois nommés par contresens de traduction effets de bord) existent. Parfois même certains logiciels sont destinés à nuire, comme les virus informatiques, nommés en anglais, par analogie avec software : malware (qu’on pourrait traduire par le néologisme nuisiciel, ou logiciel malveillant).

6.1. La création des logiciels

Un projet informatique s'inscrit dans un cycle de développement, qui définit les grandes étapes de la réalisation (planification), de la manière dont on passe d'une étape à l'autre (modèle incrémental, en V, en spirale...). Pour les petits projets (ou les petites équipes de développement), cette réflexion est souvent négligée (on se répartit les modules et chacun développe dans son coin). Ceci est une cause fréquente d'erreurs (bogues) et de non-conformité (le produit final n'est pas conforme aux attentes de l'utilisateur). Mais même les énormes projets, avec beaucoup de moyens, sont victimes de cette négligence ; ainsi, l'échec du premier vol d'Ariane V fut dû à un problème de logiciel... Un projet peut alors intégrer une approche de la qualité et de la sûreté de fonctionnement des systèmes informatiques afin de contrôler autant que possible le produit final.

Un projet comprend les étapes suivantes :

  • l'établissement d'un cahier des charges qui définit les spécifications auxquelles devra répondre le logiciel ;
  • la définition de l'environnement d'exécution  (architecture informatique) :
    • type(s) d'ordinateur sur lequel le logiciel doit fonctionner (station de calcul, ordinateur de bureau, ordinateur portable, assistant personnel, téléphone portable, guichet automatique de banque, ordinateur embarqué dans un véhicule
    • type et version du(des) système(s) d'exploitation sous-jacent.
    • périphériques nécessaires à l'enregistrement des données et à la restitution des résultats (capacité de stockage, mémoire vive, possibilités graphiques...) ;
    • nature des connexions réseau entre les composants (niveau de confidentialité et de fiabilité, performances, protocoles de communication...),
  • la conception de l'application et de ses constituants, et notamment de l'interactivité entre les modules développés : structure des données partagées, traitement des erreurs générées par un autre module... : c'est le domaine du génie logiciel ;
  • la mise en place d'une stratégie de développement :
    • répartition des tâches entre les développeurs ou les équipes de développement, qui vont assurer le codage et les tests.
  • le plan de test du logiciel, pour s'assurer qu'il remplit bien la mission pour laquelle il a été écrit, dans toutes les conditions d'utilisation qu'il pourra normalement rencontrer, mais aussi dans des cas limites.

Entre chacune de ces phases, on peut avoir une étape de recette, où le client va valider les choix et les propositions du maître d'œuvre.

La phase de programmation consiste à décrire le comportement du logiciel à l’aide d’un langage de programmation. Un compilateur sert alors à transformer ce code écrit dans un langage informatique compréhensible par un humain en un code compréhensible par la machine, le résultat est un exécutable. On peut également, pour certains langages de programmation, utiliser un interpréteur qui exécute un code au fur et à mesure de sa lecture, sans nécessairement créer d’exécutable. Enfin, un intermédiaire consiste à compiler le code écrit vers du bytecode. Il s’agit également d’un format binaire, compréhensible seulement par une machine, mais il est destiné à être exécuté sur une machine virtuelle, un programme qui émule les principales composantes d’une machine réelle. Le principal avantage par rapport au code machine est une portabilité théoriquement accrue (il « suffit » d’implanter la machine virtuelle pour une architecture donnée pour que tous les programmes en bytecode puissent y être exécutés), portabilité qui a fait, après sa lenteur, la réputation de Java. Il convient de noter que ces trois modes d’exécution ne sont nullement incompatibles. Par exemple, OCaml dispose à la fois d’un interpréteur, d’un compilateur vers du bytecode, et d’un compilateur vers du code natif pour une grande variété de processeurs. Une fois écrit (et compilé si nécessaire) le code devient un logiciel.

Pour des projets de grande amplitude, nécessitant la collaboration de beaucoup de programmeurs, voire de plusieurs équipes, on a souvent recours à une méthodologie commune (par exemple MERISE) pour la conception et à un atelier de génie logiciel (AGL) pour la réalisation.

Au cours de la programmation et avant la livraison du produit final, le programme est testé afin de vérifier qu’il fonctionne bien (y compris dans des cas d’utilisation en mode dégradé) et qu’il est conforme aux attentes de l’utilisateur final. Les tests intermédiaires permettent de s’assurer que chaque module de code réalise correctement une fonction : ce sont les tests unitaires. Les tests finaux qui vérifient le bon enchaînement des modules et des traitements sont des tests d’intégration.

Pour certaines applications demandant un haut niveau de sûreté de fonctionnement, les tests sont précédés d’une étape de vérification, où des logiciels spécialisés effectuent (généralement sur le code source, mais parfois aussi sur le code compilé) un certain nombre d’analyses pour vérifier partiellement le bon fonctionnement du programme. Il n’est toutefois pas possible (et des théorèmes mathématiques montrent pourquoi), de garantir la parfaite correction de tout logiciel par ce moyen, et la phase de test reste donc nécessaire. Elle se complète aussi, lorsqu’il s’agit d’une évolution d’une application existante, de nombreux tests automatisés de non-régression.

Statistiques : la création d’un logiciel est une tâche ardue; environ 31% des projets informatiques sont abandonnés avant d’être terminés, plus de 50% des projets coûtent 200% du coût initialement estimé et seulement 15% des projets finissent dans les temps et selon le budget défini. Les besoins de seule maintenance de l’existant peuvent prendre jusqu’à 50% des effectifs d’une équipe chargée d’un logiciel (or c’est là une fonction pénible, ingrate, peu valorisante, et qui rebute et démotive les bons programmeurs).

7. Traitement de l'information

L'information, pour être traitée, doit être:

  • représentée par un codage :
    • on utilise un système de numération binaire, où l’élément unitaire informationnel est le bit (contraction de l’anglais binary digit : chiffre binaire). Les bits sont généralement regroupés par huit, pour constituer des octets (ou bytes). Un octet peut être représenté par la séquence des bits qui le constituent (par exemple : 00101110) ou par une paire de valeurs hexadécimales (pour le même exemple : 2E), plus compact. Le choix du binaire ne résulte pas de la mystique, mais tout simplement d’utiliser de simples circuits de commutation, qui ont de très larges tolérances et par conséquent de faibles coûts.
    • on représente la structuration de l'information pour permettre des échanges entre composants logiciels et entre composants matériels. Pour cela on définit des langages et des formalismes de représentation.
  • stockée dans des systèmes permanents (mémoires dites de masse) ou non (mémoires dites volatiles).

7.1. Échanges de données : protocoles et normes

Les protocoles définissent une manière de procéder, notamment pour codifier la façon dont deux entités communiquent (modules ou couches logicielles, périphériques, etc.). On parle notamment de protocole de communication lorsqu'on veut définir des mécanismes de contrôle sur la manière dont l'échange d'information est réalisé.

Un protocole peut ainsi définir :

  • un langage de description d'instructions et de données graphiques (Ex: AGP) ;
  • un standard de commandes et de flux d'information pour une mémoire de masse (Ex: SCSI, FireWire, IDE, Serial ATA) ;
  • des échanges entre le processeur et des cartes d'extension (Ex: PCI, PCI Express, ISA) ;
  • des modalités de transfert d'information entre périphériques (Ex: USB) ou sur un réseau TCP/IP, Internet, ATM, X.25) ;
  • des commandes entre un client et un serveur (Ex: POP3, IMAP, HTTP, FTP …) ;
  • des échanges de données informatisés spécifiques (Ex: EDI, EAI, X.400, X.500).

Certains protocoles sont définis par des normes pour permettre l'interopérabilité des matériels ou de logiciels les mettant en œuvre. D'autres normes définissent, toujours dans le domaine de l'échanges de données :

  • des langages de représentation d'information sans pour autant définir la manière dont cette information peut être échangée (Ex: ASN.1, XML) ;
  • des architectures de réseaux (Ex: Modèle OSI, Wifi, Ethernet, Token-Ring).

7.2. Stockage des données

En matière de stockage d'information, on distingue le dispositif permettant de l'enregistrer physiquement (périphériques et composants) de la manière dont on structure et représente l'information pour faciliter son traitement.

7.2.1. Mémoire de masse

Carte perforée
Bande magnétique
Disque amovible magnétique (Disquette)
Disque amovible magnéto-optique
Disque dur (disque magnétique embarquant le mécanisme, l'électronique et les têtes de lecture)
Disque optique amovible (CD-ROM, CD-R, CD-RW mais aussi DVD-ROM, DVD-R, DVD-RW, DVD+R, DVD+R DL, DVD+RW, DVD-RAM)
Mémoire électronique non-volatile (Mémoire flash, clé USB)

7.2.2. Mémoire volatile

RAM

7.2.3. Organisation des données en vue du stockage

Formats (extensions) de fichiers
Système de fichiers
Base de données
Annuaire

8. Approches scientifiques

L’informatique n’est pas plus la science de l’ordinateur que l’astronomie n’est celle du télescope.
-- Edsger Dijkstra

En dehors des aspects industriels et technologiques décrits jusqu’ici, l’informatique comporte également des aspects de discipline scientifique :

Algorithmique
Algèbre de Boole
Calculabilité
Géométrie algorithmique
Lambda-calcul
Logique
Model checking
Théorie de l'information
Théorie des graphes
Théorie de la complexité
Théorie de la calculabilité

8.1. Applications

Bio-informatique
Calcul parallèle
Cryptographie
Exploration de données (data mining)
Informatique grand système (mainframe)
Informatique de gestion
Informatique industrielle
Informatique décisionnelle
Intelligence artificielle
Interface homme-machine
Micro-informatique
Synthèse d'images
Traitement du signal et Traitement d'images
Hypermédias
Informatique musicale

9. Impartition informatique



Important !
Ce document contient des informations provenant à l'origine de l'encyclopédie collaborative Wikipédia. Même s'il a fait l'objet d'une validation rapide et s'il a pu être corrigé depuis, toutes les informations qu'il contient n'ont pu être vérifiées, aussi nous vous recommandons la consultation d'autres sources avant de l'utiliser.

Copyright (c) les auteurs sur Libre Savoir.


Thème:Informatique



Sujets Licence GFDL
Évaluation 100.00 %
Contenu sous droits d'auteur — Dernière mise-à-jour : 2018-07-28 09:29:19




Découvrez nos contenus

par catégories

par mots-clés

par dates d'ajout et de modification

Index alphabétique

Partagez vos connaissances !
Pour publier durablement et librement sur Internet, contactez-nous.





/a>