Les premières inventions à l'origine de l’ordinateur remontent à 3000 ans avant JC. Le but recherché par l’homme est de calculer de plus en plus vite et sans erreur.

En 1642, Blaise Pascal crée pour son père, percepteur des impôts, La Pascaline, une machine capable d’additionner et de soustraire.

Au siècle dernier, Konrad Zuse invente en 1936, le premier ordinateur programmable, le Z1, dans le salon de ses parents à Berlin. Il assemble des plaques de métal, des épingles et un vieux film, créant ainsi une machine pouvant additionner et soustraire. Malheureusement, ses premiers modèles seront détruits pendant la Seconde Guerre mondiale. Deux ans plus tard, il crée le Z3, le premier ordinateur à utiliser le binaire au lieu du décimal et qui fonctionne grâce à des relais électromécaniques. Le Z3 réalise une multiplication en 4 secondes en moyenne.

Pendant la seconde Guerre mondiale, le premier ordinateur à tube voit le jour en 1942 sous le nom de ABC (Atanasoff Berry Computer) puis en collaboration avec IBM,  Howard Aiken crée, en 1943, Mark 1, un ordinateur programmable de 17 mètres sur 2,5 mètres de hauteur, capable de calculer cinq fois plus vite que l'homme.

L’invention de l’ENIAC (Electronic Numerical Integrator And Computer ou Intégrateur numérique électronique et ordinateur) par John Mauchly la même année marque la disparition des pièces mécaniques et l’apparition des premiers programmes stockés en mémoire basés sur le système décimal et entièrement électronique. L’ENIAC occupe 160 m2, il est utilisé par l’armée pour mettre au point la bombe H et est capable de calculer des milliers de problèmes à la seconde, c’est le début de l’ère informatique. L’EDVAC (Electronic Discrete Variable Automatic Computer ou Ordinateur automatique électronique à variation discrète) lui succède en 1946 et reste en service jusqu’en 1961. Il permet de mémoriser 1024 mots en mémoire centrale et 20 000 en mémoire magnétique.

Grâce à l’invention du transistor ou composant électronique actif par des chercheurs américains du laboratoire Bell en 1948, l’ordinateur s’allège et consomme moins d’électricité.

La SSEM (Small-Scale Experimental Machine) est une machine expérimentale à petite échelle surnommée « Baby » construite pour tester le tube cathodique de Williams, forme primitive de mémoire d'ordinateur. C’est la première machine à architecture de von Neumann; elle utilise une structure de stockage unique pour conserver à la fois les instructions et les données de calcul. C’est une machine fonctionnelle contenant tous les éléments essentiels d'un ordinateur électronique moderne et est également connue sous le nom d’ordinateur à programme enregistré. La taille et le coût des machines diminuent.

Les années 1950 voient apparaître de nouveaux langages de programmation et les premiers circuits intégrés. Ces machines sont encore réservées à la recherche scientifique et technique. « Ordinateur » est le nom donné pour la première fois par Jacques Perret, philologue français qui, en 1955, donne au mot « ordinateur » le sens qu’on lui connaît aujourd’hui, à savoir celui d’une machine à traiter des données (informations), dans une lettre adressée au directeur d’IBM France pour traduire de l’anglais le mot « computer ».

Le JOHNNIAC est achevé en 1954 et utilisé par les chercheurs de RAND. La taille et le coût de la machine sont réduits ; celle-ci pèse un peu plus de deux tonnes et contient plus de 5 000 tubes à vide, il fonctionnera pendant 13 ans. En 1956, la firme IBM commercialise le premier disque dur RAMAC 305 (Random Access Method of Accounting and Control), composé de 50 disques de 61 cm de diamètre et capable de stocker 5 Mo. Il sera utilisé par la compagnie aérienne American Airlines pour la réservation en temps réel. Un an après, la société crée le premier langage de programmation universel, le FORTRAN (FORmula TRANslator).

En 1958, le langage standard universel ALGOL 58 (ALGOrithmic Language) est adopté suite à une conférence entre Américains et Européens. Dans la foulée, le premier bunker du réseau SAGE (système de défense Américain) devient opérationnel. L'ordinateur AN/FSQ 7, qui équipe chaque bunker, est capable de gérer 400 avions simultanément. Le dernier bunker du réseau SAGE fermera en Janvier 1984. BELL, société de télécommunications canadienne permet la transmission de données binaires sur une ligne téléphonique en inventant le premier Modem.

Les années soixante sont un tournant dans l’histoire de l’ordinateur. On assiste à une mutation du poste de travail. Le langage de programmation ALGOL cède la place au langage COBOL en 1961. En 1968, Douglas C. Engelbart de la Stanford Research Institute fait une démonstration d'un environnement graphique avec des fenêtres à manipuler avec une souris. Il démontre dans cet environnement l'utilisation d'un traitement de texte, d'un système hypertexte et d'un logiciel de travail collaboratif en groupe. C’est aussi le début de la troisième génération d'ordinateurs avec la sortie par Burrough des premiers ordinateurs basés sur des circuits intégrés, les B2500 et B3500. Fait marquant, le consommateur moyen dispose désormais de son ordinateur de bureau, le Programma 101. Mis au point par la société italienne Olivetti, il pèse 65 livres, a la taille d’une machine à écrire et possède une imprimante à rouleau intégré. Le Kenbak-1 est un ordinateur à circuits intégrés commercialisé en 1971 et considéré comme le premier ordinateur personnel disponible dans le commerce. Autre ordinateur personnel, le Xerox Alto est inventé dans les années 70. Composé d’un écran, d’un clavier et d’une souris, il peut imprimer des documents et envoyer des courriels. Autant dire qu’il ouvre la voie aux micro-ordinateurs d’Apple Computer.

La société américaine Intel parvient, en 1971, à placer tous les composants qui constituent un processeur sur un seul circuit intégré et crée le premier microprocesseur. Cette découverte permet de diminuer le poids et la taille de l’ordinateur, de réduire sa consommation énergétique et son coût, il devient un bien de consommation abordable alors qu’il était jusqu’alors, réservé aux techniciens et aux amateurs.

Steve Jobs et Steve Wosniak sortent Apple I en 1975. Le temps de traitement des données et la capacité de stockage sont améliorés. Apple II lui succède en 1977 et les Apple II Plus et Apple III sortent en 1979. L’utilisation des ordinateurs s’étend à l’entreprise où leur utilisation apporte une valeur ajoutée et fait gagner du temps à l’entreprise. Dan Bricklin invente le tableur VisiCalc qui rencontre un succès fulgurant auprès des entreprises. Les ordinateurs deviennent incontournables pour l’automatisation des tâches répétitives tels que les calculs et le traitement des données, qui peuvent désormais être stockées de façon fiable et exploitées quasi instantanément. Des modules de mise en page améliorent la qualité des documents imprimés, avec le concept de « What You See Is What You Get », le rendu à l’écran devient très proche du résultat imprimé.

L’ordinateur demeure un outil utilisé exclusivement au travail jusqu’à la fin des années 70 et ses applications sont développées pour le milieu professionnel. Cependant, dès 1981, l'ordinateur entre dans les foyers grâce au géant IBM et à son premier PC (Personal Computer). On parle alors d’informatique familiale. Des jeux sont créés avec des personnages emblématiques tels que Mario, conférant à l’ordinateur un aspect ludique et convivial. Leader de la fabrication de gros ordinateurs, IBM ne réagit pas dix ans plus tôt lors de la sortie du premier microprocesseur, qui révolutionne le monde de l’informatique et entraîne le développement de micro-ordinateurs. Il ne prend pas au sérieux ces petites machines qui pourtant mettent l’informatique à la portée des amateurs. C’est le chiffre d’affaires généré par le créneau qui alerte John Opel, président d’IBM. Il donne alors carte blanche pour sortir un modèle destiné aux petites entreprises. Pour rattraper son retard, IBM se contente de rassembler des pièces produites par d’autres et disponibles sur le marché. Il équipe son premier PC  d'un microprocesseur Intel 8088 et sous-traite le système d’exploitation MS-DOS à Microsoft, dont Bill Gates et Paul Allen conservent les droits. PC est vendu 1565 dollars et comprend un clavier et une unité centrale. Il vaut dix fois moins cher que les ordinateurs les moins chers d’IBM de l’époque. Alors qu’il est moqué par Apple à sa sortie, 100 000 PC sont vendus en 3 mois et le journal The Times lui décerne le titre d’« homme de l’année. »

Le PC s'impose comme le standard de la micro-informatique. En 1984, Apple réplique avec la sortie de Macintosh, une machine équipée du microprocesseur Motorola 68000, d’un écran de 9 pouces, d’une souris et d’une interface graphique. L’ordinateur pèse 22 livres et coûte 2 495 dollars, il fait la notoriété de la société Apple et est qualifié de « spectacle éblouissant de magie technique » par Consumer Reports.

Les avancées technologiques s’accélèrent à partir des années 90. L’évolution de la micro-informatique est telle qu’on parle de nanotechnologie avec la miniaturisation des composants matériels. De retour chez Apple, Steve Jobs lance l’iMac G3 en 1998, l’ordinateur devait être portable et personnalisable. Il devient célèbre grâce à son boîtier clair et transparent Bondi. 800 000 exemplaires en cinq mois ce qui permet de sauver Apple de la banqueroute.

En 2008, la barre symbolique du milliard d'ordinateurs personnels utilisés dans le monde est franchie. L’ordinateur est présent dans presque toutes les entreprises françaises en 1997 et en 2011, ce sont les trois quarts de la population française qui en ont au moins un à domicile, tandis que le quart restant en possède plusieurs.

L’essor de l’ordinateur est lié à l'utilisation d’Internet. En effet, 90% des ordinateurs sont connectés et sont utilisés pour travailler ou étudier, mais aussi pour jouer, entreprendre des démarches administratives et même effectuer des achats et des réservations. Selon une étude réalisée en 2006 par TNS-Sofres, 25% des Français utilisent leur ordinateur à des fins ludiques. L’ordinateur connecté s’utilise également pour communiquer et les réseaux sociaux font une percée après 2000. Ainsi, après avoir régné en maître dans nos foyers pendant près de 70 ans, la télévision cède sa place au couple ordinateur/Internet. Il ne faut toutefois pas négliger que près d’un Français sur deux avoue ne pas utiliser d’ordinateur faute de compétence ou de moyens financiers. Il reste encore beaucoup à faire pour que tous les Français prennent le train de la révolution numérique.

Le succès de l’informatique n’aurait pas été possible sans Microsoft pour le système d'exploitation et Intel pour le microprocesseur. Le nombre de transistors contenus dans un microprocesseur double tous les deux ans, permettant  d’augmenter la vitesse de calcul de l’ordinateur et de diversifier ses applications. C'est dans ce contexte que Steve Jobs sort le premier MacBook Air en 2008. Surprenant par sa minceur, il bouleverse l’industrie informatique. Les modèles qui suivront feront la part belle à l’innovation, comme les tablettes, de simples écrans tactiles sans clavier, ni souris.

La question de savoir à quoi ressemblera l’ordinateur de demain est d’autant plus pertinente quand on se penche sur la découverte de Richard Feynman. Dans les années 80, le physicien met les lois de la mécanique quantique au profit de l’informatique. L’ordinateur classique est composé de circuits électriques travaillant sur des données binaires ayant deux états possibles (codage à deux bits, 0 ou 1), tandis que l’ordinateur quantique travaille sur des qubits lui permettant d’avoir un nombre infini d’états. Ainsi, les possibilités de l’ordinateur quantique sont infinies ; deux états suffisent à fabriquer un nombre infini d’états à condition qu’ils soient en cohérence (c'est-à-dire que les particules interagissent ou communiquent entre elles). Mais les calculs quantiques s’avèrent impossibles sans cohérence. Les chercheurs en informatique sont capables  aujourd’hui de préserver cette cohérence au niveau microscopique, mais pas à grande échelle. Nous sommes encore aux prémisses de l’ordinateur quantique mais ses enjeux sont considérables. Cette technologie nous permettrait de résoudre des opérations impossibles à résoudre à l’heure actuelle dans des domaines aussi divers que la cryptographie, l’intelligence artificielle, les prévisions météorologiques, les prévisions financières ou la physique des particules, même si pour certains chercheurs, l’ordinateur quantique reste une utopie.

Notre civilisation est définitivement celle du numérique, de l’informatique et de l’intelligence artificielle. Elle a inventé l’ordinateur ; cette technologie a pénétré tous les secteurs d’activité dans le but de gagner du temps, d’améliorer notre efficience à domicile, en entreprise ou encore dans le secteur de la recherche, etc.

Les initiateurs de la mégacité futuriste NEOM l’ont bien compris. Le numérique et l’intelligence artificielle sont au cœur de leur projet. Autrement dit, l'antéchrist (dajjal) est au cœur du projet NEOM. Tandis que Jésus, fils de Marie (p) fut renforcé par l’Esprit Saint et fut une parole (d’Unicité), l’antéchrist (dajjal) est l’intelligence artificielle de laquelle sortent des paroles artificielles, qui sèment le désordre et la division.