Nouvelles

Invention du PC

Invention du PC


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Les ordinateurs personnels d'aujourd'hui sont radicalement différents des machines massives et imposantes qui ont émergé de la Seconde Guerre mondiale - et la différence ne réside pas seulement dans leur taille. Dans les années 1970, la technologie avait évolué au point que les individus – pour la plupart des amateurs et des passionnés d'électronique – pouvaient acheter des PC non assemblés ou des « micro-ordinateurs » et les programmer pour le plaisir, mais ces premiers PC ne pouvaient pas effectuer la plupart des tâches utiles que les ordinateurs d'aujourd'hui peuvent effectuer. Les utilisateurs pouvaient faire des calculs mathématiques et jouer à des jeux simples, mais la plupart de l'attrait des machines résidait dans leur nouveauté. Aujourd'hui, des centaines d'entreprises vendent des ordinateurs personnels, des accessoires et des logiciels et jeux sophistiqués, et les PC sont utilisés pour un large éventail de fonctions allant du traitement de texte de base à l'édition de photos en passant par la gestion des budgets. À la maison et au travail, nous utilisons nos PC pour presque tout faire. Il est presque impossible d'imaginer la vie moderne sans eux.

Invention du PC : l'ère de l'informatique

Les premiers ordinateurs électroniques n'étaient en aucun cas « personnels » : ils étaient énormes et extrêmement coûteux, et ils nécessitaient une équipe d'ingénieurs et d'autres spécialistes pour les faire fonctionner. L'un des premiers et des plus célèbres d'entre eux, l'Electronic Numerical Integrator Analyzer and Computer (ENIAC), a été construit à l'Université de Pennsylvanie pour effectuer des calculs balistiques pour l'armée américaine pendant la Seconde Guerre mondiale. ENIAC a coûté 500 000 $, pesait 30 tonnes et occupait près de 2 000 pieds carrés de surface au sol. À l'extérieur, ENIAC était recouverte d'un enchevêtrement de câbles, de centaines de lumières clignotantes et de près de 6 000 interrupteurs mécaniques que ses opérateurs utilisaient pour lui dire quoi faire. À l'intérieur, près de 18 000 tubes à vide transportaient des signaux électriques d'une partie de la machine à une autre.

L'invention du PC : les innovations d'après-guerre

ENIAC et d'autres premiers ordinateurs ont prouvé à de nombreuses universités et entreprises que les machines valaient l'énorme investissement d'argent, d'espace et de main-d'œuvre qu'elles exigeaient. (Par exemple, ENIAC pouvait résoudre en 30 secondes un problème de trajectoire de missile qui pouvait prendre 12 heures à une équipe d'"ordinateurs" humains.) Dans le même temps, les nouvelles technologies permettaient de construire des ordinateurs plus petits et plus puissants. rationalisé. En 1948, Bell Labs a introduit le transistor, un appareil électronique qui transportait et amplifiait le courant électrique mais était beaucoup plus petit que le tube à vide encombrant. Dix ans plus tard, des scientifiques de Texas Instruments et de Fairchild Semiconductor ont mis au point le circuit intégré, une invention qui incorporait toutes les pièces électriques de l'ordinateur (transistors, condensateurs, résistances et diodes) dans une seule puce de silicium.

Mais l'une des inventions les plus importantes qui ont ouvert la voie à la révolution du PC était le microprocesseur. Avant l'invention des microprocesseurs, les ordinateurs avaient besoin d'une puce de circuit intégré distincte pour chacune de leurs fonctions. (C'était l'une des raisons pour lesquelles les machines étaient encore si grandes.) Les microprocesseurs avaient la taille d'une vignette et ils pouvaient faire des choses que les puces à circuit intégré ne pouvaient pas faire : ils pouvaient exécuter les programmes de l'ordinateur, mémoriser des informations et gérer des données tout seuls.

Le premier microprocesseur sur le marché a été développé en 1971 par un ingénieur d'Intel nommé Ted Hoff. (Intel était situé dans la vallée de Santa Clara en Californie, un endroit surnommé la « Silicon Valley » en raison de toutes les entreprises de haute technologie regroupées autour du parc industriel de Stanford.) Le premier microprocesseur d'Intel, un 1/16-par-1/8-inch puce appelée 4004, avait la même puissance de calcul que l'énorme ENIAC.

L'invention du PC

Ces innovations ont rendu la fabrication d'ordinateurs moins chère et plus facile que jamais. En conséquence, le petit « micro-ordinateur » relativement peu coûteux – bientôt connu sous le nom de « ordinateur personnel » – est né. En 1974, par exemple, une société appelée Micro Instrumentation and Telemetry Systems (MITS) a introduit un kit informatique à monter soi-même par correspondance appelé Altair. Comparé aux micro-ordinateurs précédents, l'Altair a été un énorme succès : des milliers de personnes ont acheté le kit de 400 $. Cependant, cela n'a vraiment pas fait grand-chose. Il n'avait ni clavier ni écran, et sa sortie n'était qu'une banque de lumières clignotantes. Les utilisateurs saisissent des données en basculant des interrupteurs à bascule.

En 1975, MITS a embauché une paire d'étudiants de Harvard nommés Paul G. Allen et Bill Gates pour adapter le langage de programmation BASIC pour l'Altair. Le logiciel a rendu l'ordinateur plus facile à utiliser, et ce fut un succès. En avril 1975, les deux jeunes programmeurs ont pris l'argent qu'ils avaient gagné avec « Altair BASIC » et ont formé leur propre entreprise, Microsoft, qui est rapidement devenue un empire.

L'année après que Gates et Allen ont lancé Microsoft, deux ingénieurs du Homebrew Computer Club de la Silicon Valley nommés Steve Jobs et Stephen Wozniak ont ​​construit un ordinateur maison qui allait également changer le monde. Cet ordinateur, appelé Apple I, était plus sophistiqué que l'Altair : il avait plus de mémoire, un microprocesseur moins cher et un moniteur avec écran. En avril 1977, Jobs et Wozniak ont ​​présenté l'Apple II, doté d'un clavier et d'un écran couleur. En outre, les utilisateurs pouvaient stocker leurs données sur une cassette externe. (Apple a rapidement remplacé ces bandes par des disquettes.) Pour rendre l'Apple II aussi utile que possible, la société a encouragé les programmeurs à créer des « applications » pour cela. Par exemple, un tableur appelé VisiCalc a fait d'Apple un outil pratique pour toutes sortes de personnes (et d'entreprises), pas seulement pour les amateurs.

La révolution informatique

La révolution du PC avait commencé. Bientôt, des sociétés comme Xerox, Tandy, Commodore et IBM sont entrées sur le marché, et les ordinateurs sont devenus omniprésents dans les bureaux et finalement les maisons. Des innovations telles que « l'interface utilisateur graphique », qui permet aux utilisateurs de sélectionner des icônes sur l'écran de l'ordinateur au lieu d'écrire des commandes compliquées, et la souris d'ordinateur ont rendu les PC encore plus pratiques et conviviaux. Aujourd'hui, les ordinateurs portables, les téléphones intelligents et les tablettes nous permettent d'avoir un PC avec nous partout où nous allons.

GALERIES DE PHOTOS









Inventions : Informatique et Internet


Qui a inventé la souris d'ordinateur ?

C'est le visionnaire de la technologie et inventeur Douglas Engelbart (30 janvier 1925 - 2 juillet 2013) qui a révolutionné le fonctionnement des ordinateurs, le transformant d'une pièce de machinerie spécialisée que seul un scientifique qualifié pouvait utiliser à un outil convivial que presque tout le monde peut travailler avec. Au cours de sa vie, il a inventé ou contribué à plusieurs dispositifs interactifs et conviviaux tels que la souris d'ordinateur, le système d'exploitation Windows, la vidéoconférence informatique, l'hypermédia, le groupware, le courrier électronique, Internet et bien plus encore.


Circuit imprimé

Après Gustav Tauschek, un autre ingénieur et inventeur viennois, Paul Eisler, a apporté une contribution significative à l'industrie électronique moderne avec l'invention des circuits imprimés (PCB) en 1936.

Le juif autrichien Paul Eisler est né à Vienne en 1907. Après avoir obtenu un diplôme d'ingénieur de la Technische Universität Wien (Université de technologie de Vienne) en 1930, déjà un inventeur en herbe, il n'a pas réussi à trouver un bon emploi en Autriche. En 1934, Eisler a accepté un lieu de travail à Belgrade, en Yougoslavie, pour concevoir un système radio-électronique pour un train, mais ce travail a pris fin lorsque le client a proposé le paiement en céréales au lieu de devises :-)

De retour en Autriche, Eisler a écrit pour des journaux et a fondé un journal radio, et a commencé à se renseigner sur la technologie d'impression. L'impression était une technologie assez robuste dans les années 1930, et Eisler a commencé à imaginer comment le processus d'impression pourrait être utilisé pour poser des circuits électroniques sur une base isolante, et le faire en volume. À l'époque, il était habituel d'interconnecter tous les composants des appareils électroniques avec des fils soudés à la main, une méthode de fabrication sujette aux erreurs, qui ne se prêtait pas à un degré élevé d'automatisation. Eisler voulait éliminer ces problèmes en imprimant les fils sur une carte et en montant les éléments dessus.

En 1936, Eisler décide de quitter l'Autriche pour échapper aux persécutions des nazis. Il a obtenu une invitation à travailler en Angleterre sur la base de deux demandes de brevet qu'il avait déjà déposées : une pour un enregistrement sonore graphique et une pour une télévision stéréoscopique avec des lignes de résolution verticales.

À Londres, il a réussi à vendre le brevet de la télévision pour 250 , assez d'argent pour vivre un certain temps dans une pension de famille de Hampstead, ce qui était une bonne chose, car il ne pouvait pas trouver de travail. Il a ensuite développé son idée de carte de circuit imprimé, et une compagnie de téléphone l'a vraiment appréciée, du moins au début, car elle aurait éliminé les faisceaux de câbles utilisés pour les systèmes téléphoniques à l'époque. Mais ensuite, le grand patron lui a dit que le travail de câblage manuel était effectué par des "filles" et "les filles sont moins chères et plus flexibles". C'est la sainte vérité, les filles sont toujours beaucoup plus flexibles, qu'un circuit imprimé-)

Eisler n'a cependant pas trouvé de bonne fortune en Angleterre. Alors que la Seconde Guerre mondiale se profile, il s'efforce de faire sortir sa famille d'Autriche. Sa sœur s'est suicidée et lorsque la guerre a éclaté, en 1940, les Britanniques l'ont interné comme étranger en situation irrégulière. Même enfermé, ce brillant ingénieur a commencé à fabriquer une radio à l'aide d'un circuit imprimé (voir la photo ci-contre).

Après avoir été libéré en 1941, Eisler a pu trouver un travail dans une imprimerie musicale - Henderson et Spalding. A l'origine, son objectif était de parfaire l'entreprise irréalisable Technographe machine à écrire musicale, opérant à partir d'un laboratoire dans un bâtiment bombardé. Plus tard, Technographe investi dans son idée de circuit imprimé (le concept d'utiliser une feuille gravée pour tracer des traces sur un substrat). Malheureusement, Eisler a perdu les droits sur son invention lorsqu'il a omis de lire le contrat avant de le signer, mais ce n'était pas la première ou la dernière fois qu'Eisler en profiterait. C'était un contrat de travail assez standard dans la mesure où il acceptait de soumettre tout droit de brevet pendant son emploi pour une somme modique (une livre sterling), mais cela lui donnait également 16,5 % de propriété de Technograph.

Les premières planches d'Eisler ressemblent beaucoup à des assiettes de spaghettis, avec presque aucune trace droite. Il dépose une demande de brevet en 1943.

Technographe n'a suscité aucun intérêt jusqu'à ce que les États-Unis intègrent la technologie dans les travaux sur les fusées de proximité des obus, ce qui était vital pour contrer la bombe volante allemande V-1.

Après cela, Eisler a eu un travail et une petite renommée. Après la guerre, la technologie s'est répandue. Les États-Unis ont mandaté en 1948 que tous les circuits d'instruments aéroportés devaient être imprimés.

La demande de brevet d'Eisler en 1943 a finalement été divisée en trois brevets distincts : 639111 (Circuits imprimés en trois dimensions), 639178 (Foil Technique of Printed Circuits) et 639179 (Powder Printing). Ces trois ont été publiés le 21 juin 1950, mais très peu d'entreprises ont réellement concédé les brevets et Technograph a eu des difficultés financières. Eisler a démissionné de Technograph en 1957, pour travailler comme pigiste.

Parmi ses projets en tant que pigiste, figuraient des films pour chauffer les revêtements de sol et muraux et les aliments, la batterie en aluminium, les moules à béton, le chauffe-pizza et le dégivreur de lunette arrière, etc., mais Eisler n'a pas eu autant de succès dans leur commercialisation. Plus tard, il a connu le succès dans le domaine médical et est décédé avec des dizaines de brevets à son actif.

L'invention d'Eisler du circuit imprimé à feuille gravée, tout en étant d'un énorme avantage pour l'industrie électronique mondiale, lui a apporté peu de retour financier personnel. Eisler est décédé à Londres le 26 octobre 1992. Il venait de recevoir la médaille d'argent Nuffield de l'Institution of Electrical Engineers.

L'histoire complète du Mac

Le Macintosh, ou Mac, est une série de plusieurs gammes d'ordinateurs personnels, fabriqués par Apple Inc. Le premier Macintosh a été introduit le 24 janvier 1984 par Steve Jobs et c'était le premier ordinateur personnel à succès commercial à comporter deux … Continue de lire


Contenu

Pré-fondation Modifier

Steve Jobs et Steve Wozniak se sont rencontrés pour la première fois au milieu de 1971, lorsque leur ami commun, Bill Fernandez, a présenté Wozniak, alors âgé de 21 ans, à Jobs, alors âgé de 16 ans. [10] [11] Leur premier partenariat commercial a commencé plus tard cette année-là lorsque Wozniak, un ingénieur en électronique autodidacte, a commencé à construire ses « boîtes bleues » originales qui permettaient de passer des appels téléphoniques longue distance sans frais. [12] Jobs a réussi à vendre quelque deux cents boîtes bleues pour 150 $ chacune et a partagé les bénéfices avec Wozniak. [10] [11] Jobs a dit plus tard à son biographe que s'il n'y avait pas eu les boîtes bleues de Wozniak, "il n'y aurait pas eu de pomme." [13]

Jobs et Wozniak, également appelés collectivement « les deux Steve », s'étaient retirés respectivement du Reed College et de l'UC Berkeley en 1975. Wozniak a conçu un terminal vidéo qu'il pouvait utiliser pour se connecter aux mini-ordinateurs de Call Computer. Alex Kamradt a commandé le design et en a vendu un petit nombre par le biais de son entreprise. Outre leur intérêt pour la technologie de pointe, l'impulsion des deux Steve semble avoir eu une autre source. Dans son essai De Satori à la Silicon Valley (publié en 1986), l'historien de la culture Theodore Roszak a souligné qu'Apple Computer est né de la contre-culture de la côte ouest et du besoin de produire des imprimés, des étiquettes de lettres et des bases de données. Roszak offre un peu de contexte sur le développement des modèles prototypes des deux Steves.

En 1975, les deux Steve ont commencé à assister aux réunions du Homebrew Computer Club. [14] De nouveaux micro-ordinateurs tels que l'Altair 8800 et l'IMSAI ont inspiré Wozniak à intégrer un microprocesseur dans son terminal vidéo et à disposer d'un ordinateur complet. À l'époque, les seuls processeurs de micro-ordinateur généralement disponibles étaient le Intel 8080 à 179 $ (équivalent à 861 $ en 2020) et le Motorola 6800 à 170 $ (équivalent à 818 $ en 2020). Wozniak préférait le 6800, mais les deux étaient hors de sa fourchette de prix. Il a donc regardé, appris et conçu des ordinateurs sur papier, en attendant le jour où il pourrait s'offrir un processeur.

Lorsque MOS Technology a sorti sa puce 6502 à 20 $ (équivalent à 91 $ en 2020) en 1976, Wozniak a écrit une version de BASIC pour elle, puis a commencé à concevoir un ordinateur sur lequel elle pourrait fonctionner. Le 6502 a été conçu par les mêmes personnes qui ont conçu le 6800, comme beaucoup dans la Silicon Valley ont quitté les employeurs pour créer leur propre entreprise. L'ancien ordinateur papier 6800 de Wozniak n'avait besoin que de modifications mineures pour fonctionner sur la nouvelle puce.

Le 1er mars 1976, Wozniak a terminé la machine et l'a emmenée à une réunion du Homebrew Computer Club pour la montrer. [15] Lorsque Jobs a vu l'ordinateur de Wozniak, qui deviendrait plus tard l'Apple I, il s'est immédiatement intéressé à son potentiel commercial. [16] Initialement, Wozniak avait l'intention de partager gratuitement les schémas de la machine, mais Jobs a insisté sur le fait qu'ils devraient plutôt construire et vendre des cartes de circuits imprimés nues pour l'ordinateur. [17] Wozniak a également proposé à l'origine la conception à Hewlett-Packard (HP), où il travaillait à l'époque, mais l'entreprise a refusé à cinq reprises. [18] Jobs a finalement convaincu Wozniak de se lancer en affaires ensemble et de créer leur propre entreprise. [19] Afin de réunir l'argent dont ils avaient besoin pour produire le premier lot de cartes de circuits imprimés, Jobs a vendu son minibus Volkswagen Type 2 pour quelques centaines de dollars et Wozniak a vendu sa calculatrice programmable HP-65 pour 500 $. [17] [15] [20] [21]

Apple I et création d'entreprise Modifier

Le 1er avril 1976, Apple Computer Company a été fondée par Steve Jobs, Steve Wozniak et Ronald Wayne. [23] [19] La société a été enregistrée en tant que partenariat commercial californien. [24] Wayne, qui a travaillé chez Atari en tant que dessinateur en chef, a accepté de devenir co-fondateur de la société en échange d'une participation de 10 %. [25] [19] [1] Cependant, Wayne était un peu timide en raison de l'échec de sa propre entreprise quatre ans plus tôt. Le 12 avril, moins de deux semaines après la création de la société, Wayne a quitté Apple, revendant sa part de 10 % aux deux Steve pour seulement 800 $ et les laissant comme cofondateurs principaux actifs. [26] [27]

Selon Wozniak, Jobs a proposé le nom « Apple Computer » alors qu'il revenait tout juste de la All-One Farm de Robert Friedland dans l'Oregon. [27] Jobs a dit à Walter Isaacson qu'il était "sur l'un de mes régimes fruitariens", quand il a conçu le nom et a pensé "ça sonnait amusant, fougueux et pas intimidant. De plus, cela nous ferait devancer Atari dans l'annuaire téléphonique ." [28]

Peu de temps après la création de la société, les deux Steve ont fait un dernier voyage au Homebrew Computer Club et ont présenté la version finale de l'Apple I. [29] Paul Terrell, qui exploitait une chaîne de magasins d'informatique nommée the Boutique d'octets, était présent et a été impressionné par la machine. [25] Il a remis sa carte aux deux Steves et leur a dit de "rester en contact". [30] Le lendemain, Jobs s'est rendu chez Terrell au magasin Byte Shop à Mountain View et a essayé de lui vendre les circuits imprimés nus pour l'Apple I. [27] Terrell a dit à Jobs qu'il était intéressé par l'achat de la machine, mais seulement s'il était entièrement assemblé, affirmant qu'il commanderait 50 ordinateurs assemblés et paierait 500 $ US chacun à la livraison (équivalent à 2 300 $ en 2020). [31] [32] [25] Jobs a ensuite pris le bon de commande qu'il avait reçu du Byte Shop à Cramer Electronics, un distributeur national de pièces électroniques, et a commandé les composants dont il avait besoin pour assembler l'Apple I. Le responsable du crédit local a demandé à Jobs comment il allait payer les pièces et il a répondu : « J'ai ce bon de commande de la chaîne de magasins d'informatique Byte Shop pour 50 de mes ordinateurs et les conditions de paiement sont contre remboursement. Si vous me donnez les pièces sur le net 30 jours, je peux construire et livrer les ordinateurs dans ce laps de temps, récupérer mon argent auprès de Terrell au Byte Shop et vous payer. » [33] [34]

Le gestionnaire de crédit a appelé Paul Terrell, qui assistait à une conférence informatique IEEE à Asilomar à Pacific Grove et a vérifié la validité du bon de commande. Étonné par la ténacité de Jobs, Terrell a assuré au responsable du crédit que si les ordinateurs se présentaient dans ses magasins, Jobs serait payé et aurait plus qu'assez d'argent pour payer la commande de pièces. Les deux Steve et leur petite équipe passèrent jour et nuit à construire et tester les ordinateurs, et les livrèrent à Terrell à temps pour payer ses fournisseurs. Terrell a été surpris lorsque Jobs lui a livré un lot de circuits imprimés assemblés, car il s'attendait à des ordinateurs complets avec un boîtier, un moniteur et un clavier. [35] [36] Néanmoins, Terrell a tenu parole et a payé aux deux Steves l'argent qu'il leur avait promis. [37] [35] [36] [38]

L'Apple I a été mis en vente en juillet 1976 sous forme de circuit imprimé assemblé au prix de détail de 666,66 $. [39] [40] [41] Wozniak a dit plus tard qu'il n'avait aucune idée de la relation entre le nombre et la marque de la bête et qu'il a proposé le prix parce qu'il aimait "la répétition des chiffres". [37] Finalement, environ 200 unités de l'Apple I ont été vendues. [42]

L'ordinateur Apple I avait quelques caractéristiques notables. L'un était l'utilisation d'un téléviseur comme système d'affichage, alors que de nombreuses machines n'avaient aucun affichage. Ce n'était pas comme les affichages des machines ultérieures, mais le texte était affiché à 60 caractères par seconde. Cependant, c'était encore plus rapide que les téléimprimeurs utilisés sur les machines contemporaines de cette époque. L'Apple I a également inclus un code d'amorçage sur la ROM, ce qui a facilité le démarrage. Enfin, sur l'insistance de Paul Terrell, Wozniak a également conçu une interface cassette pour le chargement et la sauvegarde des programmes, au rythme alors rapide de 1200 bit/s. Bien que la machine soit assez simple, c'était néanmoins un chef-d'œuvre de conception, utilisant beaucoup moins de pièces que n'importe quoi de sa catégorie, et a rapidement valu à Wozniak une réputation de maître concepteur.

Encouragé par le succès de l'Apple I, Jobs a commencé à chercher des investissements pour développer davantage l'entreprise [36], mais les banques étaient réticentes à lui prêter de l'argent. L'idée d'un ordinateur pour les gens ordinaires semblait absurde à l'époque. En août 1976, Jobs a approché son ancien patron chez Atari, Nolan Bushnell, qui lui a recommandé de rencontrer Don Valentine, le fondateur de Sequoia Capital. [36] Valentin n'était pas intéressé par le financement d'Apple, mais a à son tour présenté Jobs à Mike Markkula, un millionnaire qui avait travaillé sous ses ordres chez Fairchild Semiconductor. [36] Markkula, contrairement à Valentine, a vu un grand potentiel dans les deux Steve et a décidé de devenir un investisseur providentiel de leur entreprise. [43] Il a investi 92 000 $ dans Apple sur sa propre propriété tout en obtenant une ligne de crédit de 250 000 $ (équivalent à 1 140 000 $ en 2020) de Bank of America. [43] [36] En échange de son investissement, Markkula a reçu une participation d'un tiers dans Apple. [43] Avec l'aide de Markkula, Apple Computer, Inc. a été constituée le 3 janvier 1977. [36] La nouvelle société a racheté l'ancien partenariat que les deux Steves avaient formé neuf mois plus tôt. [44]

En février 1977, Markkula a recruté Michael Scott de National Semiconductor pour devenir le premier président et PDG d'Apple Computer, car Jobs et Wozniak n'avaient pas suffisamment d'expérience et il n'était pas intéressé à occuper ce poste lui-même. [45] [46] Ce même mois, Wozniak a démissionné de son travail chez Hewlett-Packard pour travailler à plein temps pour Apple. [44] [47]

Apple II Modifier

Presque dès qu'Apple a commencé à vendre ses premiers ordinateurs, Wozniak est passé de l'Apple I et a commencé à concevoir un ordinateur grandement amélioré : l'Apple II. [43] Wozniak a terminé un prototype fonctionnel de la nouvelle machine en août 1976. [36] [48] Les deux Steves ont présenté l'ordinateur Apple II au public lors de la première foire informatique de la côte ouest les 16 et 17 avril 1977. premier jour de l'exposition, Jobs a présenté l'Apple II à un chimiste japonais nommé Toshio Mizushima, qui est devenu le premier revendeur Apple autorisé au Japon. Dans le numéro de mai 1977 de Octet, Wozniak a déclaré à propos de la conception de l'Apple II : « Pour moi, un ordinateur personnel doit être petit, fiable, pratique à utiliser et peu coûteux. [49]

L'Apple II a été mis en vente le 10 juin 1977, au prix de détail de 1 298 $. [50] La principale différence interne de l'ordinateur par rapport à son prédécesseur était une interface TV complètement repensée, qui maintenait l'affichage en mémoire. Désormais non seulement utile pour l'affichage de texte simple, l'Apple II incluait des graphiques et, éventuellement, de la couleur. Lors du développement de l'Apple II, Jobs a demandé un boîtier en plastique bien conçu et un clavier intégré, avec l'idée que la machine devrait être entièrement emballée et prête à fonctionner hors de la boîte. [51] C'était presque le cas pour les ordinateurs Apple I, mais il fallait encore brancher diverses pièces ensemble et taper le code pour exécuter BASIC. Jobs voulait que le boîtier Apple II soit « simple et élégant », et a engagé un designer industriel nommé Jerry Manock pour produire un tel design de boîtier. [51] L'employé d'Apple #5 Rod Holt a développé l'alimentation à découpage. [52]

Alors que les premiers modèles Apple II utilisent des cassettes ordinaires comme périphériques de stockage, ils ont été remplacés en 1978 par l'introduction d'un lecteur de disquettes de 5 + 1 4 pouces et d'une interface appelée Disk II. [53] [54] Le système Disk II a été conçu par Wozniak et publié avec un prix de détail de 495 $. [53]

En 1979, l'Apple II a été choisi pour être la plate-forme de bureau de la première « killer application » du monde des affaires : VisiCalc, un tableur. [53] Si importante que l'Apple II est devenu ce que John Markoff a décrit comme un « accessoire VisiCalc », [55] l'application a créé un marché professionnel pour l'ordinateur et a donné aux utilisateurs à domicile une raison supplémentaire de l'acheter : la compatibilité avec le bureau. [53] Avant VisiCalc, Apple avait été un troisième concurrent éloigné de Commodore et Tandy. [56] [57]

L'Apple II était l'un des trois ordinateurs "Trinity 1977" généralement crédités de la création du marché des ordinateurs domestiques (les deux autres étant le Commodore PET et le Tandy Corporation TRS-80). [58] Un certain nombre de modèles différents de l'Apple II ont été construits par la suite, y compris l'Apple IIe et l'Apple IISG, [59] qui a continué à être utilisé par le public pendant près de deux décennies. La série Apple II s'est vendue à environ six millions d'unités au total avant d'être abandonnée en 1993. [60] [61]

Pomme III Modifier

Alors que l'Apple II était déjà établi comme une plate-forme commerciale réussie grâce à VisiCalc, la direction d'Apple n'était pas satisfaite. L'Apple III a été conçu pour affronter l'environnement commercial dans le but de concurrencer IBM sur le marché de l'informatique d'entreprise et d'entreprise. [62] Alors que le développement de l'Apple III a commencé à la fin de 1978 sous la direction de Wendell Sander, [63] la machine a ensuite été développée par un comité dirigé par Steve Jobs. [64] L'Apple III a été annoncé pour la première fois le 19 mai 1980, avec un prix de détail allant de 4 340 $ à 7 800 $, et sorti en novembre 1980. [64]

L'Apple III était une conception relativement conservatrice pour les ordinateurs de l'époque. Cependant, Jobs ne voulait pas que l'ordinateur ait un ventilateur, il voulait que la chaleur générée par l'électronique soit dissipée à travers le châssis de la machine, en renonçant au ventilateur de refroidissement.

Cependant, la conception physique du boîtier n'était pas suffisante pour refroidir les composants à l'intérieur. Sans ventilateur, l'Apple III était sujet à la surchauffe. Cela a provoqué la déconnexion des puces du circuit intégré de la carte mère. Les clients qui ont contacté le service client d'Apple ont reçu l'ordre de "soulever les ordinateurs de six pouces dans les airs, puis de les lâcher", ce qui ferait retomber les circuits intégrés.

Des milliers d'ordinateurs Apple III ont été rappelés. Un nouveau modèle a été introduit en 1983 pour tenter de rectifier les problèmes, mais le mal était déjà fait.

IPO Apple Modifier

Dans le numéro de juillet 1980 de Micro-informatique Kilobaud, l'éditeur Wayne Green a déclaré que "les meilleures publicités grand public que j'ai vues sont celles d'Apple. Elles attirent l'attention et doivent inciter à la vente". [65] En août, le Temps Financier rapporté que

Apple Computer, le fabricant californien à croissance rapide de petits ordinateurs pour les marchés de la consommation, des entreprises et de l'éducation, prévoit de devenir public plus tard cette année. [It] est le plus grand fabricant privé aux États-Unis de petits ordinateurs. Fondée il y a environ cinq ans en tant que petite entreprise d'atelier, elle est devenue le deuxième plus grand fabricant de petits ordinateurs, après la division Radio Shack de la société Tandy. [66]

Le 12 décembre 1980, Apple (symbole boursier « AAPL ») est devenue publique en vendant 4,6 millions d'actions à 22 $ par action (0,10 $ par action après ajustement pour les fractionnements d'actions au 30 novembre 2020 [mise à jour]), [67] générant plus de 100 millions de dollars, ce qui était plus de capital que n'importe quelle introduction en bourse depuis Ford Motor Company en 1956. [68] Plusieurs investisseurs en capital-risque ont encaissé, récoltant des milliards de gains en capital à long terme. À la fin de la journée, l'action est passée à 29 $ par action et 300 millionnaires ont été créés. [69] La capitalisation boursière d'Apple était de 1,778 milliard de dollars à la fin de son premier jour de négociation. [68] [69]

En janvier 1981, Apple a tenu sa première assemblée des actionnaires en tant qu'entreprise publique au Flint Center, un grand auditorium situé à proximité du De Anza College (qui est souvent utilisé pour des concerts symphoniques) pour gérer le plus grand nombre d'actionnaires après l'introduction en bourse. Les travaux de la réunion avaient été planifiés de manière à ce que le vote puisse être organisé en 15 minutes ou moins. Dans la plupart des cas, les procurations de vote sont recueillies par courrier et comptées des jours ou des mois avant une assemblée. Dans ce cas, après l'introduction en bourse, de nombreuses actions étaient entre de nouvelles mains.

Steve Jobs a commencé son discours préparé, mais après avoir été interrompu par le vote à plusieurs reprises, il a abandonné son discours préparé et a prononcé un long discours chargé d'émotion sur la trahison, le manque de respect et des sujets connexes. [70]

Concurrence de l'IBM PC Modifier

En août 1981, Apple figurait parmi les trois plus grandes sociétés de micro-informatique, ayant peut-être remplacé Radio Shack en tant que leader [71], les revenus du premier semestre avaient déjà dépassé les 118 millions de dollars des années 1980, et InfoMonde ont signalé que le manque de capacité de production freinait la croissance. [72] En raison de VisiCalc, les entreprises ont acheté 90% des Apple II [73] [74] les gros clients ont particulièrement préféré Apple. [75]

IBM est entré sur le marché des ordinateurs personnels ce mois-là avec le PC IBM [76] [77] en partie parce qu'il ne voulait pas de produits sans logo IBM sur les bureaux des clients, [78] mais Apple avait de nombreux avantages. Alors qu'IBM a commencé avec un micro-ordinateur, peu de matériel ou de logiciels disponibles et quelques centaines de revendeurs, Apple avait cinq fois plus de revendeurs aux États-Unis et un réseau de distribution international établi. L'Apple II avait une base installée de plus de 250 000 clients, et des centaines de développeurs indépendants proposaient des logiciels et des périphériques au moins dix bases de données et dix traitements de texte étaient disponibles, tandis que le PC n'avait aucune base de données et un seul traitement de texte. [79]

Les clients de l'entreprise ont acquis une réputation de dévouement et de loyauté. OCTET en 1984 a déclaré que [80]

Il y a deux sortes de personnes dans le monde : les gens qui disent qu'Apple n'est pas seulement une entreprise, c'est une cause et ceux qui disent qu'Apple n'est pas une cause, c'est juste une entreprise. Les deux groupes ont raison. La nature a suspendu le principe de non-contradiction en ce qui concerne Apple. Apple est plus qu'une simple entreprise parce que sa fondation a certaines des qualités du mythe. Apple, ce sont deux gars dans un garage qui ont pour mission d'apporter la puissance de calcul, autrefois réservée aux grandes entreprises, à des individus ordinaires avec des budgets ordinaires. La croissance de l'entreprise de deux gars à une société d'un milliard de dollars illustre le rêve américain. Même en tant que grande entreprise, Apple joue David au Goliath d'IBM, et a donc le rôle sympathique dans ce mythe.

Le magazine a noté que la fidélité n'était pas entièrement positive car les clients d'Apple étaient prêts à ignorer les vrais défauts de ses produits, même en comparant l'entreprise à un niveau plus élevé que celui de ses concurrents. [80] L'Apple III était un exemple de sa réputation autocratique parmi les revendeurs [75] que l'on a qualifiée d'"arrogance d'Apple". [81] Après avoir examiné un PC et l'avoir trouvé peu impressionnant, Apple a acheté en toute confiance une publicité d'une page entière dans Le journal de Wall Street avec le titre "Bienvenue, IBM. Sérieusement". [82] [77] La ​​société a donné la priorité au III pendant trois ans, dépensant ce que Wozniak a estimé à 100 millions de dollars en marketing et R&D sans améliorer l'Apple II pour rivaliser avec le PC, car cela pourrait nuire aux ventes du III. [74]

Le chef de Microsoft, Bill Gates, était au siège d'Apple le jour de l'annonce d'IBM et a déclaré plus tard "Ils ne semblaient pas s'en soucier. Il leur a fallu une année complète pour comprendre ce qui s'était passé". [77] Le PC a presque complètement mis fin aux ventes du III, le produit le plus comparable de la société. Le II s'est toujours bien vendu, [78] mais en 1983, le PC l'a dépassé en tant qu'ordinateur personnel le plus vendu. [83] IBM a recruté les meilleurs revendeurs Apple tout en évitant le marché gris discount qu'ils n'aimaient pas. [78] Le responsable d'une chaîne de vente au détail a déclaré "Il semble qu'IBM ait mieux compris pourquoi l'Apple II a réussi qu'Apple". [75] Gene Amdahl a prédit qu'Apple serait une autre des nombreuses "jeunes entreprises effrontées" qu'IBM avait vaincues. [84]

En 1984, la presse a qualifié les deux sociétés de rivales [85], mais IBM avait un chiffre d'affaires annuel de 4 milliards de dollars, soit plus du double de celui d'Apple et autant que les ventes de celui-ci et des trois sociétés suivantes réunies. [86] Un Fortune Une enquête a révélé que 56 % des entreprises américaines dotées d'ordinateurs personnels utilisaient des PC IBM, contre 16 % pour Apple. [87] Les petites entreprises, les écoles et quelques maisons sont devenues le marché primaire de II. [73]

Xerox PARC et la Lisa Modifier

Apple Computer's business division was focused on the Apple III, another iteration of the text-based computer. Simultaneously the Lisa group worked on a new machine that would feature a completely different interface and introduce the words mouse, icon, et desktop into the lexicon of the computing public. In return for the right to buy US$1,000,000 of pre-IPO stock, Xerox granted Apple Computer three days access to the PARC facilities. After visiting PARC, they came away with new ideas that would complete the foundation for Apple Computer's first GUI computer, the Apple Lisa. [88] [89] [90] [91]

The first iteration of Apple's WIMP interface was a floppy disk where files could be spatially moved around. After months of usability testing, Apple designed the Lisa interface of windows and icons.

The Lisa was introduced in 1983 at a cost of US$9,995 (equivalent to $26,000 in 2020). Because of the high price, Lisa failed to penetrate the business market.

Macintosh and the "1984" commercial Edit

By 1984 computer dealers saw Apple as the only clear alternative to IBM's influence [92] some even promoted its products to reduce dependence on the PC. [78] The company announced the Macintosh 128k to the press in October 1983, followed by an 18-page brochure included with magazines in December. [93] Its debut, however, was announced by a single national broadcast of a US$1.5 million television commercial, "1984" (equivalent to $3,700,000 in 2020). It was directed by Ridley Scott, aired during the third quarter of Super Bowl XVIII on January 22, 1984, [94] and is now considered a "watershed event" [95] and a "masterpiece." [96] 1984 used an unnamed heroine to represent the coming of the Macintosh (indicated by her white tank top with a Picasso-style picture of Apple's Macintosh computer on it) as a means of saving humanity from "conformity" (Big Brother). [97] These images were an allusion to George Orwell's noted novel, 1984, which described a dystopian future ruled by a televised "Big Brother." The commercial ended with the words: "On January 24th, Apple Computer will introduce Macintosh. And you'll see why 1984 won't be like 1984.” [98]

On January 24, 1984, the Macintosh went on sale with a retail price of $2,495. [99] [100] It came bundled with two applications designed to show off its interface: MacWrite and MacPaint. On the same day, an emotional Jobs introduced the computer to a wildly enthusiastic audience at Apple's annual shareholders meeting held in the Flint Auditorium [101] [102] Macintosh engineer Andy Hertzfeld described the scene as "pandemonium". [103] Jobs had directed the development of the Macintosh since 1981, when he took over the project from early Apple employee Jef Raskin, who conceived the computer [104] [105] (Wozniak, who had crucial influence over the initial design and development of the program with Raskin, was on leave during this time due to an airplane crash earlier that year). [106] [107] The Macintosh was based on The Lisa (and Xerox PARC's mouse-driven graphical user interface), [108] [109] and it was widely acclaimed by the media with strong initial sales supporting it. [110] [111] However, the computer's slow processing speed and limited range of available software led to a rapid sales decline in the second half of 1984. [110] [111] [112]

The Macintosh was too radical for some, who labeled it a mere "toy". Because the machine was entirely designed around the GUI, existing text-mode and command-driven applications had to be redesigned and the programming code rewritten this was a challenging undertaking that many software developers shied away from, and resulted in an initial lack of software for the new system. In April 1984 Microsoft's MultiPlan migrated over from MS-DOS, followed by Microsoft Word in January 1985. [113] In 1985, Lotus Software introduced Lotus Jazz after the success of Lotus 1-2-3 for the IBM PC, although it was largely a flop. [114] Apple introduced Macintosh Office the same year with the lemmings ad, infamous for insulting potential customers. It was not successful. [115]

For a special post-election edition of Semaine d'actualités in November 1984, Apple spent more than US$2.5 million to buy all 39 of the advertising pages in the issue. [116] Apple also ran a "Test Drive a Macintosh" promotion, in which potential buyers with a credit card could take home a Macintosh for 24 hours and return it to a dealer afterwards. While 200,000 people participated, dealers disliked the promotion, the supply of computers was insufficient for demand, and many were returned in such a bad shape that they could no longer be sold. This marketing campaign caused CEO John Sculley to raise the price from US$1,995 (equivalent to $5,000 in 2020) to US$2,495 (equivalent to $6,200 in 2020). [115] The Macintosh also spawned the concept of Mac evangelism, which was pioneered by Apple employee, and later Apple Fellow, Guy Kawasaki. [ citation requise ]

1985: Jobs and Wozniak leave Apple Edit

By early 1985, the Macintosh's failure to defeat the IBM PC became clear. [110] [111] This triggered a power struggle between Steve Jobs and CEO John Sculley, who had been hired two years earlier by Jobs [117] [118] using the famous line, "Do you want to sell sugar water for the rest of your life or come with me and change the world?" [119] Sculley and Jobs' visions for the company greatly differed. The former favored open architecture computers like the Apple II, sold to education, small business, and home markets less vulnerable to IBM. Jobs wanted the company to focus on the closed architecture Macintosh as a business alternative to the IBM PC. President and CEO Sculley had little control over Chairman of the Board Jobs' Macintosh division it and the Apple II division operated like separate companies, duplicating services. [120] Although its products provided 85% of Apple's sales in early 1985, the company's January 1985 annual meeting did not mention the Apple II division or employees. This frustrated Wozniak, who left active employment at Apple early that same year to pursue other ventures, stating that the company had "been going in the wrong direction for the last five years" and sold most of his stock. [121] [122] [123] Despite these grievances, Wozniak left the company amicably and as of January 2018 continues to represent Apple at events or in interviews, [122] receiving a stipend over the years for this role estimated in 2006 to be $120,000 per year. [124]

In April 1985, Sculley decided to remove Jobs as the general manager of the Macintosh division, and gained unanimous support from the Apple board of directors. [125] [117] Rather than submit to Sculley's direction, Jobs attempted to oust him from his leadership role at Apple. [126] Informed by Jean-Louis Gassée, Sculley found out that Jobs had been attempting to organize a coup and called an emergency executive meeting at which Apple's executive staff sided with Sculley and stripped Jobs of all operational duties. [126]

Jobs, while taking the position of Chairman of the firm, had no influence over Apple's direction and subsequently resigned from Apple in September 1985 and took a number of capable Apple employees with him to found NeXT Inc. [127] In a show of defiance at being set aside by Apple Computer, Jobs sold all but one of his 6.5 million shares in the company for $70 million. Jobs then acquired the visual effects house, Pixar for $5M (equivalent to $11,800,000 in 2020). NeXT Inc. would build computers with futuristic designs and the UNIX-derived NEXTSTEP operating system. NeXTSTEP would eventually be developed into Mac OS X. While not a commercial success, due in part to its high price, the NeXT computer would introduce important concepts to the history of the personal computer (including serving as the initial platform for Tim Berners-Lee as he was developing the World Wide Web). [128]

Sculley reorganized the company, unifying sales and marketing in one division and product operations and development in another. [129] [120] Despite initial marketing difficulties, the Macintosh brand was eventually a success for Apple. This was due to its introduction of desktop publishing (and later computer animation) through Apple's partnership with Adobe Systems, which introduced the laser printer and Adobe PageMaker. Indeed, the Macintosh would become known as the de facto platform for many industries including cinema, music, advertising, publishing, and the arts.


Who All Contributed To The Invention Of Computer?

There are also many computer scientists who have contributed to the creation of computers. Among them are the authors of the C programming language, the creators of the UNIX operating system, the authors of the ‘Unix kernel’, and many more.

The question, “Who invented the computer scientist?” gets very vague. It involves lots of different people with different areas of expertise, and that leads to a lot of question marks.

We can get a little closer to answering this question, by looking at the history of a person’s system. One example is that of Howard Garth, the inventor of UNIX, the predecessor of the UNIX operating system. We know that Garth came up with the idea of making a single operating system that would run all of the computers at a company.

That way, all of the machines would share the same program, and there wouldn’t be any duplication. Garth built a system that he claimed was unique. That’s the reason he became famous – he did something nobody else had done before.


1835-1900s: first programmable machines

The defining feature of a "universal computer" is programmability, which allows the computer to emulate any other calculating machine by changing a stored sequence of instructions.

In 1835 Charles Babbage described his analytical engine. It was the plan of a general-purpose programmable computer, employing punch cards for input and a steam engine for power. One crucial invention was to use gears for the function served by the beads of an abacus. In a real sense, computers all contain automatic abacuses (technically called the ALU or floating-point unit).

His initial idea was to use punch-cards to control a machine that could calculate and print logarithmic tables with huge precision (a specific purpose machine). Babbage's idea soon developed into a general-purpose programmable computer, his analytical engine.

While his design was sound and the plans were probably correct, or at least debuggable, the project was slowed by various problems. Babbage was a difficult man to work with and argued with anyone who didn't respect his ideas. All the parts for his machine had to be made by hand and small errors in each item were summed up as huge discrepancies in a machine with thousands of parts. The project dissolved over disputes with the artisan who built parts and was ended with the depletion of government funding.

Ada Lovelace, Lord Byron's daughter, translated and added notes to the "Sketch of the Analytical Engine" by Federico Luigi, Conte Menabrea. She has become closely associated with Babbage. Some claim she is the world's first computer programmer, however this claim and the value of her other contributions are disputed by many.

A reconstruction of the Difference Engine II, an earlier, more limited design, has been operational since 1991 at the London Science Museum. With a few trivial changes, it works as Babbage designed it and shows that Babbage was right in theory.

Augusta Ada King, Countess of Lovelace

Following in the footsteps of Babbage, although unaware of his earlier work, was Percy Ludgate, an accountant from Dublin, Ireland. He independently designed a programmable mechanical computer, which he described in a work that was published in 1909.


Famous Inventors and their Inventions

Charles Babbage: The Analytical Engine

Aimeriez-vous écrire pour nous? Eh bien, nous recherchons de bons écrivains qui veulent faire passer le mot. Contactez-nous et nous discuterons.

He is considered as the “Father of the Computer,” who invented an analytical engine in 1822. However, he couldn’t actually build the analytical engine, but was only able to present it theoretically. His unfinished work was completed by scientists in 1930. His concept of analytical engine was quite similar to the concepts of modern-day computers that include subroutines and input devices. It certainly laid the foundation of modern-day computers.

Alan Turing: The Turing Machine

Although, he did not design any computer, Alan Turing, an English mathematician and computer scientist has been one of the most influential personalities in the field of computer science. He provided a platform for formulating the basic concept of algorithm and destined the Turing machine, that was able to test the intelligence of a machine. In fact, he pioneered in the field of artificial intelligence. Today’s, CAPTCHA code test on Internet and computers has evolved from Turing’s ideas.

Konrad Zuse: The Z Series Computers

The German engineer, Konrad Zuse, in 1936, invented the first electrical binary programmable computer – the Z1, Z2, and Z3 were also introduced by Zuse in 1939 and 1941 respectively. Unfortunately, Zuse’s efforts were destroyed during second world war.

John Vincent Atanasoff & Clifford Berry: Atanasoff-Berry Computer (ABC)

Developed in the war phase of 1942, Atanasoff-Berry Computer (ABC) was the world’s first fully electronic digital computer. Its inventors, John Vincent Atanasoff & Clifford Berry shared the relationship of a professor and a student. John was an America electronics engineer while Clifford his student.

The US Army: ENIAC

Financed by the US army and developed by scientists John Presper Eckert & John W. Mauchly, in 1946, the Electronic Numerical Integrator and Computer (ENIAC) is considered to be the first mainstream digital computer ever made. In fact ABC and ENIAC fought a legal battle till 1973, when ABC was finally declared to be the 1st digital computer. ENIAC was mainly built for US army research laboratory.

Gordon Bell and Ken Olson: PDP (Programmed Data Processor)

They invented the PDP in the year 1960s. Gordon Bell designed the i/o system of the PDP-1. With time, there have been several versions of this machine, i.e., PDP-4, PDP-5, PDP-6,and PDP-11. As a part of the DEC (Digital Equipment Corporation), Gordon Bell later designed the VAX, which is DEC’s best computer.

What followed in years after 1950 is an amazing history of computer development. Further developments in the computer field led to the invention of transistor (by John Bardeen, Walter Brattain & Wiliam Shockley in 1956), integrated circuits (1959) and the computer processors by the iconic Intel. Then came the brilliant Bill Gates and the legendary Steve Jobs who changed the computer history.

In fact, internet history is also an integral part of the history of computer development as both can only coexist. You must have realized after reading this article that it is quite difficult to name any person for all computer growth. Computer development saga, in essence, is a magnificent example of impressive developments through re-invention, research, and innovation.

Articles Similaires

Once you have figured out how to adjust your computer's display, you can add a personalized touch to your monitor's appearance. There are 5 main tabs that will help you&hellip

A computer server is used in almost every organization, school, etc. However, very few people know what exactly it is. This article will give you all the basics of computer&hellip

Often paid less attention to, a keyboard is one of the most important accessories of a computer, and should be bought while keeping certain tips in mind. Find these tips&hellip


Who Invented the First Computer?

Do you think Bill Gates invented the first computer? The reality is that computers were on the scene well before you think they were. The first computer was invented by Charles Babbage in 1838.

Babbage developed a mechanical calculator that had a simple storage mechanism and called it the Difference Engine in 1822. The device used punch cards to input instructions to the device steam engine as its source of power. The machine worked well to compute different numbers and make copies of the results that people could have in-hand. Although the device performed calculations well and even provided hard copies of its output, Charles Babbage lacked funds to develop a fully functional and complete device. Together with Ada Lovelace, considered by many as the first computer programmer, Babbage later developed another general purpose device and called it the Analytical Engine. This more advanced device had memory, flow control and an Arithmetic and Logic Unit. For his contributions to early computer science, he's often hailed as the father of computers.

What Happened to the Difference Machine?
Babbage's lack of funds shelved the difference machine until 1991 when London's Science Museum built it from Babbage's plans. The device worked, but it could only perform the most basic calculations. Additionally, it couldn't check the results, and it couldn't make any changes. The plans for the Analytical Engine weren't complete. The inventor's plans were a work in progress. If scientists are ever able to complete the plans and build the Analytical Engine, the machine may indeed prove the assertion that Babbage is the father of modern computing.

What About Alan Turing?
Alan Turing was a Ph.D. student attending Princeton University in 1936 when he published, On Computable Numbers, with an application to the Entscheidungsproblem. This paper is widely credited as the corner stone of computer science. Turing's hypothetical problem solving machine could solve any and every problem for which people could write a program. At the time, people performed the actions of computers. They did all the engineering calculations and compiled tables, all of which was at an extreme shortage during the early days of World War II. With the need for military calculations at an all time high, the United States built a 50-foot machine, the Harvard Mark 1, which could do complex calculations that took people hours in a matter of seconds. Turing designed a machine, the Bombe, that enabled the British to read the traffic coming from the German Navy, a contribution that Eisenhower later said may have shaved two years off the war. Turing continued his involvement in these very early computers, and he later envisioned computers becoming more powerful with artificial intelligence (AI) becoming a reality. To help distinguish between computer and AI, he developed the Turing Test.

The Dawn of the PC
The earliest computers were huge. An entire team of specialists were devoted to keeping them running. After World War II, one of the most important inventions came to market. The microprocessor, which was developed by Ted Hoff, an Intel engineer in 1971, paved the way for those huge early computers to shrink down. And the personal computer (PC) was soon born. The Altair was a PC kit debuted in 1974 from company Micro Instrumentation and Telemetry Systems. It wasn't until Harvard students Bill Gates and Paul G. Allen invented BASIC programming that the PC became easier to use. The duo took the money they earned from the endeavor to form their own company: Microsoft.


1900 to 1945

IBM&rsquos tabulating machines were so advanced in the 1920s that newspapers such as the Monde de New York described them as &ldquosuper computers&rdquo. In 1941, Konrad Zuse invented the Z3, which was the first programmable calculator. This device used the binary system as opposed to the decimal system that was used in earlier calculators. The binary system played a pivotal role in the future design of computers. Almost at the same time, American Howard Aiken and several IBM engineers constructed a large automatic digital computer called Harvard Mark I.


Invention of the PC - HISTORY

We have gone from the vacuum tube to the transistor, to the microchip. Then the microchip started talking to the modem. Now we exchange text, sound, photos and movies in a digital environment.

Computing milestones and machine evolution:

  • 14th C. - Abacus - an instrument for performing calculations by sliding counters along rods or in grooves (graphic: Merriam Webster Collegiate Dictionary http://www.m-w.com/mw/art/abacus.htm)
  • 17th C. - Slide rule - a manual device used for calculation that consists in its simple form of a ruler and a movable middle piece which are graduated with similar logarithmic scales (Picture from the The Museum of HP Calculators)
  • 1642 - Pascaline--a mechanical calculator built by Blaise Pascal, a 17th century mathematician, for whom the Pascal computer programming language was named .
  • 1804 - Jacquard loom - a loom programmed with punched cards invented by Joseph Marie Jacquard
  • ca 1850 - Difference Engine , Analytical Engine - Charles Babbage and Ada Byron (See her picture.). Babbage's description, in 1837, of the Analytical Engine, a hand cranked, mechanical digital computer anticipated virtually every aspect of present-day computers. It wasn't until over a 100 years later that another all purpose computer was conceived. Sketch of the Engine and notes by Ada Byron King, Countess of Lovelace.
  • 1939 -1942 - Atanasoff Berry Computer - built at Iowa State by Prof. John V. Atanasoff and graduate student Clifford Berry. Represented several "firsts" in computing, including a binary system of of arithmetic, parallel processing, regenerative memory, separation of memory and computing functions, and more. Weighed 750 lbs. and had a memory storage of 3,000 bits (0.4K). Recorded numbers by scorching marks into cards as it worked through a problem. See diagram.
  • 1940s - Colossus - a vacuum tube computing machine which broke Hitler's codes during WW II. It was instrumental in helping Turing break the German's codes during WW II to turn the tide of the war. In the summer of 1939, a small group of scholars became codebreakers, working at Bletchley Part in England. This group of pioneering codebreakers helped shorten the war and changed the course of history. See the the Bletchley Park Web site and its history. See more information on Codes and Ciphers in the Second World War at Tony Sales' site.
  • 1946 - ENIAC - World's first electronic, large scale, general-purpose computer, built by Mauchly and Eckert, and activated at the University of Pennsylvania in 1946. ENIAC recreated on a modern computer chip. See an explanation of ENIAC on a Chip by the Moore School of Electrical Engineering, University of Pennsylvania. The ENIAC is a 30 ton machine that measured 50 x 30 feet. It contained 19,000 vacuum tubes, 6000 switches, and could add 5,000 numbers in a second, a remarkable accomplishment at the time. A reprogrammable machine, the ENIAC performed initial calculations for the H-bomb. It was also used to prepare artillery shell trajectory tables and perform other military and scientific calculations. Since there was no software to reprogram the computer, people had to rewire it to get it to perform different functions. The human programmers had to read wiring diagrams and know what each switch did. J. Presper Eckert, Jr. and John W. Mauchly drew on Alansoff's work to create the ENIAC, the Electronic Numerical Integrator and Computer.
  • 1951-1959 - vacuum tube based technology. Vacuum Tubes are electronic devices, consisting of a glass or steel vacuum envelope and two or more electrodes between which electrons can move freely. First commercial computers used vacuum tubes: Univac, IBM 701.
  • 1950s -1960s - UNIVAC - "punch card technology" The first commercially successful computer, introduced in 1951 by Remington Rand. Over 40 systems were sold. Its memory was made of mercury filled acoustic delay lines that held 1,000 12 digit numbers. It used magnetic tapes that stored 1MB of data at a density of 128 cpi. UNIVAC became synonymous with computer (for a while). See UNIVAC photo . See UNIVAC flow chart
  • 1960 IBM 1620 - See photos at The Computer History Museum.
  • 1960-1968 - transistor based technology. The transistor, invented in 1948, by Dr. John Bardeen, Dr. Walter Brattain, and Dr. William Shockley . It almost completely replaced the vacuum tube because of its reduced cost, weight, and power consumption and its higher reliability. See explanation and diagram of a transistor and what the first transistor looked like. The transistor is made to alter its state from a starting condition of conductivity (switched 'on', full current flow) to a final condition of insulation (switched 'off', no current flow).
  • 1969 - The Internet, originally the ARPAnet (Advanced Research Projects Agency network), began as a military computer network.
  • 1969-1977 - integrated circuits (IC) based technology. The first integrated circuit was demonstrated by Texas Instruments inventor, Jack Kilby, in 1958. It was 7/16" wide and contained two transistors. Examples of early integrated circuit technology: Intel 4004, Dec pdp 8, CRAY 1 (1976) - a 75MHz, 64-bit machine with a peak speed of 160 megaflops, (One million floating point operations per second) the world's fastest processor at that time. Now circuits may contain hundreds of thousands of transistors on a small piece of material, which revolutionized computing. Here is a diagram of a modern integrated circuit, known as a chip.
  • 1976 - CRAY 1 - The world's first electronic digital computer, developed in 1946. A 75MHz, 64-bit machine with a peak speed of 160 megaflops, (one million floating point operations per second) the world's fastest processor at that time.
  • 1976 - Apples/MACs - The Apple was designed by Steve Wozniak and Steve Jobs. Apple was the first to have a "windows" type graphical interface and the computer mouse. Like modern computers, early Apples had a peripheral keyboard and mouse, and had a floppy drive that held 3.5" disks.The Macintosh replaced the Apple. See a picture of the The Apple III (1980 - 1985).
  • 1978 to 1986 - large scale integration (LSI) Alto - early workstation with mouse Apple, designed by Steve Wozniak and Steve Jobs. Apple was the first to have a "windows" type graphical interface and the computer mouse. See Apple/MACs evolution over time. The PC and clone market begins to expand. This begins first mass market of desktop computers.
  • 1986 to today - the age of the networked computing, the Internet, and the WWW.
  • 1990 - Tim Berners-Lee invented the networked hypertext system called the World Wide Web.
  • 1992 - Bill Gates' Microsoft Corp. released Windows 3.1, an operating system that made IBM and IBM-compatible PCs more user-friendly by integrating a graphical user interface into the software. In replacing the old Windows command-line system, however, Microsoft created a program similar to the Macintosh operating system. Apple sued for copyright infringement, but Microsoft prevailed. Windows 3.1 went to Win 95, then Win 98, now Windows XP . (There are other OSs, of course, but Windows is the dominant OS today. MACs, by Apple, still have a faithful following. Linux has a faithful following.
  • 1995 - large commercial Internet service providers (ISPs), such as MCI, Sprint , AOL and UUNET, began offering service to large number of customers.
  • 1996 - Personal Digital Assistants (such as the Palm Pilot became available to consumers. They can do numeric calculations, play games and music and download information from the Internet. See How Stuff Works for a history and details.
    back to top

Charles Babbage (1792-1871) - Difference Engine, Analytical Engine. Ada Byron, daughter of the poet, Lord Byron, worked with him. His description, in 1837, of the Analytical Engine, a mechanical digital computer anticipated virtually every aspect of present-day computers. Sketch of the Engine and notes by Ada Byron King, Countess of Lovelace.

Alan Turing -- 1912-1954. British Codebreaker. Worked on the Colossus (code breaking machine, precursor to the computer) and the ACE (Automatic Computing Engine). Noted for many brilliant ideas, Turing is perhaps best remembered for the concepts of the Turing Test for Artificial Intelligence and the Turing Machine, an abstract model for modeling computer operations. The Turing Test is the "acid test" of true artificial intelligence, as defined by the English scientist Alan Turing. In the 1940s, he said "a machine has artificial intelligence when there is no discernible difference between the conversation generated by the machine and that of an intelligent person." Turing was instrumental in breaking the German enigma code during WWII with his Bombe computing machine. The Enigma is a machine used by the Germans to create encrypted messages. See Turing's Treatise on Enigma.

More Information about the Enigma machine.

J. von Neumann -- (1903-1957). A child prodigy in mathematics, authored landmark paper explaining how programs could be stored as data. (Unlike ENIAC, which had to be re-wired to be re-programmed.). Virtually all computers today, from toys to supercomputers costing millions of dollars, are variations on the computer architecture that John von Neumann created on the foundation of the work of Alan Turing's work in the 1940s. It included three components used by most computers today: a CPU a slow-to-access storage area, like a hard drive and secondary fast-access memory (RAM ). The machine stored instructions as binary values (creating the stored program concept) and executed instructions sequentially - the processor fetched instructions one at a time and processed them. The instruction is analyzed, data is processed, the next instruction is analyzed, etc. Today "von Neumann architecture" often refers to the sequential nature of computers based on this model. See another von Neumann source.

John V. Atanasoff -- (1904 - 1995) - one of the contenders, along with Konrad Zuse and H. Edward Roberts and others, as the inventor of the first computer. The limited-function vacuum-tube device had limited capabilities and did not have a central. It was not programmable, but could solve differential equations using binary arithmetic. Atanasoff's Computer.

J. Presper Eckert, Jr. and John W. Mauchly completed the first programmed general purpose electronic digital computer in 1946. They drew on Alansoff's work to create the ENIAC, the Electronic Numerical Integrator and Computer. In 1973 a patent lawsuit resulted in John V. Atanasoff's being legally declared as the inventor. Though Atanasoff got legal status for his achievement, many historians still give credit to J. Presper Eckert, Jr., and John W. Mauchly the founding fathers of the modern computer. Eckert and Mauchly formed the first computer company in 1946. Eckert received 87 patents. They introduced the first modern binany computer with the Binary Automatic Computer (BINAC), which stored information on magnetic tape rather than punched cards. Their UNIVAC I ,was built for the U.S. Census Bureau. Their company was acquired by by Remington Rand, which merged into the Sperry Rand Corp. and then into Unisys Corp. Eckert retired from Unisys in 1989.

Konrad Zuse-- (1910-1995) German who, during WW II, designed mechanical and electromechanical computers. Zuse's Z1, his contender for the first freely programmable computer, contained all the basic components of a modern computer (control unit, memory, micro sequences, etc.). Zuse, because of the scarcity of material during WW II, used discarded video film as punch cards. Like a modern computer, it was adaptable for different purposes and used on/off switch relays, a binary system of 1s and 0s (on = 1, off = 0). Completed in 1938, it was destroyed in the bombardment of Berlin in WW II, along with the construction plans. In 1986, Zuse reconstructed the Z1.

H. Edward Roberts -- developed the MITS Altair 8800 in 1975. The Altair is considered by some to be the first microcomputer (personal computer)., The MITS Altair 8800 was based on a 2 MHz Intel 8080 chip, with 256 bytes, standard RAM. It was developed a year before the first Apple, by Steve Wozniak and Steve Jobs, came out. Paul Allen and Bill Gates (then a student at Harvard) wrote a scaled down version of the Basic programming language to run on the Altair , which was the beginning of Microsoft.

See details about the MITS Altair 8800 at the Computer Museum of America (http://www.computer-museum.org/collections/mits8800.html)

We can't talk about computers without mentioning:

The Birth of the Internet

The Internet, originally the ARPAnet (Advanced Research Projects Agency network), began as a military computer network in 1969. This network was an experimental project of the U.S. Department of Defense Advanced Research Projects Agency (DARPA).Other government agencies and universities created internal networks based on the ARPAnet model. The catalyst for the Internet today was provided by the National Science Foundation (NSF). Rather than have a physical communications connection from each institution to a supercomputing center, the NSF began a "chain" of connections in which institutions would be connected to their "neighbor" computing centers, which all tied into central supercomputing centers. This beginning expanded to a global network of computer networks, which allows computers all over the world to communicate with one another and share information stored at various computer "servers," either on a local computer or a computer located anywhere in the world. In 1986, came the birth of the National Science Foundation Network (NSFNET), which scientists across the country with five supercomputer centers. Universities were early users of the Internet. In 1992, the Internet was still primarily used by researchers and academics. In 1995, large commercial Internet service providers (ISPs), such as MCI, Sprint , AOL and UUNET, began offering service to large number of customers.

The Internet now links thousands of computer networks, reaching people all over the world. See this Atlas of Cyberspaces for graphical images of networks in cyberspace.

Since traffic on the Internet has become so heavy, some of the scientific and academic institutions that formed the original Internet developed a new global network called Internet 2. Known as the Abilene Project, and running on fast fiber-optic cable, it officially opened for business in February, 1999 at a ceremony in Washington, D.C.

George Mason University is one of 150 universities in the United States that are working on the Internet 2 project with industry through the University Corporation for Advanced Internet Development (UCAID) to improve the functionality and capabilities of the Internet. The network's 2.4 gigabit-per-second speed started with a transmission speed of 45,000 faster than a 56K modem.

1990 - Tim Berners-Lee, currently the director of the World Wide Web Consortium, the coordinating body for Web development, invented the World Wide Web. He occupies the 3Com Founders chair at the MIT Laboratory for Computer Science. The WWW was originally conceived and developed for the high-energy physics collaborations, which require instantaneous information sharing between physicists working in different universities and institutes all over the world. Now the WWW is used by people all over the world, children and adults, for personal, commercial, and academic uses. Berners-Lee and Robert Cailliau wrote the first WWW client and server software, defining Web addresses (URLs), hypertext transfer protocol (http) and hypertext markup language (html). Here is Tim Berners-Lee's original proposal to attempt to persuade CERN management to initiate a global hypertext system, which Berners-Lee called "Mesh" before he decided on the name "World Wide Web" when writing the code in 1990. In December 1993, Berners-Lee and Cailliau, along with Marc Andreesen and E. Bina of NCSA, shared the Association for Computing (ACM) Software System Award for developing the World-Wide Web. The graphical Web browser, Mosaic, evolved into Netscape.

The WWW is based on the hypertext protocol.

See CERN's overview of the WWW (What it is and its progress).

The ease of using the World Wide Web has made it easier for people to connect with one another, overcoming the obstacles of time and space. This networking has spawned numerous virtual communities and cybercultures. See this list of resources on cybercultures. The WWW has also become a convenient way to buy and sell services and goods.

The Internet and WWW do not come without ethical and legal ramifications, such as copyright infringement, computer spying and hacking, computer viruses, fraud, and privacy issues. See links to computer Ethics, Laws, Privacy Issues. Also see Internet copyright resources.

What's next?? - something interesting to ponder: Nanotechnology - K. Eric Drexler is the founding father of nanotechnology, the idea of using individual atoms and molecules to build living and mechanical "things" in miniature factories. His vision is that if scientists can engineer DNA on a molecular, why can't we build machines out of atoms and program them to build more machines? The requirement for low cost creates an interest in these "self replicating manufacturing systems," studied by von Neumann in the 1940's. These "nanorobots, " programmed by miniature computers smaller than the human cell, could go through the bloodstream curing disease, perform surgery, etc. If this technology comes about the barriers between engineered and living systems may be broken. Researchers at various institutions and organizations, like NASA and Xerox, are working on this technology.


Some of the Many Women Pioneers in Computing:

Ada Byron King - Portrait .Countess of Lovelace and daughter of the British poet, Lord Byron (1815-1852). - Ada was a mathematician and wrote extensive notes on Charles Babbage's calculating machine and suggested how the engine might calculate Bernoulli numbers. This plan, is now regarded as the first "computer program."Sketch of the Engine and notes by Ada Byron King, Countess of Lovelace. A software language developed by the U.S. Department of Defense was named "Ada" in her honor in 1979.

Edith Clarke (1883-1959) - At MIT, in June 1919, Clarke received the first Electrical Engineering degree awarded to a woman . She developed and disseminated mathematical methods that simplified calculations and reduced the time spent in solving problems in the design and operation of electrical power systems.

Grace Murray Hopper (1906-1992) - Hopper earned an MA in 1930 and a Ph.D. in 1934 in Mathematics, from Yale University. She retired from the Navy in 1967 with the rank of Rear Admiral. Hopper created a compiler system that translated mathematical code into machine language. Later versions, under her direction, the compiler became the forerunner to modern programming languages. She pioneered the integration of English into programs with the FLOW-MATIC. Hopper received the Computer Sciences "Man of The Year Award" in 1969. She was the first woman to be inducted into the Distinguished Fellow British Computer Society in 1973. The term "bug," an error or defect in software that causes a program to malfunction, originated, according to computer folklore, when Grace and her team found a dead moth that had been "zapped" by the relay and caused the device to fail.

Erna Hoover - invented a computerized switching system for telephone traffic. For this achievement, she was awarded the first software patent ever issued (Patent #3,623,007) on Nov. 23, 1971). She was the first female supervisor of a technical department (at Bell Labs).

Kay McNulty Mauchly Antonelli and Alice Burks - made calculations for tables of firing and bombing trajectories, as part of the war effort. This work prompted the development, in 1946, of the ENIAC, the world's first electronic digital computer.

Adele Goldstine - assisted in the creation of the ENIAC and wrote the manual to use it.

Joan Margaret Winters - scientific programmer in SLAC Computing Services at the Stanford Linear Accelerator Center, among other achievements.

Alexandra Illmer Forsythe (1918-1980) - .During the 1960's and 1970's, she co-authored a series of textbooks on computer science. She wrote the first computer science textbook.

Evelyn Boyd Granville - was one of the first African American women to earn a Ph.D. in Mathematics. During her career, she developed computer programs that were used for trajectory analysis in the Mercury Project (the first U.S. manned mission in space) and in the Apollo Project (which sent U.S. astronauts to the moon).

Timelines:
Computer History Time Line
Timeline of Events in Computer History
Computer Museums/History Sites:
Generations Through the History of Computing - Take a tour of companies and computers have led us to where we are today.
Triumph of the Nerds Online - companion to the PBS series
The Machine that Changed the World - companion Web site to video series (The book that accompanied the "Machine that Changed the World series: The Dream Machine: Exploring the Computer Age. Jon Palfreman and Doron Swade. BBC Books, London, 1991)
The Ada Project
UVA Computer Museum
VA Tech History of Computers


Voir la vidéo: La nouvelle Invention Du Google (Juillet 2022).


Commentaires:

  1. Shiye

    Je m'excuse de vous interrompre, mais je propose d'aller d'une manière différente.

  2. Mikagami

    Tout à fait d'accord avec elle. J'aime cette idée, je suis entièrement d'accord avec toi.

  3. Mekinos

    le point de vue autoritaire et cognitif.

  4. Rabbani

    Entre nous, je demanderais de l'aide au modérateur.

  5. Seadon

    Je voulais longtemps vous demander, l'auteur, où habitez-vous? Dans le sens d'une ville? Sinon Serket :)



Écrire un message