Nachrichten

Erfindung des PCs

Erfindung des PCs


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Die heutigen Personalcomputer unterscheiden sich drastisch von den massiven, massigen Maschinen, die aus dem Zweiten Weltkrieg hervorgegangen sind – und der Unterschied liegt nicht nur in ihrer Größe. In den 1970er Jahren hatte sich die Technologie so weit entwickelt, dass Einzelpersonen – hauptsächlich Bastler und Elektronikfans – unmontierte PCs oder „Mikrocomputer“ kaufen und zum Spaß programmieren konnten, aber diese frühen PCs konnten viele der nützlichen Aufgaben nicht ausführen, die heutige Computer können. Benutzer konnten mathematische Berechnungen durchführen und einfache Spiele spielen, aber der Reiz der Maschinen lag vor allem in ihrer Neuheit. Heute verkaufen Hunderte von Unternehmen PCs, Zubehör und anspruchsvolle Software und Spiele, und PCs werden für eine Vielzahl von Funktionen verwendet, von der einfachen Textverarbeitung über die Bearbeitung von Fotos bis hin zur Verwaltung von Budgets. Zu Hause und bei der Arbeit nutzen wir unsere PCs für fast alles. Sie sind aus dem modernen Leben kaum mehr wegzudenken.

Erfindung des PCs: Das Computerzeitalter

Die ersten elektronischen Computer waren in keiner Weise „persönlich“: Sie waren riesig und enorm teuer, und sie brauchten ein Team von Ingenieuren und anderen Spezialisten, um sie am Laufen zu halten. Einer der ersten und bekanntesten davon, der Electronic Numerical Integrator Analyzer and Computer (ENIAC), wurde an der University of Pennsylvania gebaut, um ballistische Berechnungen für das US-Militär während des Zweiten Weltkriegs durchzuführen. ENIAC kostete 500.000 US-Dollar, wog 30 Tonnen und nahm fast 2.000 Quadratmeter Grundfläche ein. Äußerlich war ENIAC von einem Kabelgewirr, Hunderten von blinkenden Lichtern und fast 6.000 mechanischen Schaltern bedeckt, mit denen seine Bediener ihm sagten, was zu tun ist. Im Inneren transportierten fast 18.000 Vakuumröhren elektrische Signale von einem Teil der Maschine zum anderen.

Erfindung des PCs: Nachkriegsinnovationen

ENIAC und andere frühe Computer bewiesen vielen Universitäten und Unternehmen, dass die Maschinen die enorme Investition an Geld, Platz und Arbeitskraft wert waren, die sie erforderten. (Zum Beispiel könnte ENIAC in 30 Sekunden ein Flugbahnproblem lösen, für das ein Team menschlicher „Computer“ 12 Stunden brauchen könnte.) Gleichzeitig machten es neue Technologien möglich, Computer zu bauen, die kleiner und größer waren gestrafft. 1948 führte Bell Labs den Transistor ein, ein elektronisches Gerät, das elektrischen Strom trug und verstärkte, aber viel kleiner war als die sperrige Vakuumröhre. Zehn Jahre später entwickelten Wissenschaftler von Texas Instruments und Fairchild Semiconductor den integrierten Schaltkreis, eine Erfindung, die alle elektrischen Teile des Computers – Transistoren, Kondensatoren, Widerstände und Dioden – in einem einzigen Siliziumchip vereinte.

Aber eine der bedeutendsten Erfindungen, die der PC-Revolution den Weg ebneten, war der Mikroprozessor. Bevor Mikroprozessoren erfunden wurden, brauchten Computer für jede ihrer Funktionen einen separaten integrierten Schaltkreis. (Dies war einer der Gründe, warum die Maschinen immer noch so groß waren.) Mikroprozessoren hatten die Größe eines Daumennagels und konnten Dinge tun, die die Chips mit integrierten Schaltkreisen nicht konnten: Sie konnten die Programme des Computers ausführen, sich Informationen merken und Daten verwalten.

Der erste Mikroprozessor auf dem Markt wurde 1971 von einem Ingenieur bei Intel namens Ted Hoff entwickelt. (Intel befand sich im kalifornischen Santa Clara Valley, einem Ort, der wegen all der High-Tech-Unternehmen, die sich um den Stanford Industrial Park herum gruppierten, den Spitznamen „Silicon Valley“ trägt.) Intels erster Mikroprozessor, ein 1/16 x 1/8 Zoll Chip namens 4004, hatte die gleiche Rechenleistung wie der massive ENIAC.

Die Erfindung des PCs

Diese Innovationen machten die Herstellung von Computern billiger und einfacher als je zuvor. Als Ergebnis war der kleine, relativ preiswerte „Mikrocomputer“ – bald bekannt als „Personal Computer“ – geboren. Im Jahr 1974 führte zum Beispiel ein Unternehmen namens Micro Instrumentation and Telemetry Systems (MITS) ein selbstgebautes Computerkit namens Altair ein. Im Vergleich zu früheren Mikrocomputern war der Altair ein riesiger Erfolg: Tausende von Menschen kauften das 400-Dollar-Kit. Allerdings hat es nicht wirklich viel gebracht. Es hatte keine Tastatur und keinen Bildschirm, und seine Ausgabe war nur eine Reihe von blinkenden Lichtern. Benutzer geben Daten ein, indem sie Kippschalter umlegen.

1975 stellte das MITS zwei Harvard-Studenten namens Paul G. Allen und Bill Gates ein, um die Programmiersprache BASIC für den Altair anzupassen. Die Software machte den Computer einfacher zu bedienen, und es war ein Hit. Im April 1975 nahmen die beiden jungen Programmierer das Geld, das sie mit „Altair BASIC“ verdienten, und gründeten eine eigene Firma – Microsoft –, die bald zu einem Imperium wurde.

Im Jahr, nachdem Gates und Allen Microsoft gegründet hatten, bauten zwei Ingenieure des Homebrew Computer Club im Silicon Valley namens Steve Jobs und Stephen Wozniak einen selbstgebauten Computer, der ebenfalls die Welt verändern sollte. Dieser Computer namens Apple I war ausgefeilter als der Altair: Er hatte mehr Speicher, einen billigeren Mikroprozessor und einen Monitor mit Bildschirm. Im April 1977 stellten Jobs und Wozniak den Apple II vor, der über eine Tastatur und einen Farbbildschirm verfügte. Außerdem könnten Benutzer ihre Daten auf einem externen Kassettenband speichern. (Apple tauschte diese Bänder bald gegen Disketten aus.) Um den Apple II so nützlich wie möglich zu machen, ermutigte das Unternehmen Programmierer, "Anwendungen" dafür zu erstellen. Zum Beispiel machte ein Tabellenkalkulationsprogramm namens VisiCalc den Apple zu einem praktischen Werkzeug für alle Arten von Menschen (und Unternehmen) – nicht nur für Bastler.

Die PC-Revolution

Die PC-Revolution hatte begonnen. Bald hatten Unternehmen wie Xerox, Tandy, Commodore und IBM den Markt betreten, und Computer wurden in Büros und schließlich auch zu Hause allgegenwärtig. Innovationen wie das „Graphical User Interface“, das es dem Benutzer ermöglicht, Symbole auf dem Computerbildschirm auszuwählen, anstatt komplizierte Befehle zu schreiben, und die Computermaus machten den PC noch komfortabler und benutzerfreundlicher. Laptops, Smartphones und Tablet-Computer ermöglichen es uns heute, einen PC überall dabei zu haben.

FOTOGALERIE









Erfindungen: Computer und Internet


Wer hat die Computermaus erfunden?

Es war der Technologievisionär und Erfinder Douglas Engelbart (30. Januar 1925 – 2. Juli 2013), der die Funktionsweise von Computern revolutionierte, indem er sie von einer spezialisierten Maschinerie, die nur ein ausgebildeter Wissenschaftler verwenden konnte, zu einem benutzerfreundlichen Werkzeug machte, das fast jeder verwenden konnte mit arbeiten kann. Im Laufe seines Lebens erfand er mehrere interaktive und benutzerfreundliche Geräte wie Computermaus, Windows-Betriebssystem, Computer-Video-Telekonferenzen, Hypermedia, Groupware, E-Mail, Internet und vieles mehr.


Leiterplatte

Nach Gustav Tauschek leistete 1936 ein weiterer Wiener Ingenieur und Erfinder – Paul Eisler – mit der Erfindung der Leiterplatte (PCB) einen wesentlichen Beitrag zur modernen Elektronikindustrie.

Der österreichische Jude Paul Eisler wurde 1907 in Wien geboren. Nach seinem Ingenieurstudium an der Technischen Universität Wien 1930, bereits angehender Erfinder, fand er in Österreich keine richtige Anstellung. 1934 nahm Eisler einen Arbeitsplatz in Belgrad, Jugoslawien, an, um ein funkelektronisches System für einen Zug zu entwerfen, aber dieser Job endete, als der Kunde die Zahlung in Getreide statt in Währung anbot:-)

Zurück in Österreich schrieb Eisler für Zeitungen, gründete eine Radiozeitschrift und begann, sich mit Drucktechnik zu beschäftigen. Der Druck war in den 1930er Jahren eine ziemlich robuste Technologie, und Eisler begann sich vorzustellen, wie das Druckverfahren verwendet werden könnte, um elektronische Schaltungen auf einer isolierenden Unterlage aufzubringen, und zwar in großen Mengen. Damals war es üblich, alle Komponenten in elektronischen Geräten mit handgelöteten Drähten zu verbinden, eine fehleranfällige Herstellungsmethode, die sich nicht für einen hohen Automatisierungsgrad eignete. Eisler wollte diese Probleme beseitigen, indem er die Drähte auf eine Platine druckte und die Elemente darüber montierte.

1936 beschloss Eisler, Österreich zu verlassen, um der Verfolgung durch die Nazis zu entgehen. Eine Einladung zur Arbeit in England sicherte er sich aufgrund zweier von ihm bereits eingereichter Patentanmeldungen: eine für eine grafische Tonaufnahme und eine für einen stereoskopischen Fernseher mit vertikal auflösenden Linien.

In London gelang es ihm, das Fernsehpatent für 250 Yen zu verkaufen, genug Geld, um eine Weile in einer Pension in Hampstead zu leben, was gut war, denn er fand keine Arbeit. Er fuhr fort, seine Leiterplattenidee zu entwickeln, und eine Telefongesellschaft mochte sie, zumindest anfangs, sehr, weil sie die Kabelbündel beseitigt hätte, die damals für Telefonsysteme verwendet wurden. Aber dann sagte ihm der Big Boss, dass die manuelle Verdrahtungsarbeit von “girls” gemacht würde und “girls billiger und flexibler sind.” Das ist die heilige Wahrheit, die Mädels sind immer viel flexibler, als eine Platine-)

In England fand Eisler jedoch kein Glück. Als sich der Zweite Weltkrieg abzeichnete, arbeitete er daran, seine Familie aus Österreich herauszuholen. Seine Schwester beging Selbstmord und als der Krieg begann, wurde er 1940 von den Briten als illegaler Ausländer interniert. Sogar eingesperrt begann dieser brillante Ingenieur mit der Herstellung eines Radios mit einer Leiterplatte (siehe nebenstehendes Foto).

Nach seiner Entlassung 1941 fand Eisler eine Arbeit in einer Musikdruckerei – Henderson und Spalding. Ursprünglich war sein Ziel, die Unausführbaren des Unternehmens zu perfektionieren Technograph Musikschreibmaschine, die von einem Labor in einem zerbombten Gebäude aus operiert. Später, Technograph in seine Idee mit gedruckten Schaltungen investiert (das Konzept, geätzte Folie zu verwenden, um Spuren auf einem Substrat abzulegen). Leider verwirkte Eisler die Rechte an seiner Erfindung, als er es versäumte, den Vertrag vor der Unterzeichnung zu lesen, aber es war nicht das erste oder letzte Mal, dass Eisler ausgenutzt wurde. Es war ein ziemlich normaler Arbeitsvertrag, in dem er sich bereit erklärte, während seiner Anstellung gegen eine geringe Gebühr (ein Pfund Sterling) jedes Patentrecht einzureichen, aber er gab ihm auch 16,5 Prozent Eigentum an Technograph.

Eislers erste Bretter sehen aus wie Teller mit Spaghetti, fast ohne gerade Spuren. 1943 reichte er eine Patentanmeldung ein.

Technograph erregte kein Interesse, bis die Vereinigten Staaten die Technologie in die Arbeit an den Näherungszündern von Granaten einbauten, die für die Abwehr der deutschen V-1-Flugbombe unerlässlich waren.

Danach hatte Eisler einen Job und ein wenig Ruhm. Nach dem Krieg verbreitete sich die Technologie. Die USA ordneten 1948 an, dass alle Schaltkreise von Bordinstrumenten gedruckt werden sollten.

Eislers Patentanmeldung von 1943 wurde schließlich in drei separate Patente aufgeteilt: 639111 (Dreidimensionale gedruckte Schaltungen), 639178 (Foil Technique of Printed Circuits) und 639179 (Pulverdruck). Diese drei wurden am 21. Juni 1950 veröffentlicht, aber nur sehr wenige Unternehmen lizenzierten die Patente tatsächlich, und Technograph hatte finanzielle Schwierigkeiten. 1957 schied Eisler bei Technograph aus, um freiberuflich zu arbeiten.

Zu seinen Projekten als Freiberufler zählten Filme zum Erhitzen von “Boden- und Wandbelägen” und Lebensmitteln, die Folienbatterie, Betonformen, der Pizzawärmer und der Heckscheibenentfroster und mehr, aber Eisler war bei ihrer Kommerzialisierung nicht so erfolgreich. Später hatte er Erfolg im medizinischen Bereich und starb mit Dutzenden von Patenten auf seinen Namen.

Eislers Erfindung der geätzten Folien-Leiterplatte war zwar von enormem Nutzen für die weltweite Elektronikindustrie, brachte ihm jedoch keinen persönlichen finanziellen Gewinn. Eisler starb am 26. Oktober 1992 in London. Er hatte gerade die Silbermedaille der Institution of Electrical Engineers ’ Nuffield erhalten.

Die komplette Geschichte des Mac

Der Macintosh oder Mac ist eine Serie von mehreren PC-Linien, die von Apple Inc. hergestellt werden. Der erste Macintosh wurde am 24. Januar 1984 von Steve Jobs eingeführt und war der erste kommerziell erfolgreiche PC mit zwei … Weiter lesen


Inhalt

Vorgründung Bearbeiten

Steve Jobs und Steve Wozniak trafen sich zum ersten Mal Mitte 1971, als ihr gemeinsamer Freund Bill Fernandez den damals 21-jährigen Wozniak dem 16-jährigen Jobs vorstellte. [10] [11] Ihre erste Geschäftspartnerschaft begann später in diesem Jahr, als Wozniak, ein autodidaktischer Elektroniker, mit dem Bau seiner ursprünglichen „blauen Boxen“ begann, mit denen man kostenlos Ferngespräche führen konnte. [12] Jobs schaffte es, etwa zweihundert blaue Schachteln für jeweils 150 Dollar zu verkaufen und teilte den Gewinn mit Wozniak. [10] [11] Jobs sagte später seinem Biographen, dass es ohne Wozniaks blaue Schachteln "keinen Apple gegeben hätte". [13]

Jobs und Wozniak, gemeinsam auch als "die beiden Steves" bezeichnet, hatten sich 1975 vom Reed College bzw. der UC Berkeley zurückgezogen. Wozniak entwarf ein Videoterminal, mit dem er sich an den Minicomputern von Call Computer anmelden konnte. Alex Kamradt gab den Entwurf in Auftrag und verkaufte eine kleine Anzahl davon über seine Firma. Abgesehen von ihrem Interesse an aktueller Technik scheint der Impuls für die beiden Steves eine andere Quelle zu haben. In seinem Aufsatz Von Satori bis Silicon Valley (veröffentlicht 1986) betonte der Kulturhistoriker Theodore Roszak, dass Apple Computer aus der Gegenkultur der Westküste und der Notwendigkeit heraus entstand, Ausdrucke, Briefetiketten und Datenbanken zu produzieren. Roszak bietet einige Hintergrundinformationen zur Entwicklung der Prototypen der beiden Steves.

1975 begannen die beiden Steves, an Treffen des Homebrew Computer Clubs teilzunehmen. [14] Neue Mikrocomputer wie der Altair 8800 und der IMSAI inspirierten Wozniak dazu, einen Mikroprozessor in sein Videoterminal einzubauen und einen kompletten Computer zu besitzen. Zu dieser Zeit waren die einzigen allgemein verfügbaren Mikrocomputer-CPUs der Intel 8080 für 179 US-Dollar (entspricht 861 US-Dollar im Jahr 2020) und der Motorola 6800 für 170 US-Dollar (entspricht 818 US-Dollar im Jahr 2020). Wozniak bevorzugte den 6800, aber beide lagen außerhalb seiner Preisklasse. Also schaute er zu, lernte und entwarf Computer auf Papier und wartete auf den Tag, an dem er sich eine CPU leisten konnte.

Als MOS Technology 1976 seinen 6502-Chip für 20 US-Dollar (entspricht 91 US-Dollar im Jahr 2020) auf den Markt brachte, schrieb Wozniak eine Version von BASIC dafür und begann dann, einen Computer zu entwickeln, auf dem er laufen konnte. Der 6502 wurde von denselben Leuten entworfen, die den 6800 entworfen haben, da viele im Silicon Valley ihre Arbeitgeber verließen, um ihre eigenen Unternehmen zu gründen. Wozniaks früherer 6800-Papiercomputer benötigte nur geringfügige Änderungen, um auf dem neuen Chip zu laufen.

Am 1. März 1976 stellte Wozniak die Maschine fertig und brachte sie zu einem Treffen des Homebrew Computer Club, um sie vorzuführen. [15] Als Jobs Wozniaks Computer sah, der später als Apple I bekannt wurde, war er sofort an seinem kommerziellen Potenzial interessiert. [16] Ursprünglich beabsichtigte Wozniak, Schaltpläne der Maschine kostenlos zur Verfügung zu stellen, aber Jobs bestand darauf, dass sie stattdessen blanke Leiterplatten für den Computer bauen und verkaufen sollten. [17] Wozniak bot das Design ursprünglich auch Hewlett-Packard (HP) an, wo er zu dieser Zeit arbeitete, wurde jedoch von der Firma fünfmal abgelehnt. [18] Jobs überzeugte Wozniak schließlich, gemeinsam ins Geschäft zu gehen und ein eigenes neues Unternehmen zu gründen. [19] Um das Geld zu beschaffen, das sie für die Herstellung der ersten Leiterplattenserie brauchten, verkaufte Jobs seinen Volkswagen Typ 2 Minibus für ein paar hundert Dollar und Wozniak verkaufte seinen programmierbaren Rechner HP-65 für 500 Dollar. [17] [15] [20] [21]

Apple I und Firmengründung Bearbeiten

April 1976 wurde die Apple Computer Company von Steve Jobs, Steve Wozniak und Ronald Wayne gegründet. [23] [19] Das Unternehmen wurde als California Business Partnership registriert. [24] Wayne, der bei Atari als leitender Zeichner arbeitete, stimmte zu, im Gegenzug für eine Beteiligung von 10 % Mitbegründer des Unternehmens zu werden. [25] [19] [1] Wayne war jedoch aufgrund des Scheiterns seines eigenen Unternehmens vier Jahre zuvor etwas schüchtern. Am 12. April, weniger als zwei Wochen nach der Gründung des Unternehmens, verließ Wayne Apple, verkaufte seinen 10%-Anteil für nur 800 US-Dollar an die beiden Steves zurück und hinterließ sie als aktive Hauptmitgründer. [26] [27]

Laut Wozniak schlug Jobs den Namen „Apple Computer“ vor, als er gerade von Robert Friedlands All-One Farm in Oregon zurückgekehrt war. [27] Jobs erzählte Walter Isaacson, dass er "auf einer meiner Fruchtdiäten" war, als er sich den Namen ausdachte und dachte, "es klang lustig, temperamentvoll und nicht einschüchternd. Außerdem würde es uns im Telefonbuch vor Atari bringen". ." [28]

Kurz nach der Firmengründung machten die beiden Steves einen letzten Ausflug zum Homebrew Computer Club und führten die fertige Version des Apple I vor. [29] Paul Terrell, der eine Computerkette namens the . betrieb Byte-Shop, war anwesend und war beeindruckt von der Maschine. [25] Er gab den beiden Steves seine Karte und sagte ihnen, sie sollen "in Kontakt bleiben". [30] Am nächsten Tag schaute Jobs bei Terrell im Byte Shop in Mountain View vorbei und versuchte, ihm die nackten Platinen für den Apple I zu verkaufen. [27] Terrell sagte Jobs, dass er daran interessiert sei, die Maschine zu kaufen, aber nur, wenn es komplett montiert geliefert wurde, und sagte, er würde 50 zusammengebaute Computer bestellen und bei der Lieferung jeweils 500 US-Dollar zahlen (entspricht 2.300 US-Dollar im Jahr 2020). [31] [32] [25] Jobs nahm dann die Bestellung, die er vom Byte Shop erhalten hatte, zu Cramer Electronics, einem nationalen Distributor für elektronische Teile, und bestellte die Komponenten, die er zum Zusammenbau des Apple I benötigte. Der lokale Kreditmanager fragte Jobs, wie er die Teile bezahlen würde, und er antwortete: "Ich habe diese Bestellung von der Byte Shop-Kette von Computergeschäften für 50 meiner Computer und die Zahlungsbedingungen sind Nachnahme. Wenn Sie mir die Teile netto 30 geben, -Tage-Bedingungen kann ich die Computer in diesem Zeitrahmen bauen und liefern, mein Geld von Terrell im Byte Shop abholen und Sie bezahlen." [33] [34]

Der Kreditmanager rief Paul Terrell an, der an einer IEEE-Computerkonferenz bei Asilomar in Pacific Grove teilnahm und die Gültigkeit der Bestellung überprüfte. Erstaunt über die Hartnäckigkeit von Jobs, versicherte Terrell dem Kreditmanager, dass Jobs bezahlt werden und mehr als genug Geld haben würden, um die Teilebestellung zu bezahlen, falls die Computer in seinen Geschäften auftauchten. Die beiden Steves und ihre kleine Crew verbrachten Tag und Nacht damit, die Computer zu bauen und zu testen, und lieferten pünktlich an Terrell, um seine Lieferanten zu bezahlen. Terrell war überrascht, als Jobs ihm einen Stapel bestückter Leiterplatten lieferte, da er komplette Computer mit Gehäuse, Monitor und Tastatur erwartet hatte. [35] [36] Trotzdem hielt Terrell Wort und zahlte den beiden Steves das versprochene Geld. [37] [35] [36] [38]

Der Apple I kam im Juli 1976 als bestückte Platine zum Verkaufspreis von 666,66 US-Dollar auf den Markt. [39] [40] [41] Wozniak sagte später, er habe keine Ahnung von der Beziehung zwischen der Zahl und dem Malzeichen des Tieres, und dass er den Preis erfand, weil er "Zahlen wiederholen" mochte. [37] Schließlich wurden etwa 200 Einheiten des Apple I verkauft. [42]

Der Apple I-Computer hatte einige bemerkenswerte Funktionen. Eine davon war die Verwendung eines Fernsehers als Anzeigesystem, während viele Maschinen überhaupt kein Display hatten. Dies war nicht wie bei den Displays späterer Maschinen, jedoch wurde der Text mit 60 Zeichen pro Sekunde angezeigt. Dies war jedoch immer noch schneller als die Fernschreiber, die auf zeitgenössischen Maschinen dieser Zeit verwendet wurden. Der Apple I hat auch Bootstrap-Code im ROM enthalten, der den Start erleichtert. Schließlich entwarf Wozniak auf Drängen von Paul Terrell auch eine Kassettenschnittstelle zum Laden und Speichern von Programmen in der damals rasanten Geschwindigkeit von 1200 Bit/s. Obwohl die Maschine ziemlich einfach war, war sie dennoch ein Meisterwerk des Designs, das weit weniger Teile als alles andere in seiner Klasse verwendet und Wozniak schnell den Ruf eines Meisterkonstrukteurs einbrachte.

Ermutigt durch den Erfolg des Apple I, suchte Jobs nach Investitionen, um das Geschäft weiter auszubauen, [36] aber die Banken weigerten sich, ihm Geld zu leihen. Die Idee eines Computers für normale Leute schien damals absurd. Im August 1976 wandte sich Jobs an seinen ehemaligen Chef bei Atari, Nolan Bushnell, der ihm ein Treffen mit Don Valentine, dem Gründer von Sequoia Capital, empfahl. [36] Valentine war nicht daran interessiert, Apple zu finanzieren, sondern stellte Jobs wiederum Mike Markkula vor, einen Millionär, der unter ihm bei Fairchild Semiconductor gearbeitet hatte. [36] Markkula sah im Gegensatz zu Valentine großes Potenzial in den beiden Steves und beschloss, ein Angel-Investor ihres Unternehmens zu werden. [43] Er investierte 92.000 US-Dollar aus seinem eigenen Eigentum in Apple und sicherte sich gleichzeitig eine Kreditlinie von 250.000 US-Dollar (entspricht 1.140.000 US-Dollar im Jahr 2020) von der Bank of America. [43] [36] Als Gegenleistung für seine Investition erhielt Markkula einen Drittel der Anteile an Apple. [43] Mit Hilfe von Markkula wurde Apple Computer, Inc. am 3. Januar 1977 gegründet. [36] Die neue Gesellschaft kaufte die alte Partnerschaft, die die beiden Steves neun Monate zuvor gegründet hatten. [44]

Im Februar 1977 rekrutierte Markkula Michael Scott von National Semiconductor als ersten Präsidenten und CEO von Apple Computer, da Jobs und Wozniak beide nicht genügend Erfahrung hatten und er nicht daran interessiert war, diese Position selbst zu übernehmen. [45] [46] Im selben Monat kündigte Wozniak seinen Job bei Hewlett-Packard, um Vollzeit für Apple zu arbeiten. [44] [47]

Apple II Bearbeiten

Kaum hatte Apple mit dem Verkauf seiner ersten Computer begonnen, wechselte Wozniak vom Apple I und begann mit der Entwicklung eines stark verbesserten Computers: dem Apple II. [43] Wozniak stellte bis August 1976 einen funktionierenden Prototyp der neuen Maschine fertig. [36] [48] Die beiden Steves stellten den Apple II Computer am 16. und 17. April 1977 auf der ersten West Coast Computer Faire der Öffentlichkeit vor Am ersten Messetag stellte Jobs den Apple II einem japanischen Chemiker namens Toshio Mizushima vor, der der erste autorisierte Apple-Händler in Japan wurde. In der Ausgabe vom Mai 1977 von Byte, sagte Wozniak über das Apple II-Design: "Für mich sollte ein Personal Computer klein, zuverlässig, bequem zu bedienen und kostengünstig sein." [49]

Der Apple II kam am 10. Juni 1977 zu einem Verkaufspreis von 1.298 US-Dollar auf den Markt. [50] Der wichtigste interne Unterschied des Computers zu seinem Vorgänger war eine komplett neu gestaltete TV-Schnittstelle, die das Display im Speicher hielt. Jetzt ist der Apple II nicht nur für die einfache Textanzeige nützlich, sondern enthält auch Grafiken und schließlich Farbe. Während der Entwicklung des Apple II drängte Jobs auf ein gut gestaltetes Kunststoffgehäuse und eine eingebaute Tastatur, mit der Idee, dass das Gerät vollständig verpackt und sofort einsatzbereit sein sollte. [51] Dies war bei den Apple I-Computern fast der Fall, aber man musste immer noch verschiedene Teile zusammenstecken und den Code eingeben, um BASIC auszuführen. Jobs wollte, dass das Apple II-Gehäuse "einfach und elegant" ist, und beauftragte einen Industriedesigner namens Jerry Manock, ein solches Gehäusedesign zu produzieren. [51] Apple-Mitarbeiter #5 Rod Holt entwickelte das Schaltnetzteil. [52]

Während frühe Apple-II-Modelle gewöhnliche Kassetten als Speichergeräte verwenden, wurden sie 1978 durch die Einführung eines 5 + 1 ⁄ 4-Zoll-Diskettenlaufwerks und einer Schnittstelle namens Disk II abgelöst. [53] [54] Das Disk II-System wurde von Wozniak entwickelt und zu einem Verkaufspreis von 495 US-Dollar veröffentlicht. [53]

1979 wurde der Apple II als Desktop-Plattform für die erste "Killer-Anwendung" der Geschäftswelt ausgewählt: VisiCalc, eine Tabellenkalkulation. [53] So wichtig, dass der Apple II zu dem wurde, was John Markoff als "VisiCalc-Zubehör" bezeichnete, [55] schuf die Anwendung einen Geschäftsmarkt für den Computer und gab Heimanwendern einen zusätzlichen Kaufgrund: die Kompatibilität mit dem Büro. [53] Vor VisiCalc war Apple ein entfernter dritter Konkurrent von Commodore und Tandy. [56] [57]

Der Apple II war einer der drei "1977 Trinity"-Computer, denen allgemein die Schaffung des Heimcomputermarktes zugeschrieben wird (die anderen beiden sind der Commodore PET und der Tandy Corporation TRS-80). [58] Danach wurden eine Reihe verschiedener Modelle des Apple II gebaut, darunter der Apple IIe und Apple IIGS, [59], das fast zwei Jahrzehnte lang in der Öffentlichkeit verwendet wurde. Die Apple II-Serie verkaufte sich insgesamt etwa sechs Millionen Mal, bevor sie 1993 eingestellt wurde. [60] [61]

Apple III Bearbeiten

Während sich der Apple II dank VisiCalc bereits als erfolgreiche Business-Ready-Plattform etabliert hatte, war das Apple-Management nicht zufrieden. Der Apple III wurde entwickelt, um es mit der Geschäftsumgebung aufzunehmen, um mit IBM auf dem Markt für Geschäfts- und Unternehmenscomputer zu konkurrieren. [62] Während die Entwicklung des Apple III Ende 1978 unter der Leitung von Wendell Sander begann, [63] wurde die Maschine anschließend von einem Komitee unter der Leitung von Steve Jobs entwickelt. [64] Der Apple III wurde erstmals am 19. Mai 1980 mit einem Verkaufspreis von 4.340 bis 7.800 US-Dollar angekündigt und im November 1980 veröffentlicht. [64]

Der Apple III war ein relativ konservatives Design für Computer der damaligen Zeit. Jobs wollte jedoch nicht, dass der Computer einen Lüfter hat, sondern er wollte, dass die von der Elektronik erzeugte Wärme über das Chassis der Maschine abgeführt wird, ohne auf den Lüfter zu verzichten.

Das physikalische Design des Gehäuses reichte jedoch nicht aus, um die Komponenten im Inneren zu kühlen. Ohne Lüfter war der Apple III anfällig für Überhitzung. Dies führte dazu, dass sich die integrierten Schaltungschips von der Hauptplatine trennten. Kunden, die sich an den Apple-Kundendienst wandten, sollten „die Computer 15 Zentimeter in die Höhe heben und dann loslassen“, was dazu führen würde, dass die ICs wieder einrasten.

Tausende Apple-III-Computer wurden zurückgerufen. 1983 wurde ein neues Modell eingeführt, um die Probleme zu beheben, aber der Schaden war bereits angerichtet.

Apple IPO Bearbeiten

In der Juli-Ausgabe 1980 von Kilobaud Mikrocomputer, erklärte Herausgeber Wayne Green, dass "die besten Verbraucheranzeigen, die ich gesehen habe, die von Apple waren. Sie erregen Aufmerksamkeit und müssen zum Verkauf anregen." [65] Im August, die Financial Times berichtete, dass

Apple Computer, der schnell wachsende kalifornische Hersteller von Kleincomputern für den Verbraucher-, Geschäfts- und Bildungsmarkt, plant noch in diesem Jahr an die Börse zu gehen. [It] ist der größte private Hersteller von Kleincomputern in den USA. Vor rund fünf Jahren als kleiner Werkstattbetrieb gegründet, hat sich das Unternehmen nach dem Geschäftsbereich Radio Shack der Firma Tandy zum zweitgrößten Hersteller von Kleincomputern entwickelt. [66]

Am 12. Dezember 1980 ging Apple (Tickersymbol "AAPL") an die Börse und verkaufte 4,6 Millionen Aktien zu 22 US-Dollar pro Aktie (0,10 US-Dollar pro Aktie unter Berücksichtigung der Aktiensplits zum 30 über 100 Millionen US-Dollar, was mehr Kapital war als jeder Börsengang seit der Ford Motor Company im Jahr 1956. [68] Mehrere Risikokapitalgeber kassierten Gelder und erzielten langfristige Kapitalgewinne in Milliardenhöhe. Am Ende des Tages stieg die Aktie auf 29 US-Dollar pro Aktie und 300 Millionäre wurden geschaffen. [69] Die Marktkapitalisierung von Apple betrug am Ende des ersten Handelstages 1,778 Milliarden US-Dollar. [68] [69]

Im Januar 1981 hielt Apple seine erste Aktionärsversammlung als Aktiengesellschaft im Flint Center ab, einem großen Auditorium im nahe gelegenen De Anza College (das oft für Sinfoniekonzerte genutzt wird), um die größere Anzahl von Aktionären nach dem Börsengang zu behandeln. Die Tagesordnung war so geplant, dass die Abstimmung in maximal 15 Minuten durchgeführt werden konnte. In den meisten Fällen werden Stimmrechtsvollmachten per Post abgeholt und Tage oder Monate vor einer Sitzung gezählt. In diesem Fall waren nach dem Börsengang viele Aktien in neuen Händen.

Steve Jobs begann seine vorbereitete Rede, aber nachdem er mehrmals durch Abstimmungen unterbrochen wurde, ließ er seine vorbereitete Rede fallen und hielt einen langen, emotional aufgeladenen Vortrag über Verrat, Mangel an Respekt und verwandte Themen. [70]

Konkurrenz vom IBM PC Edit

Im August 1981 gehörte Apple zu den drei größten Mikrocomputer-Unternehmen, vielleicht nachdem es Radio Shack als Marktführer abgelöst hatte InfoWelt berichteten, dass der Mangel an Produktionskapazitäten das Wachstum hemme. [72] Aufgrund von VisiCalc kauften Unternehmen 90% der Apple IIs [73] [74] große Kunden bevorzugten Apple besonders. [75]

IBM trat in diesem Monat mit dem IBM PC [76] [77] in den PC-Markt ein, zum Teil, weil es keine Produkte ohne IBM-Logos auf den Schreibtischen der Kunden wollte, [78] aber Apple hatte viele Vorteile. Während IBM mit einem Mikrocomputer, wenig verfügbarer Hard- oder Software und ein paar hundert Händlern begann, hatte Apple fünfmal so viele Händler in den USA und ein etabliertes internationales Vertriebsnetz. Der Apple II hatte eine installierte Basis von mehr als 250.000 Kunden, und Hunderte von unabhängigen Entwicklern boten Software und Peripheriegeräte an, mindestens zehn Datenbanken und zehn Textverarbeitungsprogramme waren verfügbar, während der PC keine Datenbanken und ein Textverarbeitungsgerät hatte. [79]

Die Kunden des Unternehmens haben sich einen Ruf für Hingabe und Loyalität erworben. BYTE stellte 1984 fest, dass [80]

Es gibt zwei Arten von Menschen auf der Welt: Menschen, die sagen, Apple sei nicht nur ein Unternehmen, sondern eine Sache, und Leute, die sagen, Apple sei keine Sache, sondern nur ein Unternehmen. Beide Gruppen haben Recht. Die Natur hat das Prinzip der Widerspruchsfreiheit bei Apple außer Kraft gesetzt. Apple ist mehr als nur ein Unternehmen, denn seine Gründung hat einige der Qualitäten des Mythos. Apple ist zwei Jungs in einer Garage, die es sich zur Aufgabe gemacht haben, Rechenleistung, die einst großen Konzernen vorbehalten war, auch normalen Privatpersonen mit einem normalen Budget zur Verfügung zu stellen. Das Wachstum des Unternehmens von zwei Männern zu einem Milliarden-Dollar-Konzern ist ein Beispiel für den amerikanischen Traum. Auch als Großkonzern spielt Apple den David von IBMs Goliath und hat damit die sympathische Rolle in diesem Mythos.

Das Magazin stellte fest, dass die Loyalität nicht ganz positiv war, da Apple-Kunden bereit waren, echte Mängel in seinen Produkten zu übersehen, selbst wenn sie das Unternehmen mit einem höheren Standard als für die Konkurrenz vergleichen. [80] Der Apple III war ein Beispiel für seinen autokratischen Ruf unter den Händlern [75] den man als "Apple Arroganz" bezeichnete. [81] Nachdem Apple einen PC untersucht und für wenig beeindruckend gehalten hatte, kaufte Apple selbstbewusst eine ganzseitige Anzeige in Das Wall Street Journal mit der Überschrift "Willkommen, IBM. Ernsthaft". [82] [77] Das Unternehmen priorisierte den III drei Jahre lang und gab laut Wozniak 100 Millionen US-Dollar für Marketing und Forschung und Entwicklung aus, ohne den Apple II zu verbessern, um mit dem PC zu konkurrieren, da dies den Verkauf von III beeinträchtigen könnte. [74]

Microsoft-Chef Bill Gates war am Tag der Ankündigung von IBM in der Apple-Zentrale und sagte später: "Es schien ihnen egal zu sein. Es dauerte ein ganzes Jahr, bis sie realisierten, was passiert war." [77] Der PC beendete den Verkauf des III, des vergleichbarsten Produkts des Unternehmens, fast vollständig. Der II verkaufte sich immer noch gut, [78] aber 1983 übertraf ihn der PC als meistverkaufter Personal Computer. [83] IBM rekrutierte die besten Apple-Händler und vermied dabei den grauen Rabattmarkt, den sie nicht mochten. [78] Der Leiter einer Einzelhandelskette sagte: "Es scheint, dass IBM ein besseres Verständnis dafür hatte, warum der Apple II erfolgreich war als Apple". [75] Gene Amdahl sagte voraus, dass Apple ein weiteres der vielen "frechen jungen Unternehmen" sein würde, die IBM besiegt hatte. [84]

1984 nannte die Presse die beiden Unternehmen Erzrivalen, [85] aber IBM hatte einen jährlichen PC-Umsatz von 4 Milliarden US-Dollar, mehr als das Doppelte von Apple und so viel wie der Umsatz von Apple und den nächsten drei Unternehmen zusammen. [86] A Reichtum Umfrage ergab, dass 56 % der amerikanischen Unternehmen mit PCs IBM-PCs verwenden, verglichen mit 16 % bei Apple. [87] Kleine Unternehmen, Schulen und einige Häuser wurden zum Hauptmarkt des II. [73]

Xerox PARC und die Lisa-Bearbeitung

Der Geschäftsbereich von Apple Computer konzentrierte sich auf den Apple III, eine weitere Iteration des textbasierten Computers. Simultaneously the Lisa group worked on a new machine that would feature a completely different interface and introduce the words mouse, icon, und desktop into the lexicon of the computing public. In return for the right to buy US$1,000,000 of pre-IPO stock, Xerox granted Apple Computer three days access to the PARC facilities. After visiting PARC, they came away with new ideas that would complete the foundation for Apple Computer's first GUI computer, the Apple Lisa. [88] [89] [90] [91]

The first iteration of Apple's WIMP interface was a floppy disk where files could be spatially moved around. After months of usability testing, Apple designed the Lisa interface of windows and icons.

The Lisa was introduced in 1983 at a cost of US$9,995 (equivalent to $26,000 in 2020). Because of the high price, Lisa failed to penetrate the business market.

Macintosh and the "1984" commercial Edit

By 1984 computer dealers saw Apple as the only clear alternative to IBM's influence [92] some even promoted its products to reduce dependence on the PC. [78] The company announced the Macintosh 128k to the press in October 1983, followed by an 18-page brochure included with magazines in December. [93] Its debut, however, was announced by a single national broadcast of a US$1.5 million television commercial, "1984" (equivalent to $3,700,000 in 2020). It was directed by Ridley Scott, aired during the third quarter of Super Bowl XVIII on January 22, 1984, [94] and is now considered a "watershed event" [95] and a "masterpiece." [96] 1984 used an unnamed heroine to represent the coming of the Macintosh (indicated by her white tank top with a Picasso-style picture of Apple's Macintosh computer on it) as a means of saving humanity from "conformity" (Big Brother). [97] These images were an allusion to George Orwell's noted novel, Neunzehnhundertvierundachtzig, which described a dystopian future ruled by a televised "Big Brother." The commercial ended with the words: "On January 24th, Apple Computer will introduce Macintosh. And you'll see why 1984 won't be like 1984.” [98]

On January 24, 1984, the Macintosh went on sale with a retail price of $2,495. [99] [100] It came bundled with two applications designed to show off its interface: MacWrite and MacPaint. On the same day, an emotional Jobs introduced the computer to a wildly enthusiastic audience at Apple's annual shareholders meeting held in the Flint Auditorium [101] [102] Macintosh engineer Andy Hertzfeld described the scene as "pandemonium". [103] Jobs had directed the development of the Macintosh since 1981, when he took over the project from early Apple employee Jef Raskin, who conceived the computer [104] [105] (Wozniak, who had crucial influence over the initial design and development of the program with Raskin, was on leave during this time due to an airplane crash earlier that year). [106] [107] The Macintosh was based on The Lisa (and Xerox PARC's mouse-driven graphical user interface), [108] [109] and it was widely acclaimed by the media with strong initial sales supporting it. [110] [111] However, the computer's slow processing speed and limited range of available software led to a rapid sales decline in the second half of 1984. [110] [111] [112]

The Macintosh was too radical for some, who labeled it a mere "toy". Because the machine was entirely designed around the GUI, existing text-mode and command-driven applications had to be redesigned and the programming code rewritten this was a challenging undertaking that many software developers shied away from, and resulted in an initial lack of software for the new system. In April 1984 Microsoft's MultiPlan migrated over from MS-DOS, followed by Microsoft Word in January 1985. [113] In 1985, Lotus Software introduced Lotus Jazz after the success of Lotus 1-2-3 for the IBM PC, although it was largely a flop. [114] Apple introduced Macintosh Office the same year with the lemmings ad, infamous for insulting potential customers. It was not successful. [115]

For a special post-election edition of Nachrichtenwoche in November 1984, Apple spent more than US$2.5 million to buy all 39 of the advertising pages in the issue. [116] Apple also ran a "Test Drive a Macintosh" promotion, in which potential buyers with a credit card could take home a Macintosh for 24 hours and return it to a dealer afterwards. While 200,000 people participated, dealers disliked the promotion, the supply of computers was insufficient for demand, and many were returned in such a bad shape that they could no longer be sold. This marketing campaign caused CEO John Sculley to raise the price from US$1,995 (equivalent to $5,000 in 2020) to US$2,495 (equivalent to $6,200 in 2020). [115] The Macintosh also spawned the concept of Mac evangelism, which was pioneered by Apple employee, and later Apple Fellow, Guy Kawasaki. [ Zitat benötigt ]

1985: Jobs and Wozniak leave Apple Edit

By early 1985, the Macintosh's failure to defeat the IBM PC became clear. [110] [111] This triggered a power struggle between Steve Jobs and CEO John Sculley, who had been hired two years earlier by Jobs [117] [118] using the famous line, "Do you want to sell sugar water for the rest of your life or come with me and change the world?" [119] Sculley and Jobs' visions for the company greatly differed. The former favored open architecture computers like the Apple II, sold to education, small business, and home markets less vulnerable to IBM. Jobs wanted the company to focus on the closed architecture Macintosh as a business alternative to the IBM PC. President and CEO Sculley had little control over Chairman of the Board Jobs' Macintosh division it and the Apple II division operated like separate companies, duplicating services. [120] Although its products provided 85% of Apple's sales in early 1985, the company's January 1985 annual meeting did not mention the Apple II division or employees. This frustrated Wozniak, who left active employment at Apple early that same year to pursue other ventures, stating that the company had "been going in the wrong direction for the last five years" and sold most of his stock. [121] [122] [123] Despite these grievances, Wozniak left the company amicably and as of January 2018 continues to represent Apple at events or in interviews, [122] receiving a stipend over the years for this role estimated in 2006 to be $120,000 per year. [124]

In April 1985, Sculley decided to remove Jobs as the general manager of the Macintosh division, and gained unanimous support from the Apple board of directors. [125] [117] Rather than submit to Sculley's direction, Jobs attempted to oust him from his leadership role at Apple. [126] Informed by Jean-Louis Gassée, Sculley found out that Jobs had been attempting to organize a coup and called an emergency executive meeting at which Apple's executive staff sided with Sculley and stripped Jobs of all operational duties. [126]

Jobs, while taking the position of Chairman of the firm, had no influence over Apple's direction and subsequently resigned from Apple in September 1985 and took a number of capable Apple employees with him to found NeXT Inc. [127] In a show of defiance at being set aside by Apple Computer, Jobs sold all but one of his 6.5 million shares in the company for $70 million. Jobs then acquired the visual effects house, Pixar for $5M (equivalent to $11,800,000 in 2020). NeXT Inc. would build computers with futuristic designs and the UNIX-derived NEXTSTEP operating system. NeXTSTEP would eventually be developed into Mac OS X. While not a commercial success, due in part to its high price, the NeXT computer would introduce important concepts to the history of the personal computer (including serving as the initial platform for Tim Berners-Lee as he was developing the World Wide Web). [128]

Sculley reorganized the company, unifying sales and marketing in one division and product operations and development in another. [129] [120] Despite initial marketing difficulties, the Macintosh brand was eventually a success for Apple. This was due to its introduction of desktop publishing (and later computer animation) through Apple's partnership with Adobe Systems, which introduced the laser printer and Adobe PageMaker. Indeed, the Macintosh would become known as the de facto platform for many industries including cinema, music, advertising, publishing, and the arts.


Who All Contributed To The Invention Of Computer?

There are also many computer scientists who have contributed to the creation of computers. Among them are the authors of the C programming language, the creators of the UNIX operating system, the authors of the ‘Unix kernel’, and many more.

The question, “Who invented the computer scientist?” gets very vague. It involves lots of different people with different areas of expertise, and that leads to a lot of question marks.

We can get a little closer to answering this question, by looking at the history of a person’s system. One example is that of Howard Garth, the inventor of UNIX, the predecessor of the UNIX operating system. We know that Garth came up with the idea of making a single operating system that would run all of the computers at a company.

That way, all of the machines would share the same program, and there wouldn’t be any duplication. Garth built a system that he claimed was unique. That’s the reason he became famous – he did something nobody else had done before.


1835-1900s: first programmable machines

The defining feature of a "universal computer" is programmability, which allows the computer to emulate any other calculating machine by changing a stored sequence of instructions.

In 1835 Charles Babbage described his analytical engine. It was the plan of a general-purpose programmable computer, employing punch cards for input and a steam engine for power. One crucial invention was to use gears for the function served by the beads of an abacus. In a real sense, computers all contain automatic abacuses (technically called the ALU or floating-point unit).

His initial idea was to use punch-cards to control a machine that could calculate and print logarithmic tables with huge precision (a specific purpose machine). Babbage's idea soon developed into a general-purpose programmable computer, his analytical engine.

While his design was sound and the plans were probably correct, or at least debuggable, the project was slowed by various problems. Babbage was a difficult man to work with and argued with anyone who didn't respect his ideas. All the parts for his machine had to be made by hand and small errors in each item were summed up as huge discrepancies in a machine with thousands of parts. The project dissolved over disputes with the artisan who built parts and was ended with the depletion of government funding.

Ada Lovelace, Lord Byron's daughter, translated and added notes to the "Sketch of the Analytical Engine" by Federico Luigi, Conte Menabrea. She has become closely associated with Babbage. Some claim she is the world's first computer programmer, however this claim and the value of her other contributions are disputed by many.

A reconstruction of the Difference Engine II, an earlier, more limited design, has been operational since 1991 at the London Science Museum. With a few trivial changes, it works as Babbage designed it and shows that Babbage was right in theory.

Augusta Ada King, Countess of Lovelace

Following in the footsteps of Babbage, although unaware of his earlier work, was Percy Ludgate, an accountant from Dublin, Ireland. He independently designed a programmable mechanical computer, which he described in a work that was published in 1909.


Famous Inventors and their Inventions

Charles Babbage: The Analytical Engine

Sie möchten für uns schreiben? Nun, wir suchen gute Autoren, die das Wort verbreiten wollen. Melde dich bei uns und wir reden.

He is considered as the “Father of the Computer,” who invented an analytical engine in 1822. However, he couldn’t actually build the analytical engine, but was only able to present it theoretically. His unfinished work was completed by scientists in 1930. His concept of analytical engine was quite similar to the concepts of modern-day computers that include subroutines and input devices. It certainly laid the foundation of modern-day computers.

Alan Turing: The Turing Machine

Although, he did not design any computer, Alan Turing, an English mathematician and computer scientist has been one of the most influential personalities in the field of computer science. He provided a platform for formulating the basic concept of algorithm and destined the Turing machine, that was able to test the intelligence of a machine. In fact, he pioneered in the field of artificial intelligence. Today’s, CAPTCHA code test on Internet and computers has evolved from Turing’s ideas.

Konrad Zuse: The Z Series Computers

The German engineer, Konrad Zuse, in 1936, invented the first electrical binary programmable computer – the Z1, Z2, and Z3 were also introduced by Zuse in 1939 and 1941 respectively. Unfortunately, Zuse’s efforts were destroyed during second world war.

John Vincent Atanasoff & Clifford Berry: Atanasoff-Berry Computer (ABC)

Developed in the war phase of 1942, Atanasoff-Berry Computer (ABC) was the world’s first fully electronic digital computer. Its inventors, John Vincent Atanasoff & Clifford Berry shared the relationship of a professor and a student. John was an America electronics engineer while Clifford his student.

The US Army: ENIAC

Financed by the US army and developed by scientists John Presper Eckert & John W. Mauchly, in 1946, the Electronic Numerical Integrator and Computer (ENIAC) is considered to be the first mainstream digital computer ever made. In fact ABC and ENIAC fought a legal battle till 1973, when ABC was finally declared to be the 1st digital computer. ENIAC was mainly built for US army research laboratory.

Gordon Bell and Ken Olson: PDP (Programmed Data Processor)

They invented the PDP in the year 1960s. Gordon Bell designed the i/o system of the PDP-1. With time, there have been several versions of this machine, i.e., PDP-4, PDP-5, PDP-6,and PDP-11. As a part of the DEC (Digital Equipment Corporation), Gordon Bell later designed the VAX, which is DEC’s best computer.

What followed in years after 1950 is an amazing history of computer development. Further developments in the computer field led to the invention of transistor (by John Bardeen, Walter Brattain & Wiliam Shockley in 1956), integrated circuits (1959) and the computer processors by the iconic Intel. Then came the brilliant Bill Gates and the legendary Steve Jobs who changed the computer history.

In fact, internet history is also an integral part of the history of computer development as both can only coexist. You must have realized after reading this article that it is quite difficult to name any person for all computer growth. Computer development saga, in essence, is a magnificent example of impressive developments through re-invention, research, and innovation.

Zusammenhängende Posts

Once you have figured out how to adjust your computer's display, you can add a personalized touch to your monitor's appearance. There are 5 main tabs that will help you&hellip

A computer server is used in almost every organization, school, etc. However, very few people know what exactly it is. This article will give you all the basics of computer&hellip

Often paid less attention to, a keyboard is one of the most important accessories of a computer, and should be bought while keeping certain tips in mind. Find these tips&hellip


Who Invented the First Computer?

Do you think Bill Gates invented the first computer? The reality is that computers were on the scene well before you think they were. The first computer was invented by Charles Babbage in 1838.

Babbage developed a mechanical calculator that had a simple storage mechanism and called it the Difference Engine in 1822. The device used punch cards to input instructions to the device steam engine as its source of power. The machine worked well to compute different numbers and make copies of the results that people could have in-hand. Although the device performed calculations well and even provided hard copies of its output, Charles Babbage lacked funds to develop a fully functional and complete device. Together with Ada Lovelace, considered by many as the first computer programmer, Babbage later developed another general purpose device and called it the Analytical Engine. This more advanced device had memory, flow control and an Arithmetic and Logic Unit. For his contributions to early computer science, he's often hailed as the father of computers.

What Happened to the Difference Machine?
Babbage's lack of funds shelved the difference machine until 1991 when London's Science Museum built it from Babbage's plans. The device worked, but it could only perform the most basic calculations. Additionally, it couldn't check the results, and it couldn't make any changes. The plans for the Analytical Engine weren't complete. The inventor's plans were a work in progress. If scientists are ever able to complete the plans and build the Analytical Engine, the machine may indeed prove the assertion that Babbage is the father of modern computing.

What About Alan Turing?
Alan Turing was a Ph.D. student attending Princeton University in 1936 when he published, On Computable Numbers, with an application to the Entscheidungsproblem. This paper is widely credited as the corner stone of computer science. Turing's hypothetical problem solving machine could solve any and every problem for which people could write a program. At the time, people performed the actions of computers. They did all the engineering calculations and compiled tables, all of which was at an extreme shortage during the early days of World War II. With the need for military calculations at an all time high, the United States built a 50-foot machine, the Harvard Mark 1, which could do complex calculations that took people hours in a matter of seconds. Turing designed a machine, the Bombe, that enabled the British to read the traffic coming from the German Navy, a contribution that Eisenhower later said may have shaved two years off the war. Turing continued his involvement in these very early computers, and he later envisioned computers becoming more powerful with artificial intelligence (AI) becoming a reality. To help distinguish between computer and AI, he developed the Turing Test.

The Dawn of the PC
The earliest computers were huge. An entire team of specialists were devoted to keeping them running. After World War II, one of the most important inventions came to market. The microprocessor, which was developed by Ted Hoff, an Intel engineer in 1971, paved the way for those huge early computers to shrink down. And the personal computer (PC) was soon born. The Altair was a PC kit debuted in 1974 from company Micro Instrumentation and Telemetry Systems. It wasn't until Harvard students Bill Gates and Paul G. Allen invented BASIC programming that the PC became easier to use. The duo took the money they earned from the endeavor to form their own company: Microsoft.


1900 to 1945

IBM&rsquos tabulating machines were so advanced in the 1920s that newspapers such as the New Yorker Welt described them as &ldquosuper computers&rdquo. In 1941, Konrad Zuse invented the Z3, which was the first programmable calculator. This device used the binary system as opposed to the decimal system that was used in earlier calculators. The binary system played a pivotal role in the future design of computers. Almost at the same time, American Howard Aiken and several IBM engineers constructed a large automatic digital computer called Harvard Mark I.


Invention of the PC - HISTORY

We have gone from the vacuum tube to the transistor, to the microchip. Then the microchip started talking to the modem. Now we exchange text, sound, photos and movies in a digital environment.

Computing milestones and machine evolution:

  • 14th C. - Abacus - an instrument for performing calculations by sliding counters along rods or in grooves (graphic: Merriam Webster Collegiate Dictionary http://www.m-w.com/mw/art/abacus.htm)
  • 17th C. - Slide rule - a manual device used for calculation that consists in its simple form of a ruler and a movable middle piece which are graduated with similar logarithmic scales (Picture from the The Museum of HP Calculators)
  • 1642 - Pascaline--a mechanical calculator built by Blaise Pascal, a 17th century mathematician, for whom the Pascal computer programming language was named .
  • 1804 - Jacquard loom - a loom programmed with punched cards invented by Joseph Marie Jacquard
  • ca 1850 - Difference Engine , Analytical Engine - Charles Babbage and Ada Byron (See her picture.). Babbage's description, in 1837, of the Analytical Engine, a hand cranked, mechanical digital computer anticipated virtually every aspect of present-day computers. It wasn't until over a 100 years later that another all purpose computer was conceived. Sketch of the Engine and notes by Ada Byron King, Countess of Lovelace.
  • 1939 -1942 - Atanasoff Berry Computer - built at Iowa State by Prof. John V. Atanasoff and graduate student Clifford Berry. Represented several "firsts" in computing, including a binary system of of arithmetic, parallel processing, regenerative memory, separation of memory and computing functions, and more. Weighed 750 lbs. and had a memory storage of 3,000 bits (0.4K). Recorded numbers by scorching marks into cards as it worked through a problem. See diagram.
  • 1940s - Colossus - a vacuum tube computing machine which broke Hitler's codes during WW II. It was instrumental in helping Turing break the German's codes during WW II to turn the tide of the war. In the summer of 1939, a small group of scholars became codebreakers, working at Bletchley Part in England. This group of pioneering codebreakers helped shorten the war and changed the course of history. See the the Bletchley Park Web site and its history. See more information on Codes and Ciphers in the Second World War at Tony Sales' site.
  • 1946 - ENIAC - World's first electronic, large scale, general-purpose computer, built by Mauchly and Eckert, and activated at the University of Pennsylvania in 1946. ENIAC recreated on a modern computer chip. See an explanation of ENIAC on a Chip by the Moore School of Electrical Engineering, University of Pennsylvania. The ENIAC is a 30 ton machine that measured 50 x 30 feet. It contained 19,000 vacuum tubes, 6000 switches, and could add 5,000 numbers in a second, a remarkable accomplishment at the time. A reprogrammable machine, the ENIAC performed initial calculations for the H-bomb. It was also used to prepare artillery shell trajectory tables and perform other military and scientific calculations. Since there was no software to reprogram the computer, people had to rewire it to get it to perform different functions. The human programmers had to read wiring diagrams and know what each switch did. J. Presper Eckert, Jr. and John W. Mauchly drew on Alansoff's work to create the ENIAC, the Electronic Numerical Integrator and Computer.
  • 1951-1959 - vacuum tube based technology. Vacuum Tubes are electronic devices, consisting of a glass or steel vacuum envelope and two or more electrodes between which electrons can move freely. First commercial computers used vacuum tubes: Univac, IBM 701.
  • 1950s -1960s - UNIVAC - "punch card technology" The first commercially successful computer, introduced in 1951 by Remington Rand. Over 40 systems were sold. Its memory was made of mercury filled acoustic delay lines that held 1,000 12 digit numbers. It used magnetic tapes that stored 1MB of data at a density of 128 cpi. UNIVAC became synonymous with computer (for a while). See UNIVAC photo . See UNIVAC flow chart
  • 1960 IBM 1620 - See photos at The Computer History Museum.
  • 1960-1968 - transistor based technology. The transistor, invented in 1948, by Dr. John Bardeen, Dr. Walter Brattain, and Dr. William Shockley . It almost completely replaced the vacuum tube because of its reduced cost, weight, and power consumption and its higher reliability. See explanation and diagram of a transistor and what the first transistor looked like. The transistor is made to alter its state from a starting condition of conductivity (switched 'on', full current flow) to a final condition of insulation (switched 'off', no current flow).
  • 1969 - The Internet, originally the ARPAnet (Advanced Research Projects Agency network), began as a military computer network.
  • 1969-1977 - integrated circuits (IC) based technology. The first integrated circuit was demonstrated by Texas Instruments inventor, Jack Kilby, in 1958. It was 7/16" wide and contained two transistors. Examples of early integrated circuit technology: Intel 4004, Dec pdp 8, CRAY 1 (1976) - a 75MHz, 64-bit machine with a peak speed of 160 megaflops, (One million floating point operations per second) the world's fastest processor at that time. Now circuits may contain hundreds of thousands of transistors on a small piece of material, which revolutionized computing. Here is a diagram of a modern integrated circuit, known as a chip.
  • 1976 - CRAY 1 - The world's first electronic digital computer, developed in 1946. A 75MHz, 64-bit machine with a peak speed of 160 megaflops, (one million floating point operations per second) the world's fastest processor at that time.
  • 1976 - Apples/MACs - The Apple was designed by Steve Wozniak and Steve Jobs. Apple was the first to have a "windows" type graphical interface and the computer mouse. Like modern computers, early Apples had a peripheral keyboard and mouse, and had a floppy drive that held 3.5" disks.The Macintosh replaced the Apple. See a picture of the The Apple III (1980 - 1985).
  • 1978 to 1986 - large scale integration (LSI) Alto - early workstation with mouse Apple, designed by Steve Wozniak and Steve Jobs. Apple was the first to have a "windows" type graphical interface and the computer mouse. See Apple/MACs evolution over time. The PC and clone market begins to expand. This begins first mass market of desktop computers.
  • 1986 to today - the age of the networked computing, the Internet, and the WWW.
  • 1990 - Tim Berners-Lee invented the networked hypertext system called the World Wide Web.
  • 1992 - Bill Gates' Microsoft Corp. released Windows 3.1, an operating system that made IBM and IBM-compatible PCs more user-friendly by integrating a graphical user interface into the software. In replacing the old Windows command-line system, however, Microsoft created a program similar to the Macintosh operating system. Apple sued for copyright infringement, but Microsoft prevailed. Windows 3.1 went to Win 95, then Win 98, now Windows XP . (There are other OSs, of course, but Windows is the dominant OS today. MACs, by Apple, still have a faithful following. Linux has a faithful following.
  • 1995 - large commercial Internet service providers (ISPs), such as MCI, Sprint , AOL and UUNET, began offering service to large number of customers.
  • 1996 - Personal Digital Assistants (such as the Palm Pilot became available to consumers. They can do numeric calculations, play games and music and download information from the Internet. See How Stuff Works for a history and details.
    back to top

Charles Babbage (1792-1871) - Difference Engine, Analytical Engine. Ada Byron, daughter of the poet, Lord Byron, worked with him. His description, in 1837, of the Analytical Engine, a mechanical digital computer anticipated virtually every aspect of present-day computers. Sketch of the Engine and notes by Ada Byron King, Countess of Lovelace.

Alan Turing -- 1912-1954. British Codebreaker. Worked on the Colossus (code breaking machine, precursor to the computer) and the ACE (Automatic Computing Engine). Noted for many brilliant ideas, Turing is perhaps best remembered for the concepts of the Turing Test for Artificial Intelligence and the Turing Machine, an abstract model for modeling computer operations. The Turing Test is the "acid test" of true artificial intelligence, as defined by the English scientist Alan Turing. In the 1940s, he said "a machine has artificial intelligence when there is no discernible difference between the conversation generated by the machine and that of an intelligent person." Turing was instrumental in breaking the German enigma code during WWII with his Bombe computing machine. The Enigma is a machine used by the Germans to create encrypted messages. See Turing's Treatise on Enigma.

More Information about the Enigma machine.

J. von Neumann -- (1903-1957). A child prodigy in mathematics, authored landmark paper explaining how programs could be stored as data. (Unlike ENIAC, which had to be re-wired to be re-programmed.). Virtually all computers today, from toys to supercomputers costing millions of dollars, are variations on the computer architecture that John von Neumann created on the foundation of the work of Alan Turing's work in the 1940s. It included three components used by most computers today: a CPU a slow-to-access storage area, like a hard drive and secondary fast-access memory (RAM ). The machine stored instructions as binary values (creating the stored program concept) and executed instructions sequentially - the processor fetched instructions one at a time and processed them. The instruction is analyzed, data is processed, the next instruction is analyzed, etc. Today "von Neumann architecture" often refers to the sequential nature of computers based on this model. See another von Neumann source.

John V. Atanasoff -- (1904 - 1995) - one of the contenders, along with Konrad Zuse and H. Edward Roberts and others, as the inventor of the first computer. The limited-function vacuum-tube device had limited capabilities and did not have a central. It was not programmable, but could solve differential equations using binary arithmetic. Atanasoff's Computer.

J. Presper Eckert, Jr. and John W. Mauchly completed the first programmed general purpose electronic digital computer in 1946. They drew on Alansoff's work to create the ENIAC, the Electronic Numerical Integrator and Computer. In 1973 a patent lawsuit resulted in John V. Atanasoff's being legally declared as the inventor. Though Atanasoff got legal status for his achievement, many historians still give credit to J. Presper Eckert, Jr., and John W. Mauchly the founding fathers of the modern computer. Eckert and Mauchly formed the first computer company in 1946. Eckert received 87 patents. They introduced the first modern binany computer with the Binary Automatic Computer (BINAC), which stored information on magnetic tape rather than punched cards. Their UNIVAC I ,was built for the U.S. Census Bureau. Their company was acquired by by Remington Rand, which merged into the Sperry Rand Corp. and then into Unisys Corp. Eckert retired from Unisys in 1989.

Konrad Zuse-- (1910-1995) German who, during WW II, designed mechanical and electromechanical computers. Zuse's Z1, his contender for the first freely programmable computer, contained all the basic components of a modern computer (control unit, memory, micro sequences, etc.). Zuse, because of the scarcity of material during WW II, used discarded video film as punch cards. Like a modern computer, it was adaptable for different purposes and used on/off switch relays, a binary system of 1s and 0s (on = 1, off = 0). Completed in 1938, it was destroyed in the bombardment of Berlin in WW II, along with the construction plans. In 1986, Zuse reconstructed the Z1.

H. Edward Roberts -- developed the MITS Altair 8800 in 1975. The Altair is considered by some to be the first microcomputer (personal computer)., The MITS Altair 8800 was based on a 2 MHz Intel 8080 chip, with 256 bytes, standard RAM. It was developed a year before the first Apple, by Steve Wozniak and Steve Jobs, came out. Paul Allen and Bill Gates (then a student at Harvard) wrote a scaled down version of the Basic programming language to run on the Altair , which was the beginning of Microsoft.

See details about the MITS Altair 8800 at the Computer Museum of America (http://www.computer-museum.org/collections/mits8800.html)

We can't talk about computers without mentioning:

The Birth of the Internet

The Internet, originally the ARPAnet (Advanced Research Projects Agency network), began as a military computer network in 1969. This network was an experimental project of the U.S. Department of Defense Advanced Research Projects Agency (DARPA).Other government agencies and universities created internal networks based on the ARPAnet model. The catalyst for the Internet today was provided by the National Science Foundation (NSF). Rather than have a physical communications connection from each institution to a supercomputing center, the NSF began a "chain" of connections in which institutions would be connected to their "neighbor" computing centers, which all tied into central supercomputing centers. This beginning expanded to a global network of computer networks, which allows computers all over the world to communicate with one another and share information stored at various computer "servers," either on a local computer or a computer located anywhere in the world. In 1986, came the birth of the National Science Foundation Network (NSFNET), which scientists across the country with five supercomputer centers. Universities were early users of the Internet. In 1992, the Internet was still primarily used by researchers and academics. In 1995, large commercial Internet service providers (ISPs), such as MCI, Sprint , AOL and UUNET, began offering service to large number of customers.

The Internet now links thousands of computer networks, reaching people all over the world. See this Atlas of Cyberspaces for graphical images of networks in cyberspace.

Since traffic on the Internet has become so heavy, some of the scientific and academic institutions that formed the original Internet developed a new global network called Internet 2. Known as the Abilene Project, and running on fast fiber-optic cable, it officially opened for business in February, 1999 at a ceremony in Washington, D.C.

George Mason University is one of 150 universities in the United States that are working on the Internet 2 project with industry through the University Corporation for Advanced Internet Development (UCAID) to improve the functionality and capabilities of the Internet. The network's 2.4 gigabit-per-second speed started with a transmission speed of 45,000 faster than a 56K modem.

1990 - Tim Berners-Lee, currently the director of the World Wide Web Consortium, the coordinating body for Web development, invented the World Wide Web. He occupies the 3Com Founders chair at the MIT Laboratory for Computer Science. The WWW was originally conceived and developed for the high-energy physics collaborations, which require instantaneous information sharing between physicists working in different universities and institutes all over the world. Now the WWW is used by people all over the world, children and adults, for personal, commercial, and academic uses. Berners-Lee and Robert Cailliau wrote the first WWW client and server software, defining Web addresses (URLs), hypertext transfer protocol (http) and hypertext markup language (html). Here is Tim Berners-Lee's original proposal to attempt to persuade CERN management to initiate a global hypertext system, which Berners-Lee called "Mesh" before he decided on the name "World Wide Web" when writing the code in 1990. In December 1993, Berners-Lee and Cailliau, along with Marc Andreesen and E. Bina of NCSA, shared the Association for Computing (ACM) Software System Award for developing the World-Wide Web. The graphical Web browser, Mosaic, evolved into Netscape.

The WWW is based on the hypertext protocol.

See CERN's overview of the WWW (What it is and its progress).

The ease of using the World Wide Web has made it easier for people to connect with one another, overcoming the obstacles of time and space. This networking has spawned numerous virtual communities and cybercultures. See this list of resources on cybercultures. The WWW has also become a convenient way to buy and sell services and goods.

The Internet and WWW do not come without ethical and legal ramifications, such as copyright infringement, computer spying and hacking, computer viruses, fraud, and privacy issues. See links to computer Ethics, Laws, Privacy Issues. Also see Internet copyright resources.

What's next?? - something interesting to ponder: Nanotechnology - K. Eric Drexler is the founding father of nanotechnology, the idea of using individual atoms and molecules to build living and mechanical "things" in miniature factories. His vision is that if scientists can engineer DNA on a molecular, why can't we build machines out of atoms and program them to build more machines? The requirement for low cost creates an interest in these "self replicating manufacturing systems," studied by von Neumann in the 1940's. These "nanorobots, " programmed by miniature computers smaller than the human cell, could go through the bloodstream curing disease, perform surgery, etc. If this technology comes about the barriers between engineered and living systems may be broken. Researchers at various institutions and organizations, like NASA and Xerox, are working on this technology.


Some of the Many Women Pioneers in Computing:

Ada Byron King - Portrait .Countess of Lovelace and daughter of the British poet, Lord Byron (1815-1852). - Ada was a mathematician and wrote extensive notes on Charles Babbage's calculating machine and suggested how the engine might calculate Bernoulli numbers. This plan, is now regarded as the first "computer program."Sketch of the Engine and notes by Ada Byron King, Countess of Lovelace. A software language developed by the U.S. Department of Defense was named "Ada" in her honor in 1979.

Edith Clarke (1883-1959) - At MIT, in June 1919, Clarke received the first Electrical Engineering degree awarded to a woman . She developed and disseminated mathematical methods that simplified calculations and reduced the time spent in solving problems in the design and operation of electrical power systems.

Grace Murray Hopper (1906-1992) - Hopper earned an MA in 1930 and a Ph.D. in 1934 in Mathematics, from Yale University. She retired from the Navy in 1967 with the rank of Rear Admiral. Hopper created a compiler system that translated mathematical code into machine language. Later versions, under her direction, the compiler became the forerunner to modern programming languages. She pioneered the integration of English into programs with the FLOW-MATIC. Hopper received the Computer Sciences "Man of The Year Award" in 1969. She was the first woman to be inducted into the Distinguished Fellow British Computer Society in 1973. The term "bug," an error or defect in software that causes a program to malfunction, originated, according to computer folklore, when Grace and her team found a dead moth that had been "zapped" by the relay and caused the device to fail.

Erna Hoover - invented a computerized switching system for telephone traffic. For this achievement, she was awarded the first software patent ever issued (Patent #3,623,007) on Nov. 23, 1971). She was the first female supervisor of a technical department (at Bell Labs).

Kay McNulty Mauchly Antonelli and Alice Burks - made calculations for tables of firing and bombing trajectories, as part of the war effort. This work prompted the development, in 1946, of the ENIAC, the world's first electronic digital computer.

Adele Goldstine - assisted in the creation of the ENIAC and wrote the manual to use it.

Joan Margaret Winters - scientific programmer in SLAC Computing Services at the Stanford Linear Accelerator Center, among other achievements.

Alexandra Illmer Forsythe (1918-1980) - .During the 1960's and 1970's, she co-authored a series of textbooks on computer science. She wrote the first computer science textbook.

Evelyn Boyd Granville - was one of the first African American women to earn a Ph.D. in Mathematics. During her career, she developed computer programs that were used for trajectory analysis in the Mercury Project (the first U.S. manned mission in space) and in the Apollo Project (which sent U.S. astronauts to the moon).

Timelines:
Computer History Time Line
Timeline of Events in Computer History
Computer Museums/History Sites:
Generations Through the History of Computing - Take a tour of companies and computers have led us to where we are today.
Triumph of the Nerds Online - companion to the PBS series
The Machine that Changed the World - companion Web site to video series (The book that accompanied the "Machine that Changed the World series: The Dream Machine: Exploring the Computer Age. Jon Palfreman and Doron Swade. BBC Books, London, 1991)
The Ada Project
UVA Computer Museum
VA Tech History of Computers


Schau das Video: Die Geschichte des PCs 4 Stunden HD (Kann 2022).