Przed erą elektroniki najbliższym komputerem był liczydło, chociaż ściśle mówiąc, liczydło jest tak naprawdę kalkulatorem, ponieważ wymaga człowieka. Z drugiej strony komputery wykonują obliczenia automatycznie, wykonując szereg wbudowanych poleceń zwanych oprogramowaniem.
W 20th stulecia przełom w technologii pozwolił na nieustannie ewoluujące maszyny komputerowe, od których tak całkowicie polegamy, praktycznie nigdy nie zastanawiamy się nad nimi. Ale nawet przed pojawieniem się mikroprocesorów i superkomputery, byli pewni wybitni naukowcy i wynalazcy, którzy pomogli położyć podwaliny pod technologię, która odtąd radykalnie zmieniła każdy aspekt współczesnego życia.
Język przed sprzętem
Uniwersalny język, w którym komputery wykonują instrukcje procesora, powstał w XVII wieku w formie binarnego systemu numerycznego. Opracowany przez niemieckiego filozofa i matematyka Gottfried Wilhelm Leibniz, system powstał jako sposób na przedstawianie liczb dziesiętnych za pomocą tylko dwóch cyfr: cyfry zero i cyfry jeden. System Leibniza został częściowo zainspirowany filozoficznymi objaśnieniami w klasycznym tekście chińskim „Ja Ching ”, co wyjaśniało wszechświat w kategoriach dualności, takich jak światło i ciemność oraz mężczyzna i Płeć żeńska. Chociaż w tamtym czasie jego nowo skodyfikowany system nie miał praktycznego zastosowania, Leibniz uważał, że pewnego dnia maszyna może skorzystać z długich ciągów liczb binarnych.
W 1847 roku angielski matematyk George Boole przedstawił nowo opracowanego język algebraiczny zbudowany na pracach Leibniza. Jego „Algebra boolowska” była w rzeczywistości układem logicznym, w którym równania matematyczne służyły do przedstawiania instrukcji w logice. Równie ważne było to, że zastosował podejście binarne, w którym związek między różnymi wielkościami matematycznymi byłby albo prawdziwy, albo fałszywy, 0 lub 1.
Podobnie jak w przypadku Leibniza, nie było wówczas oczywistych zastosowań algebry Boole'a, jednak matematyk Charles Sanders Pierce spędził dekady na rozbudowie systemu, aw 1886 r. ustalił, że obliczenia można przeprowadzić za pomocą przełączania elektrycznego obwody W rezultacie logika logiczna stała się w końcu instrumentalna w projektowaniu komputerów elektronicznych.
Najwcześniejsze procesory
Angielski matematyk Charles Babbage przypisuje się, że zmontował pierwsze komputery mechaniczne - przynajmniej technicznie. Jego maszyny z początku XIX wieku zawierały sposób wprowadzania liczb, pamięci i procesora, a także sposób generowania wyników. Babbage nazwał swoją pierwszą próbę zbudowania pierwszej na świecie maszyny komputerowej „silnikiem różnic”. Projekt wymagał maszyny, która oblicza wartości i automatycznie drukuje wyniki na stół. Miał być ręcznie obrócony i ważyłby cztery tony. Ale dziecko Babbage'a było kosztownym przedsięwzięciem. Ponad 17 000 funtów funtów wydano na wczesny rozwój silnika różnicowego. Projekt został ostatecznie zlikwidowany po tym, jak brytyjski rząd odciął fundusze Babbage'a w 1842 roku.
To wymusiło Babbage przejść do innego pomysłu, „silnika analitycznego”, który był bardziej ambitny niż jego poprzednik i miał być wykorzystywany do obliczeń ogólnego przeznaczenia, a nie tylko do arytmetyki. Chociaż nigdy nie był w stanie wykonać i zbudować działającego urządzenia, projekt Babbage'a miał zasadniczo tę samą logiczną strukturę, co komputery elektroniczne, które miałyby być używane w 20th stulecie. Silnik analityczny ma zintegrowaną pamięć - formę przechowywania informacji dostępną na wszystkich komputerach - która pozwala na rozgałęzienie lub zdolność komputera do wykonać zestaw instrukcji, które odbiegają od domyślnej kolejności sekwencji, a także pętle, które są sekwencjami instrukcji wykonywanych wielokrotnie w sukcesja.
Mimo że nie udało mu się stworzyć w pełni funkcjonalnej maszyny komputerowej, Babbage pozostał niezachwiany w realizacji swoich pomysłów. W latach 1847–1849 opracował projekty nowej i ulepszonej drugiej wersji silnika różnicowego. Tym razem obliczył liczby dziesiętne o długości do 30 cyfr, wykonał obliczenia szybciej i został uproszczony, aby wymagać mniejszej liczby części. Mimo to rząd brytyjski nie uważał, że warto było zainwestować. Ostatecznie największym postępem Babbage'a w prototypie było ukończenie jednej siódmej jego pierwszego projektu.
We wczesnej erze komputerów osiągnięto kilka znaczących osiągnięć: maszyna do przewidywania pływów, wynaleziony przez szkocko-irlandzkiego matematyka, fizyka i inżyniera Sir Williama Thomsona w 1872 roku, był uważany za pierwszy nowoczesny komputer analogowy. Cztery lata później jego starszy brat James Thomson opracował koncepcję komputera, który rozwiązuje problemy matematyczne zwane równaniami różniczkowymi. Nazwał swoje urządzenie „maszyną integrującą”, która w późniejszych latach posłuży jako podstawa dla systemów zwanych analizatorami różnicowymi. W 1927 r. Amerykański naukowiec Vannevar Bush rozpoczął prace nad pierwszą maszyną, która otrzymała taką nazwę, i opublikował opis swojego nowego wynalazku w czasopiśmie naukowym w 1931 r.
Dawn of Modern Computers
Aż do wczesnych 20 latth stulecie ewolucja informatyki była niewiele więcej niż naukowcami zajmującymi się projektowaniem maszyn zdolnych do wydajnego wykonywania różnego rodzaju obliczeń do różnych celów. Dopiero w 1936 r. Ostatecznie opracowano ujednoliconą teorię dotyczącą tego, co stanowi „komputer ogólnego zastosowania” i jak powinien on działać. W tym samym roku angielski matematyk Alan Turing opublikował artykuł zatytułowany „O liczbach obliczalnych z wnioskiem do Entscheidungsproblem”, w którym nakreślił, w jaki sposób teoretyczne urządzenie zwane „maszyną Turinga” można wykorzystać do wykonania dowolnego możliwego obliczenia matematycznego poprzez wykonanie instrukcje. Teoretycznie maszyna miałaby nieograniczoną pamięć, odczytywał dane, zapisywał wyniki i przechowywał program instrukcji.
Podczas gdy komputer Turinga był abstrakcyjnym pojęciem, był to niemiecki inżynier o imieniu Konrad Zuse kto zbuduje pierwszy na świecie programowalny komputer. Jego pierwsza próba opracowania komputera elektronicznego, Z1, była kalkulatorem napędzanym binarnie, który odczytywał instrukcje z wyciętego filmu 35-milimetrowego. Technologia ta była jednak zawodna, więc podążył za nią z Z2, podobnym urządzeniem, które wykorzystywało elektromechaniczne obwody przekaźnikowe. Podczas ulepszenia, to w montażu jego trzeciego modelu wszystko się połączyło dla Zuse. Zaprezentowany w 1941 r. Z3 był szybszy, bardziej niezawodny i lepiej mógł wykonywać skomplikowane obliczenia. Największą różnicą w tym trzecim wcieleniu było to, że instrukcje były przechowywane na zewnętrznej taśmie, dzięki czemu mogła funkcjonować jako w pełni działający system kontrolowany przez program.
Być może najbardziej niezwykłe jest to, że Zuse wykonał większość swojej pracy w izolacji. Nie zdawał sobie sprawy, że Z3 jest „Turing zakończony” lub innymi słowy, jest w stanie rozwiązać każdy obliczalny problem matematyczny - przynajmniej teoretycznie. Nie miał też wiedzy o podobnych projektach realizowanych w tym samym czasie w innych częściach świata.
Jednym z najbardziej znaczących z nich był finansowany przez IBM Harvard Mark I, który zadebiutował w 1944 roku. Jeszcze bardziej obiecujące było opracowanie systemów elektronicznych, takich jak prototyp obliczeniowy Wielkiej Brytanii z 1943 r. Colossus i ENIAC, pierwszy w pełni sprawny elektroniczny komputer ogólnego zastosowania, który został oddany do użytku na University of Pennsylvania w 1946 r.
Z projektu ENIAC nastąpił kolejny duży skok w technologii komputerowej. John Von Neumann, węgierski matematyk, który konsultował się w projekcie ENIAC, położyłby podwaliny pod komputer z programem. Do tego momentu komputery działały na stałych programach i zmieniały ich funkcje - na przykład od wykonywania obliczeń po przetwarzanie tekstu. Wymagało to czasochłonnego procesu ręcznego okablowania i restrukturyzacji. (Przeprogramowanie ENIAC zajęło kilka dni.) Turing zaproponował, aby idealnie, gdyby program zapisany w pamięci pozwolił komputerowi modyfikować się w znacznie szybszym tempie. Von Neumann był zaintrygowany tą koncepcją, aw 1945 r. Opracował raport, który szczegółowo przedstawił wykonalną architekturę obliczeniowych programów przechowywanych.
Jego opublikowany artykuł będzie szeroko rozpowszechniany wśród konkurujących ze sobą zespołów naukowców pracujących nad różnymi projektami komputerów. W 1948 r. Grupa w Anglii wprowadziła maszynę eksperymentalną Small Small Scale w Manchesterze, pierwszy komputer z uruchomionym programem opartym na architekturze von Neumanna. Przydomek „Baby”, Manchester Machine był eksperymentalnym komputerem, który służył jako poprzednik Manchester Mark I.. EDVAC, projekt komputera, dla którego pierwotnie przeznaczony był raport von Neumanna, został ukończony dopiero w 1949 roku.
Przejście w stronę tranzystorów
Pierwsze nowoczesne komputery nie przypominały produktów komercyjnych używanych obecnie przez konsumentów. Były to skomplikowane urządzenia, które często zajmowały przestrzeń całego pokoju. Zassali również ogromne ilości energii i byli znani z buggy. A ponieważ te wczesne komputery działały na nieporęcznych lampach próżniowych, naukowcy mający nadzieję na poprawę prędkości przetwarzania musieliby albo znaleźć większe pokoje, albo wymyślić alternatywę.
Na szczęście ten bardzo potrzebny przełom był już w fazie prac. W 1947 r. Grupa naukowców z Bell Telephone Laboratories opracowała nową technologię zwaną tranzystorami punktowymi. Tranzystory, podobnie jak lampy próżniowe, wzmacniają prąd elektryczny i mogą być używane jako przełączniki. Co ważniejsze, były one znacznie mniejsze (mniej więcej wielkości kapsułki aspiryny), bardziej niezawodne i ogólnie zużywały znacznie mniej energii. Współzałożyciele John Bardeen, Walter Brattain i William Shockley otrzymali nagrodę Nobla w dziedzinie fizyki w 1956 roku.
Podczas gdy Bardeen i Brattain kontynuowali prace badawcze, Shockley przeszedł do dalszego rozwoju i komercjalizacji technologii tranzystorowej. Jednym z pierwszych pracowników nowo powstałej firmy był inżynier elektryk Robert Noyce, który ostatecznie oddzielił się i założył własną firmę Fairchild Semiconductor, oddział Fairchild Camera i Instrument. W tym czasie Noyce szukał sposobów płynnego połączenia tranzystora i innych elementów w jeden układ scalony, aby wyeliminować proces, w którym trzeba je było złożyć ręcznie. Myśląc podobnie, Jack Kilby, inżynier z Texas Instruments, ostatecznie złożył wniosek patentowy. Jednak to projekt Noyce'a został powszechnie przyjęty.
Tam, gdzie układy scalone miały największy wpływ, torowały drogę nowej erze komputerów osobistych. Z czasem otworzyło to możliwość uruchamiania procesów zasilanych przez miliony obwodów - wszystko na mikroprocesorze wielkości znaczka pocztowego. W gruncie rzeczy właśnie to umożliwiło wszechobecnym gadżetom podręcznym, których używamy na co dzień, o ironio, o wiele potężniejszym niż najwcześniejsze komputery zajmujące całe pokoje.