Home Na czasie Od ENIACa do Surface’a

Od ENIACa do Surface’a

0
0
167

ENIAC, pradziadek współczesnych komputerów, skończył właśnie 70 lat. Dziś uznawany jest, choć nie bez kontrowersji, za pierwszy i największy na świecie komputer stacjonarny. W branży komputerowej od czasów ENIACa zmieniło się właściwie wszystko. Dzisiejsze pecety stały się nie tylko bardziej wydajne, ale przede wszystkim: mobilne, wielozadaniowe i estetyczne. Oto krótka historia komputerów osobistych.

ENIAC (Electronic Numerical Integrator And Computer)

ENIAC został zaprojektowany w 1945 roku, przez naukowców z University of Pennsylvania’s Moore School of Electical Engineering. Publicznie zaprezentowano go w lutym 1946 roku na Princeton University. ENIAC dysponował gigantyczną wręcz mocą obliczeniową 0,1 MHz, za którą odpowiadało ponad 70 tysięcy rezystorów, 10 tysięcy kondensatorów, 1 500 przekaźników, 6 tysięcy ręcznych przełączników oraz 5 mln połączeń lutowanych. Żeby wszystko w miarę sprawnie działało, potrzebny był cały sztab osób. Produkcja ENIACa pochłonęła ponad 6 mln dolarów, a pierwotnie pierwszy komputer został zaprojektowany do produkcji tablic balistycznych. ENIAC był monstrualnym urządzeniem: zajmował 167 m2 powierzchni, składał się z 42 szaf z blachy stalowej, sięgał ponad 2,4 metra wysokości i mierzył 24 metry długości. Jego łączna waga przekraczała, bagatela, 27 ton. Oznacza to, że ważył mniej więcej tyle, ile wszyscy uczniowie typowej szkoły średniej w Wielkiej Brytanii. Pracował niezwykle głośno i nieustannie się nagrzewał. Imponował gabarytami, ale z perspektywy czasu jego moc obliczeniowa wygląda dziś blado. Współczesne komputery osobiste, przejawiają dokładnie odwrotną cechę: imponują mocą zamkniętą w coraz mniejszych i coraz atrakcyjniejszych konstrukcjach. Z kolei dzisiejsze smartfony z najniższej półki cenowej, są średnio 50 tysięcy razy szybsze i ponad 43 tysiące razy lżejsze od ENIACa.

"eniac"

Desktopy

Pierwsze komputery stacjonarne dostępne dla zwykłych użytkowników pojawiły się na rynku i trafiły do naszych domów w latach ‘80 XX wieku, czyli niemal 40 lat po ENIACu.

W międzyczasie, w latach ’60 XX wieku, najpotężniejszym desktopem świata (zajmującym dosłownie całe biurko) był CDC 6600. W latach ’80 za niedościgniony wzór mocy obliczeniowej uchodził już designerski Cray-2. Również w tych latach, a konkretnie w 1982 roku, na komputerach PC zadebiutował system operacyjny Microsoft Windows 1.0, który był pierwszym środowiskiem firmy Microsoft wykorzystującym interfejs graficzny (GUI) i działającym jak nakładka na MS-DOS. I to wówczas tak naprawdę rozpoczęła się era desktopów.

Ówczesne komputery osobiste nie zajmowały już całego pokoju, lecz z powodzeniem mieściły się na biurku dzięki niewielkim, blaszanym lub plastikowym konstrukcjom typu desktop. Jednym z najpopularniejszych pecetów w tym okresie był Commodore 64, który zadebiutował na rynku w 1982 roku i kosztował 595 dolarów. Niewielka, beżowa jednostka centralna podpinana była do telewizora. Komputer oferował już podstawowy software biurowy i można było na nim zagrać w takie gry jak Castle Wolfenstein. Szybkość taktowania procesora wynosiła 1 MHz. Do tego 64 kB pamięci RAM oraz zewnętrzny napęd dyskietek 5.25 cala dla wersji Commodore 1541, na których można było zmieścić aż 170 kb danych.

Jednak prawdziwą rewolucję w branży komputerowej przyniosły pierwsze komputery taktowane zegarem 386, takie jak np. Compaq Deskpro z 1986 roku, jeden z pierwszych komputerów powszechnie używanych w domach. Kosztował wówczas aż 6 499 dolarów, ale wart był swojej ceny: posiadał 16 MHz procesor na 32-bitowej szynie, który umożliwiał zabawę w gry typu Wing Commander w rozdzielczości 640×480 w aż 256 kolorach.

Era stacjonarnych komputerów trwała w najlepsze jeszcze w latach ’90, a inżynierowie prześcigali się w projektowaniu kolejnych, coraz bardziej wydajnych konstrukcji. Jedną z nich był projekt SGI IRIS Crimson, o roboczej nazwie Diehard 2. Był to jeden z pierwszych 64 bitowych komputerów stacjonarnych, który na rynku pojawił się w 1993 roku. Procesor taktowany zegarem o szybkości 150 MHz, 256 MB pamięci RAM oraz gigantycznym dyskiem twardym (7,2 GB), Diehard 2 posiadał specjalny chipset, który umożliwiał wyświetlanie animacji w 3D. To właśnie ten komputer uznaje się za jeden z pierwszych pecetów, które pojawiły się w filmach. W tym wypadku – w Jurassic Park. Ten komputer był jednak dość trudno osiągalny dla statystycznego użytkownika, ponieważ jego cena przekraczała kilkanaście tysięcy dolarów.

Laptopy

Komputer przez wiele lat kojarzył się z urządzeniem stojącym w domu lub w pracy, niejako przytwierdzonym do biurka. Dlatego pojawienie się pierwszych komputerów przenośnych, czyli laptopów, stanowiło krok w kierunku komputerów mobilnych, z których można będzie korzystać nie tylko w jednym, ściśle określonym miejscu.

Choć faktyczna kariera laptopów rozpoczęła się w latach ’90 XX wieku, to pierwszy laptop udostępniany komercyjnie pojawił się pod koniec lat ’70. Za pomysłodawcę koncepcji laptopa, określanego pierwotnie jako „Dynabook”, uchodzi dziś Alan Key, pracownik Xerox PARC. Jednak zaproponowane przez niego rozwiązanie nie weszło do powszechnego obrotu. W 1979 roku na rynku zadebiutował Grid Compass Computer 1109. Jego twórcą był brytyjski inżynier William Moggridge, a jednym z pierwszych odbiorców – amerykańska agencja kosmiczna NASA, która używała sprzętu w swoim programie promów kosmicznych. Cena Grida nie była jednak przystępna dla statystycznego Amerykanina: koszt takiego urządzenia wiązał się z wydatkiem od 8 do nawet 10 tys. dolarów, co może dziś wywoływać uśmiech producentów laptopów, ponieważ jak na sprzęt posiadający 340 kB RAM, procesor Intel 8086 oraz wyświetlacz 320 x 240 pikseli był to całkiem słony wydatek. Nie zmienia to faktu, że to właśnie Grid Compass Computer 1109 mieścił się w torbie i był stosunkowo lekki: ważył około 5 kg, a jego obudowa została wykonana ze stopu magnezu. Grid wszedł również do popkultury – w roku 1985 w filmie Perfect używał go bohater grany przez Johna Travoltę.

Oprócz wspomnianego Grida palmę pierwszeństwa wśród laptopów przyznaje się równie często komputerowi przenośnemu Osborne 1, który trafił na sklepowe półki w 1981 roku i kosztował zdecydowanie mniejsze pieniądze niż Grid. Za konfigurację z procesorem Zilog Z80 taktowanym zegarem 4 MHz, 64 kB RAM, ważącą 12 kg, nieposiadającą baterii (akumulator należało dokupić osobno) i z 5-calowym ekranem monochromatycznym, mieszczącym 24 wiersze po 53 znaki, trzeba było zapłacić 1 795 dolarów.

Jednak dopiero lata ’90 przyniosły rzeczywisty boom na laptopy i skokowy rozwój tej kategorii sprzętu. Wraz ze zwiększaniem się ich mocy obliczeniowej – zmniejszała się również masa, wskutek czego laptopy stawały się stopniowo podstawowym wyposażeniem zwykłych użytkowników oraz firm. Przedsiębiorcy zaczęli z nich korzystać, a dobry laptop stał się synonimem prestiżu.

Przez wiele lat uważano, że to właśnie laptopy stanowią kres możliwości rozwojowych komputerów osobistych. Tymczasem rynek pecetów okazał się niezwykle chłonny i podatny na innowacje. Dlatego producenci poszli o krok dalej i postanowili przed sobą nowe zadanie: odtąd sprzęt komputerowy miał być już nie tylko mobilny, ale też wielofunkcyjny.

Urządzenia 2w1 

Obecnie szczytem osiągnięć techniki komputerowej są urządzenia typu 2w1, które mogą działać zarówno jak tablety (dotykowy ekran), ale też laptopy (dopinana do ekranu klawiatura). Ich głównymi zaletami są właśnie mobilność oraz wielofunkcyjność. Dzięki niewielkiej wadze i rozmiarom, można je ze sobą zabrać praktycznie wszędzie. Prekursorem urządzeń 2w1 był Microsoft, z jego linią urządzeń Surface, które zadebiutowały na rynku w 2012 roku. Początkowo konkurencja na wiadomość i planach wprowadzenia sprzętu zareagowała mocno sceptycznie. Pojawiały się głosy, że urządzenia 2w1, czyli komputery z funkcją tabletów, nie mają przed sobą wielkiej przyszłości i są po prostu nietrafionym pomysłem. Prognozy sceptyków się nie sprawdziły, a dziś rynek urządzeń 2w1 rośnie w dwucyfrowym tempie. Coraz częściej sięgają użytkownicy oraz przedsiębiorcy. Gartner twierdzi, że do 2018 roku już co trzeci laptop będzie posiadał dotykowy ekran. Podobne estymacje przedstawia firma badawcza IDC, która szacuje, że do końca tego roku całkowita liczba urządzeń 2w1 dostępnych na rynku wzrośnie aż o 86,5 proc. Głównie za sprawą… urządzeń Microsoft, a konkretnie – linii Surface.

Najnowszym produktem z tej rodziny jest Surface Pro 4. Według Microsoftu jest to tablet, który ma zastąpić dotychczas używany przez nas komputer. Surface Pro 4 to urządzenie ultrawydajne i mobilne: jego obudowa wykonana jest ze stopu magnezu, a waga zaczyna się raptem od 766 gram. Ma tylko 8,4 mm grubości oraz baterię wystarczającą aż na dziewięć godzin odtwarzania filmów wideo. Dostępny jest w kilku konfiguracjach: z procesorem Intel Core m3, i5 lub i7 szóstej generacji oraz 4 GB, 8 GB lub 16 GB pamięci RAM. To oznacza, że na rynku 2w1 póki co nie ma bardziej wydajnego sprzętu, niż Surface Pro 4. Wysoka moc obliczeniowa oraz podpinana do ekranu klawiatura sprawiają, że Surface może stać się domowym centrum rozrywki. Może działać jako tablet (wystarczy odpiąć klawiaturę) lub jako pełnoprawne narzędzie pracy (dzięki systemowi Windows 10 Pro można na nim instalować wszystkie aplikacje desktopowe). Komputer Microsoftu posiada 12,3-calowy wyświetlacz o rozdzielczości 2736 x 1824 i proporcjach kartki papieru (3:2). Poza tym urządzenie Microsoftu posiada wbudowane: akcelerometr, żyroskop i magnetometr, wykorzystywane przez niektóre gry tabletowe. Do urządzenia dołączane jest też specjalne pióro Surface Pen, przyczepiane magnetyczne do obudowy. Można również dokupić do niego wymienialne końcówki. Dzięki pióru użytkownicy zajmujący się np. grafiką komputerową czy projektowaniem modeli 3D, mogą precyzyjnie odwzorować każdy detal swojego projektu, a umieszczona na końcu Surface Pen gumka pozwala im wymazać każdą niedokładność. Jedno kliknięcie otwiera program do notatek odręcznych OneNote, dwa kliknięcia robią zrzut ekranu. W ten sposób komputer osobisty stał się czymś więcej, niż tylko narzędziem do pracy biurowej.

Na Surface’y postawiła również administracja Białego Domu. To właśnie tutaj wzrost zainteresowania urządzeniami 2w1 autorstwa Microsoft jest szczególnie widoczny. Według badania Govini US Federal Market Share Capture urządzenia Surface odpowiadają już za 25 proc. udziałów na rynku administracji publicznej w USA. Tylko w ostatnim czasie U.S. Customs and Border Protection (Amerykański Urząd Celny i Ochrony Granic) przeznaczył milion dolarów na zakup kolejnych urządzeń od Microsoftu.

"surface"

Co dalej?

Jednym z pomysłów definiujących przyszłość pecetów, jest idea „świata bez haseł” (Password-Free World), rozwijana przez  Satyę Nadellę, CEO Microsoft. Nadella rozumie przez nią odejście od haseł jako ciągu znaków wpisywanych z klawiatury komputerowej.

Podczas przemówienia w Mumbaju potwierdził, że Microsoft pracuje nad rozwiązaniem, dzięki któremu hasła nie będą już czymś, co można złamać czy zhackować. Wykorzystanie danych biometrycznych ma pozwolić na skuteczniejsze zabezpieczenie interfejsów komputerowych. Scenariusz Password-Free World ziszcza się już teraz w postaci interfejsu Windows Hello, dostępnego w najnowszych komputerach z Windows 10 (jak choćby wspomniany Surface Pro 4), wyposażonych w kamerę z funkcją rozpoznawania twarzy. Użytkownik jest tu weryfikowany poprzez „skanowanie” twarzy i aby zalogować się do swojego konta nie musi wpisywać hasła – wystarczy, że spojrzy w kamerę. W testach przeprowadzonych przez serwis The Australian Windows Hello okazał się praktycznie bezbłędny. Na sześciu parach niemalże identycznych bliźniaków, którzy mieli zalogować się na konto w komputerze rodzeństwa, rozpoznawał bezbłędnie prawdziwego właściciela, uniemożliwiając tym samym jego rodzeństwu dostęp do przechowywanych treści. Zastosowanie rozwiązań biometrycznych w PC to tylko wierzchołek góry lodowej pomysłów, które w najbliższych latach będą napędzały branżę komputerową.

Rynek komputerów osobistych nie stoi w miejscu. Projektanci kolejnych generacji urządzeń starają się wyposażać je w nowe technologie, dzięki którym komputery stają się coraz bardziej atrakcyjne produkty. Póki co cel jest jeden i jest wyraźny: maksymalizacja wygody użytkowania. Jednocześnie, dzięki zastosowaniu nowych rozwiązań, komputery stają się coraz bardziej przyjazne i bezpieczne dla użytkownika. W tym właśnie sensie Microsoft mówi dziś o „more personal computing”, kładąc nacisk nie tylko na rozwój samego sprzętu, lecz także doświadczeń użytkownika, płynących z użytkowania komputera

Dodaj komentarz

Przeczytaj również

Powerdot buduje stacje w gminach, w których nie ma jeszcze elektryków

Gminy wiejskie, w których albo jeszcze w ogóle nie zarejestrowano aut elektrycznych, albo …