Witajcie w przyszłości, która jest bliżej, niż nam się wydaje.
Rozdział 2
Przyspieszenie do prędkości światła
Technologie wykładnicze, część I
Komputery kwantowe
Najzimniejsze miejsce we wszechświecie znajduje się w słonecznej Kalifornii. Na obrzeżach Berkeley wewnątrz ogromnego budynku wisi wielka biała rura. To ludzkie dzieło – kriogeniczna chłodnica następnej generacji, w której osiągnięto temperaturę 0,003 kelwina, niemal dochodząc do zera absolutnego.
W 1995 roku wewnątrz mgławicy Bumerang astronomowie pracujący w Chile wykryli temperaturę 1,15 kelwina. To odkrycie okazało się rekordowe – znaleziono powstałe w naturalny sposób miejsce o najniższej temperaturze w kosmosie. W białej rurze natomiast jest ponad stopień zimniej, co powoduje, że to jednak ona jest najzimniejszym zakątkiem naszego wszechświata, a równocześnie tak niska temperatura pozwala utrzymać kubit w stanie superpozycji.
Co pozwala utrzymać i w czym?
W klasycznej informatyce bit to najmniejsza ilość informacji binarnej, pozwalająca określić, czy układ przyjął stan zero czy jeden. Kubit to nowsza wersja tej koncepcji, czyli bit kwantowy. W przeciwieństwie do bitów binarnych, które przyjmują zawsze jedną z dwóch dozwolonych wartości, kubity wykorzystują superpozycję, która pozwala im być w wielu stanach równocześnie. Zastanówmy się nad dwoma możliwymi wynikami rzutu monetą – reszką lub orłem. Teraz wyobraźmy sobie monetę obracającą się na krawędzi – w tej sytuacji widzimy równocześnie obydwa. To właśnie jest superpozycja, tylko że do jej osiągnięcia potrzebujemy ekstremalnie niskich temperatur.
Superpozycja równa się mocy obliczeniowej. Ogromnej mocy. Jeśli chcemy rozwiązać złożony problem za pomocą klasycznego komputera, będziemy potrzebować tysięcy kroków. Komputer kwantowy to samo zadanie wykona zaledwie w 2 lub 3 krokach. Dla porównania – Deep Blue, skonstruowany przez IBM komputer, który wygrał z Garrim Kasparowem w szachy, analizował 200 milionów ruchów na sekundę. Maszyna kwantowa może zwiększyć tę liczbę do biliona, a nawet jeszcze więcej – taka moc obliczeniowa kryje się w tej wielkiej białej rurze.
Rura należy do Rigetti Computing, założonej w 2013 roku firmy, znajdującej się dzisiaj w samym centrum jednej z najbardziej interesujących historii o Dawidzie i Goliacie w obszarze technologii. Obecnie najważniejszymi uczestnikami wyścigu o uzyskanie „kwantowej przewagi” – czyli rywalizacji o to, kto pierwszy zbuduje komputer kwantowy, który będzie w stanie uporać się z problemami nierozwiązywalnymi dla klasycznych maszyn – są technologiczni giganci, tacy jak Google, IBM i Microsoft, najlepsze na świecie uniwersytety, takie jak Oksfordzki i Yale, rządy Chin i Stanów Zjednoczonych oraz wspomniana wcześniej firma Rigetti.
Firma zaczęła działalność w 2013 roku, kiedy fizyk nazywający się Chad Rigetti doszedł do wniosku, że czas komputerów kwantowych nadejdzie znacznie szybciej, niż ktokolwiek się spodziewa, i postanowił, że to on będzie człowiekiem, dzięki któremu ta technologia będzie miała szansę przekroczyć linię mety. Zrezygnował więc z wygodnej pracy w IBM-ie, gdzie był badaczem specjalizującym się w komputerach kwantowych, zdobył finansowanie w wysokości ponad 119 milionów dolarów i zbudował najzimniejszą chłodnicę rurową w historii. Dzięki stworzeniu i opatentowaniu ponad 50 unikalnych rozwiązań Rigetti produkuje obecnie zintegrowane obwody kwantowe, które napędzają komputery kwantowe w chmurze. I ma rację. Ta technologia rzeczywiście rozwiązuje jeden ogromny problem – kres obowiązywania prawa Moore’a.
W 2 kolejnych rozdziałach przeanalizujemy 10 szybko rozwijających się technologii, które zaczynają ulegać konwergencji. Wszystkie korzystają z prawa Moore’a – wzbierającej od 60 lat fali wzrostu możliwości obliczeniowych komputerów. Moc obliczeniowa – to w ten sposób mierzy się wielkość tej fali – jest często określana we FLOP-ach, czyli liczbie operacji zmiennoprzecinkowych na sekundę. W 1956 roku komputery dysponowały mocą obliczeniową rzędu 10 tysięcy FLOP-ów. W 2015 roku ta wartość osiągnęła biliard FLOP-ów. Oznacza to bilionkrotny wzrost wydajności. To jest najważniejsza siła napędzająca rozwój technologii.
Mimo to w ciągu ostatnich kilku lat obserwujemy, że prawo Moore’a zaczyna tracić moc obowiązującą. Przyczyną są prawa fizyki. Rosnącą wydajność układów półprzewodnikowych osiągano dzięki zmniejszaniu odległości pomiędzy tranzystorami, dzięki czemu w chipie można było upakować ich coraz więcej. W 1971 roku ta odległość wynosiła 10 tysięcy nanometrów, w 2000 – w przybliżeniu 100. Natomiast dzisiaj w produkcji chipów dochodzimy do wymiaru 5 nanometrów i tu właśnie zaczynają się problemy. W tak mikroskopowej skali elektrony zaczynają tunelować, przez co układ traci swoją zdolność do prawidłowego wykonywania obliczeń. Jest to zatem nieprzekraczalna – wynikająca z praw fizyki – granica niepozwalająca na dalsze zmniejszanie wielkości tranzystorów – łabędzia pieśń prawa Moore’a.
A może jednak nie.
„Prawo Moore’a nie było pierwszym, ale piątym paradygmatem określającym coraz korzystniejszy stosunek ceny do wydajności” – napisał Ray Kurzweil w The Law of Accelerating Returns (Prawie przyspieszającego rozwoju). „Moc maszyn obliczeniowych (w jednostce czasu) ulega stałemu zwielokrotnieniu, poczynając od pierwszych mechanicznych urządzeń obliczeniowych używanych podczas amerykańskiego spisu powszechnego w 1890 roku przez bazującą na przekaźnikach maszynę Robinson skonstruowaną przez Alana Turinga, dzięki której udało się złamać szyfr nazistowskiej Enigmy, lampowy komputer CBS, który przewidział wybór Eisenhowera na prezydenta Stanów Zjednoczonych, tranzystorowe maszyny wykorzystywane podczas pierwszych lotów w kosmos, na komputerze osobistym zbudowanym z użyciem układów scalonych, na którym napisałem ten tekst, kończąc”.
Kurzweil twierdzi, że za każdym razem, kiedy szybko rozwijająca się technologia osiąga kres swoich możliwości, pojawia się inna, która zajmuje jej miejsce. Tak samo będzie z tranzystorami. Obecnie istnieje kilka rozwiązań kwestii związanych z tym, że prawo Moore’a przestaje obowiązywać. Rozważane jest użycie materiałów alternatywnych i zastąpienie układów krzemowych nanorurkami węglowymi, co pozwoli na szybsze przełączanie i lepsze odprowadzanie ciepła. Na etapie prac przygotowawczych są również nowatorskie projekty, między innymi trójwymiarowe układy scalone, które znacznie zwiększą dostępną powierzchnię układów. Pojawiają się również wyspecjalizowane chipy o ograniczonej funkcjonalności, działające za to z ogromną prędkością. A12 Bionic, układ niedawno wyprodukowany przez Apple’a, ma na przykład osobną jednostkę odpowiadającą za sztuczną inteligencję, działającą z oszałamiającą prędkością 9 bilionów operacji na sekundę.
Wszystkie te rozwiązania bledną jednak w porównaniu z komputerami kwantowymi.
W 2002 roku Geordie Rose, założyciel D-Wave, jednej z pierwszych firm zajmujących się komputerami kwantowymi, zaproponował nową wersję prawa Moore’a, uwzględniającą technologię kwantową nazwaną prawem Rose’a. Koncepcja jest podobna – liczba kubitów w komputerze kwantowym podwaja się co rok. Prawo Rose’a zostało jednak nazwane „prawem Moore’a na sterydach”, bowiem kubity w stanie superpozycji mają znacznie większą moc obliczeniową niż binarne bity w tranzystorach. Ujmijmy to w ten sposób: komputer o 50 kubitach ma 16 petabajtów pojemności.