Delikatny fundament technologii kwantowej
Kubit to kwantowy odpowiednik klasycznego bitu, ale w przeciwieństwie do niego może znajdować się jednocześnie w wielu stanach. Ta właściwość daje komputerom kwantowym ogromną moc obliczeniową, ale ma też swoją cenę.
Kubity są wyjątkowo wrażliwe na wpływ otoczenia. Materiały, z których są wykonane, zawierają mikroskopijne defekty. Te niewielkie niedoskonałości mogą zmieniać swoje właściwości nawet setki razy na sekundę. Każda taka zmiana wpływa na tempo, w jakim kubit traci energię, a wraz z nią informację kwantową.
Do niedawna naukowcy nie byli w stanie uchwycić tych szybkich fluktuacji. Standardowe procedury pomiarowe trwały zbyt długo, nawet do minuty i pozwalały jedynie określić średnie zachowanie kubitu. To tak, jakby oceniać pracę silnika wyłącznie na podstawie jego średnich obrotów, ignorując chwilowe spadki i skoki mocy.
Pomiar w milisekundach zamiast minut
Zespół kierowany przez dr. Fabrizia Berrittę opracował adaptacyjną metodę pomiarową, która śledzi tempo utraty energii przez kubit na bieżąco. Nowe podejście wykorzystuje szybki kontroler klasyczny, który aktualizuje swoje oszacowania co kilka milisekund, czyli w skali czasu porównywalnej z samymi fluktuacjami.
Kluczowym elementem systemu jest układ FPGA (Field-Programmable Gate Array), specjalizowany procesor zdolny do bardzo szybkiego przetwarzania danych. Dzięki temu eksperyment może być analizowany bezpośrednio w urządzeniu, bez konieczności przesyłania informacji do zewnętrznego komputera, co znacznie skraca czas reakcji.
System po każdym pomiarze aktualizuje swój model statystyczny (oparty na metodach bayesowskich) i natychmiast dostosowuje sposób dalszej analizy. W efekcie pomiary i detekcja zachodzą nawet sto razy szybciej niż w dotychczasowych rozwiązaniach.
Zaskakujące odkrycie
Nowa metoda pozwoliła po raz pierwszy dokładnie określić, jak szybko zachodzą fluktuacje w nadprzewodzących kubitach. Okazało się, że ich właściwości mogą zmieniać się znacznie szybciej, niż wcześniej sądzono.
Badacze zaobserwowali również coś niepokojącego: kubit, który w danym momencie działa bardzo dobrze, może w ułamku sekundy stać się niestabilny. To ważna informacja, ponieważ wydajność całego procesora kwantowego zależy zwykle od jego najsłabszych elementów.
Nowa technologia pozwala niemal w czasie rzeczywistym wskazać, które kubity działają poprawnie, a które wymagają uwagi. Co więcej, statystyki dotyczące problematycznych elementów można zebrać w ciągu sekund zamiast godzin lub dni.
W stronę komputerów kwantowych nowej generacji
Odkrycie zmienia sposób myślenia o testowaniu i kalibracji procesorów kwantowych. Zamiast sporadycznych pomiarów możliwe staje się ciągłe monitorowanie i dynamiczne dostosowywanie parametrów pracy urządzenia.
Naukowcy podkreślają jednak, że wiele obserwowanych fluktuacji wciąż pozostaje niewyjaśnionych. Zrozumienie fizycznych mechanizmów stojących za tymi zmianami będzie kluczowe dla budowy dużych, praktycznych komputerów kwantowych.
Badania zostały zrealizowane we współpracy międzynarodowej i z udziałem partnerów przemysłowych, co pokazuje, jak ważna dla rozwoju technologii kwantowych jest współpraca nauki i biznesu.
Postęp w tej dziedzinie nie zawsze jest spektakularny, ale czasem, jak w tym przypadku, następuje skokowo. A każde takie przyspieszenie przybliża nas do momentu, w którym komputery kwantowe staną się realnym narzędziem, a nie tylko obietnicą przyszłości.
Źródło: Instytut Nielsa Bohra, Uniwersytet Kopenhaski.