Współczesne procesory kart graficznych posiadają nieporównywalnie więcej rdzeni niż dostępne na rynku procesory, w związku z tym może przetwarzać większą ilość informacji równocześnie. Najlepsze CPU Intela, Nehalem, mają osiem rdzeni. GPU przeciętnych kart graficznych od 80 do 128.

Najszybszy modele chipów NVIDII (GTX 280/260) zawierają 240 rdzeni obliczeniowych, mają teoretyczną łączną wydajność 933 gigaflopów, niemal jeden teraflopa. Dla porównania, teoretyczna moc obliczeniowa Galery to ok. 50 teraflopów.

Najszybszy akcelerator graficzny AMD, FireStream 9250, ma już moc równą 1 teraflopowi. Kosztująca 999 dolarów karta nie jest jednak przeznaczona dla zwykłego konsumenta, jak to jest w przypadku kart NVIDII. Cechy 9250 mają już jednak karty z serii HD 4800, które można spinać w układzie Crossfire X. Środowiskiem deweloperskim dla pod GPGPU (General-Purpose General-Processing Unit) Firestream jest AMD Stream SDK.

Środowiskiem deweloperskim NVIDII jest CUDA. Budowane w nim aplikacje pozwalają na zaprzęgnięcie karty graficznych od modelu 8800 GT wzwyż, do obliczeń niekoniecznie związanych z wyświetlaniem obrazu. Co więcej, pozwala na zaprzęgnięcie do jednoczesnej pracy kilku kart graficznych, np. 9800XG2 układzie quad-SLI. Tak zbudowano, pokazany na wideo obok, domowy superkomputer FASTRA, służący do renderowania obrazów z tomografu. Moc obliczeniowa to 4 x 648 gigaflopów.

p

Zaprzęgnięcie procesorów graficznych do obliczeń matematycznych możliwe było dzięki zastosowaniu w NVIDIA CUDA prostego w obsłudze języka programowania C, stanowiącego bazę dla wszystkich języków programowania obiektowego, dzięki któremu programista wydaje polecenia procesorowi graficznemu (GPU).

Technologia ta stosowana jest, między innymi, przez geofizyków przy analizie wielowymiarowych danych sejsmicznych, lekarzy przy renderowaniu obrazów z tomografu czy filmowcy do przetwarzania obrazów wideo (obsługują ją np. komercyjne kodeki firmy Elemental Technologies).

To zastosowanie przemawia chyba najlepiej do przeciętnego użytkownika, który ma kilka godzin materiału z kamery HD do zmontowania i zbyt mało czasu i cierpliwości, by kodować go przez kilka godzin, jedynie korzystając z mocy obliczeniowej komputera.

Interes wyczuło Apple, bo na początku maja ogłosiło chęć wciągnięcia CUDA do produkowanych przez siebie komputerów. Oczywiście, nie będzie nazywać się już CUDA, ale to jedyna różnica. Chodzi o przyśpieszenie jabłuszka.

W sumie jedyne, o co powinniśmy prosić, to więcej programów i aplikacji budowanych pod AMD Stream SDK lub NVIDIA CUDA. Idealna byłaby platforma wspólna, niezmuszająca użytkownika do wyboru karty graficznej ze względu na dostępne programy, ale to chyba nierealne.