nVidia GeForceFX 5800 Ultra - pierwszy kontakt Autor: Kris | Data: 15/04/03
|
|
Dodatkowe testy i podkręcanie
Z braku czasu nie zdążyłem przeprowadzić wielu z zamierzonych wcześniej testów służących do potwierdzenia bądź obalenia kilku dodatkowych tez. Myślę jednak, że niektórych zainteresuje to jak radzi sobie GeForceFX 5800 Ultra po sprowadzeniu taktowania do poziomu GeForce4 Ti 4600 (300/325MHz) oraz jak wypadnie w testach wersja 400/400MHz (GFFX 5800 bez "Ultra").
Cóż. Zaryzykuję stwierdzenie, że wersja 400/400MHz będzie osiągała wyniki zbliżone do R9700 (bez Pro). Bardziej interesujące są wyniki przy taktowaniu takim jak GF4Ti4600. W zasadzie GFFX i GF4Ti działają wtedy tak samo (oprócz PixelShadera). Daleki jednak jestem od stwierdzenia, że GFFX to tylko podkręcony GF4Ti ze względu na kwestię możliwych optymalizacji (np. tryb zgodności).
Nie mając pod ręką gier ani testów Dx9 (oprócz 3DMark 2003) postanowiłem sprawdzić jak GeForceFX radzi sobie z demonstracjami możliwości Radeona 9700 i 9800, przygotowanymi przez ATI. W związku z tym, że napisane są w Dx9 to teoretycznie nie powinno być problemu z ich odpaleniem. Niestety z tych, które próbowałem to demka Car i NPR w ogóle nie nadawały się do oglądania (jakieś zupełnie pomieszane tekstury, które nic sensownego nie przedstawiały) a "zwierzątka" Chimp i Bear pozbawione były znaczących kawałków ciała (demo zgłasza problemy z interpretacją niektórych programów shadera). Natomiast bez żadnych zastrzeżeń działał "Pipe Dream" przygotowany przez Animusic. Frame Rate oscylował w zakresie 10-20 fps. Dla porównania na R9700 20-35 fps. Spec optymalizacja dla ATI czy może po prostu Carmack miał rację (wystarczy brak optymalizacji dla GFFX)? Pozostaje jedynie czekać na większą ilość gier, aby to zweryfikować. Na razie zamieszczam hicior w postaci zrzutu z demek ATI prezentowanych przy użyciu karty nVidia:
(kliknij, aby powiększyć)
Patrząc na tego, jakby zbyt mocno roznegliżowanego szympansa, wpatrującego się w motylka pozbawionego skrzydełek mam pewne konkretne skojarzenia dotyczące zestawu utajnionych opcji NV30 działających w środowisku Dx9. Sądzę, że niektórzy wiedzą, co mam na myśli. Przejdźmy, więc do ostatniej demonstracji, o której moim zdaniem należy napisać parę słów.
Wraz z wydaniem nowego układu oczywiście producent przygotował kilka demonstracji własnych, pokazujących możliwości najnowszego swojego "dziecka". Są one do ściągnięcia ze strony: www.nvidia.com
Starzejący się samochód czy latające zabawki jakoś specjalnie nie zachwyciły natomiast przechadzający się po konarach drzew Elf (czy może bardziej swojsko: Rusałka), należący niewątpliwie do płci pięknej, wręcz przeciwnie. Użycie zaawansowanych technik VertexShadera w połączeniu z zmiennoprzecinkową precyzją i kilkoma nowymi efektami mapowania zaowocowało bardzo realistycznym obrazem. Muszę przyznać, że wcześniej nie udało się mi się na domowym komputerze, zobaczyć efekt renderowania w czasie rzeczywistym, który tak dobrze odwzorowuje "żywą" skórę czy mimikę twarzy (Rachela z dema ATI sprzed 1.5 roku wygląda przy tym jak Zombie). Oczywiście daleki jestem od stwierdzenia, że jest to zasługą NV30 a nie programistów. Niestety demonstracje nVidia napisane są w OpenGL i jeśli jakaś dobra dusza nie napisze wrappera rozszerzeń NV dla ATI (oczywiście nieoficjalnie, bo objęte są ochroną prawną) to nie da się sprawdzić jak z tym demkiem poradziłby sobie nowy Radeon (zaryzykuję stwierdzenie, że nie gorzej).
(kliknij, aby powiększyć)
Mała dygresja: Proszę mnie nie poprawiać, że nie jest to Elf tylko Elfica czy Elfka (oba słowa brzmią dla mnie fatalnie), bo przenosząc kwestię językową na gatunek ludzki "kobieta to też człowiek" (przepraszam wszystkie Panie za ten cytat).
W kwestii podkręcania będzie krótko: Zły pomysł. W zasadzie zerowy efekt a sporo problemów. Po dłuższej walce udało mi się osiągnąć stabilne 515/515 MHz, czyli 3% (!) nadtaktowania. Jeśli test ma wysoce stabilne wyniki to przekłada się to na parę marnych fps a w większości przypadków można traktować jak rozrzut wyników pomiaru. Oczywiście o żadnej realniej korzyści nie można mówić. Karta również pracowała z nieco większym taktowaniem, ale to tylko teoria, bo po chwili wygrzania testem automatycznie (niejawnie) zmniejszała częstotliwości i wynik robił się znacznie mniejszy niż bez nadtaktowania. Jeśli ktoś myśli o połączeniu karty z chłodzeniem wodnym to warto pamiętać o tym, że pamięci powinny być również chłodzone, bo grzeją się nieprawdopodobnie a to właśnie na ich taktowaniu głownie opiera się wydajność karty. W ogóle trzeba przyznać, że GeForceFX jest najpotężniejszą grzałką, jaką miałem kiedykolwiek w slocie AGP i warto mieć na uwadze kwestię odpowiedniej cyrkulacji powietrza w obudowie.
|