TwojePC.pl © 2001 - 2024
|
|
Piątek 12 września 2003 |
|
|
|
Half Life 2 - oświadczenie nVidii Autor: R4v | źródło: 3DGPU | 15:26 |
(19) | W związku z wystąpieniem Gabe'a Newella, o którym pisaliśmy wczoraj, nVidia wydała oświadczenie. A oto jego treść:
"Przez ostatnie 24 godziny, pojawiło się wiele kontrowersji odnośnie komentarzy Gabe'a Newella z Valve na ATi Shader Day.
Podczas całego procesu produkcji Half Life 2, nVidia była w bliskim kontakcie z Valve w związku z pracami nad grą. Jednakże Valve nie poinformował nas o kłopotach, o których mówił Gabe.
Jesteśmy zdziwieni, czemu Valve wykorzystał sterowniki Release.45, ponieważ dwa tygodnie przed ATi Shader Day współpracowaliśmy z nimi w celu zapewnienia najlepszej wydajności sterowników Rel.50.
W związku z wynikami Half Life 2, które zostały upublicznione, uważamy, że wyniki te są niewłaściwe, ponieważ nie użyto sterowników Rel.50. Rozwoju sterowników Rel.45 zaprzestano miesiące temu w oczekiwaniu na optymalizacje dla Half Life 2 w sterownikach Rel.50, których wersja beta trafiła dzisiaj do testerów. Rel.50 jest najlepszym sterownikiem, jaki kiedykolwiek wydaliśmy - zawiera znaczące optymalizacje dla programowalnej architektury GeForce FX i zawiera nowe elementy dla ponad 100 milionów naszych klientów.
W świetle informacji z Valve, znany jest nam jeden błąd w sterownikach Rel.50 i Half Life 2 - chodzi o zachowanie mgły, o którym wspomniał Gabe. Nie jest to ani oszustwo, ani optymalizacja. Po prostu nasza najbardziej aktualna wersja Half Life 2 pochodzi z przed dwóch tygodni. Sterowniki Rel.50 powinny się pojawić jeszcze zanim gra trafi na półki. Ponieważ wiemy, że wykorzystanie pełnej wydajności pixel shadera w kartach GeForce FX wymaga pewnej pracy, nasi programiści współpracują ściśle z producentami gry. Częścią tego jest pomoc w zrozumieniu, że w większości przypadków wykorzystanie PS 1.4 (DX 8) nie daje zmiany jakości obrazu w stosunku do PS 2.0 (DX 9). Czasami chodzi o wykorzystanie 16-bitowej precyzji zamiast 32-bitowej, co poprawia wydajność a nie ma wpływu na jakość obrazu. Naszym celem jest zapewnienie klientom jak najlepszych doświadczeń, a co za tym idzie gry muszą wyglądać i działać świetnie.
Optymalny kod dla ATi i nVidii jest różny - tak więc testowanie kart z jedną tylko wersją programu zawsze będzie miało negatywny wpływ na któryś z układów. Standardowe ustawienia dla każdej gry zostały wybrane zarówno przez producentów gier, jak i przez nVidię w celu uzyskania jak najlepszych wyników dla naszych klientów.
Dodatkowo oprócz wysiłków programistów gier, nasz "driver team" stworzył automatyczny optymalizator, który znacząco poprawia wydajność pixel shadera układu GeForce FX. Owoce tych prac znaleźć można w sterownikach Rel.50. W tych sterownikach znalazło się także wiele innych ulepszeń, które zostały stworzone w związku z pierwszą falą tytułów korzystających z DirectX 9, takich jak Half Life 2.
Jesteśmy zaangażowani we współpracę z Gabem, aby w pełni zrozumieć jego obawy oraz z Valve, aby zapewnić jak najlepsze działanie gry u ponad 100 milionów naszych klientów." |
| |
|
|
|
|
|
|
|
|
|
K O M E N T A R Z E |
|
|
|
- NVidia robi klienta w balona (autor: Cichon | data: 12/09/03 | godz.: 15:46)
No bo jak to inaczej nazwać??? Czyli co ATi potrafiło tak współpracować z Valve, żeby ich karty śmigały, a NVIDII nie? No bez jaj panowie, przy takich funduszach ??? NVIDIA przez wiele lat nie nadążała technologicznie za ATi i HL2 to potwierdza. Należy natomiast przyznać, że jeżeli gry korzystały z bajerów występujących u obu kart na tym samym poziomie to NVIDA robiła to zdeko lepiej.
- To może zemsta ATi!!! (autor: MatiZ | data: 12/09/03 | godz.: 16:26)
przecież nVIDIA podpisała kontrakt z EA
więc ati nie chciał zostać w tyle!
- tak jak nvidia wyrolowala konkurencje z T@Lem (autor: pj1 | data: 12/09/03 | godz.: 16:28)
tak ati pokona nvidie
- Coś to podejrzane (autor: Miro | data: 12/09/03 | godz.: 16:58)
Wykorzystanie 16 bitowej precyzji zamiasta 32 bitowej? Hmm, żebi sie nie okazało, że będzie coś podobnego jak z V3, że niby 22 bit jest wystarczający ;) Mam nadzieje, że NV zrobi coś konkurencyjnego, a nie "niby obsłyga DX9"...
- widzialem filmik z hl2 ladny wypas (cos 80mega) (autor: pj1 | data: 12/09/03 | godz.: 17:33)
jezeli tak ma wygladac grafika co ciniutko widze wiekszosc graczy
- pj1 rzuć linkę (autor: ZGreG | data: 12/09/03 | godz.: 17:39)
daj adres.
- pj1... (autor: Super_Ghost | data: 12/09/03 | godz.: 17:58)
ja widzialem wszystkie filmiki z HL 2 (ok.1GB).... i juz zaluje ze mnie nie stac na 9800pro.. :)
- polecam ściągnięcie... (autor: Drakor | data: 12/09/03 | godz.: 18:25)
http://www.fileplanet.com/...s/130000/130227.shtml - warto popatrzeć :)
- link do ssania (autor: pj1 | data: 12/09/03 | godz.: 19:25)
http://gronet.tenbit.pl/gra.php/in=7421/
- a ja powiem brutalnie (autor: Thadeus | data: 12/09/03 | godz.: 20:04)
pocaluj mnie w dupe Nvidia.
Kiedys sie spierd... architekture ukladu to sooooooooooorrryyy ale nadrabianie bledów optymalizacja ( tu usuniemy dymek tam zmniejszymy liczbe sczególow bo i tak krzaczek je zaslania - wide 3dsmark) nic nie pomoze - imho to producenci sprzetu powinni adbac o projekt a nie optymalizowac sobie sterowniki wg swojego widzimisie. Plus sie nalezy 3dsmarkowi za zablokownaie sterowników z optymalizacjami nvidii, imho wszyscy producenci powinni to robic , Jesli ktos nie potrafi zaprojektowac ukladu no to niech spada z rynku,. Czy ja musze przypominac Kyro 2 ktore nie posiadajac jednostek T&L kopało rowno GF2?. Czemu bo maxymalnie zoptymalizowalo układ by osiagnac maxymalna wydajnosc, a nie wypuszczało nowy chip co 2-3 miesiace (swoja droga to dopracowanie układu Kyro3 i kolejnych przyczyniło sie do upadku firmy - tak czy siak upadek spowodowany był mnie wiecej tym ze nvidia co chwile wypuszczala swoje niedopracowane uklady , w czasie gdy Kyro3 był stale doskonalone ( kto wie czy planowane kolejne ukłądy posiadajce T&L oraz najnowsze implementacje rendereningu kafelkowego oraz jednostki ps nie skopaly by z łatwosicia i ati i nvidie))
No to koncze i pa :))
- thadeus (autor: LooKAS | data: 12/09/03 | godz.: 21:44)
o ile wiem, Kyro3 jest robione dalej i sa pierwsze sample - podobno wyniki sa obiecujace... oby.
A nvidia? winny sie tlumaczy, dali dupy i tyle.. sam mam gf3, ale to jest ostatni moj uklad od nV, nastepny na 100% bedzie od ATI.
- nieno te demka mnie total rozwalily (autor: pj1 | data: 13/09/03 | godz.: 10:02)
taki wypas ciekawe czy na nvidii bedzie to plynnie szlo?
- łoł - neizly link (autor: mel2 | data: 13/09/03 | godz.: 10:58)
ten z tenbitu -1MB/s mi leci ;))
- moze niepotrzebnie przesiadlem sie z R9100 na GF4Ti4200 ;>> (autor: NimnuL-Redakcja | data: 13/09/03 | godz.: 11:09)
hehe ;)
- Nimnult ty .!@,.123 ... (autor: Thadeus | data: 13/09/03 | godz.: 14:23)
.. Zdrajco ;P
- na razie mnie ATi karze za zdrade ;> (autor: NimnuL-Redakcja | data: 13/09/03 | godz.: 14:39)
mam problemy z GF4 ;)
- no widzisz :) (autor: Thadeus | data: 13/09/03 | godz.: 15:07)
:))))
- NimnuL a po co Ci to bylo? (autor: Yankes | data: 14/09/03 | godz.: 16:34)
zwlaszcza na Twoim sprzecie ;) Kara Cie nie minie ;)
- GeForce4 - Bios Update (autor: 5eba | data: 15/09/03 | godz.: 22:31)
Ja kupiłem kartę WinFastA250UltraTD (GfTi4600-128MB) i jestem z niej bardzo zadowolony - na tej karcie Win98se jest zajebiście stabilny i co i poprawił mi wydajność kompa o 200% (pop.Gf2gts)
a jeśli ktoś ma jakieś problemy aktualizacja biosa na karcie powinna pomóc - wiem jedno - nie zamienił bym go na żaden produkt ATI, choć na FX-a też pewnie nie ;)
|
|
|
|
|
|
|
|
|
D O D A J K O M E N T A R Z |
|
|
|
Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.
|
|
|
|
|
|
|
|
|
|