TwojePC.pl © 2001 - 2024
|
|
Wtorek 5 lutego 2008 |
|
|
|
Nvidia kupuje AGEIA Autor: Zbyszek | źródło: TechConnect | 19:12 |
(20) | Nvidia poinformowała dzisiaj o wykupieniu firmy AGEIA zajmującej się akceleracją obliczeń i fizyką w grach komputerowych. Producent kart PhysX nie osiągnął oczekiwanego sukcesu, a same akceleratory z powodu niedostatecznego wsparcia przez gry sprzedają się bardzo słabo. Sytuacja ta może ulec znacznej poprawie pod sterami producenta kart graficznych marki GeForce. Najprawdopodobniej jednak Nvidia zakończy sprzedaż PhysX, i skupi się na zaadoptowaniu dla potrzeb swoich układów graficznych technologii przejętych wraz z Ageią. Szczegóły transakcji zostały objęte tajemnicą handlową. Więcej informacji na temat przejęcia AGEIA zostanie opublikowane w przyszłym tygodniu podczas konferencji firmy Nvidia.
Pod koniec ubiegłego roku o wykupieniu AGEIA poważnie myślała konkurencyjna wobec Nvidii na rynku kart graficznych firma AMD, jednak transakcja, prawdopodobnie wskutek złej kondycji finansowej producenta kart marki ATI Radeon nie doszła do skutku. Kilka miesięcy wcześniej, we wrześniu 2007 roku Intel wykupił firmę Havok, również zajmującą się fizyką w grach. |
| |
|
|
|
|
|
|
|
|
|
K O M E N T A R Z E |
|
|
|
- juz myslalem ze nie doczekam sie tego (autor: power | data: 5/02/08 | godz.: 19:52)
a jednak nvidia ja kupila. intel kupil havoc i teraz tylko amd musi kogos kupic zeby nie wypasc z wyscigu.
- hehe pewnie przyszli do nich na kolanach (autor: Tony Soprano | data: 5/02/08 | godz.: 20:05)
żeby kupić od nich prawa i patenty i etc... ;)
- fajnie (autor: Centymetr | data: 5/02/08 | godz.: 22:10)
dobra fiza w grach sie przyda:)roczek dwa i moze zacznie sie cos zmieniac!jak narazie jest marnie...grafa do przodu a fiza stoi na pziomie HL2:)
- czekamy na efekty (autor: Mario2k | data: 5/02/08 | godz.: 22:20)
No moze w koncu za 12-15 miesiecy zobaczymy gre z fizyka jakie dotad nikt nie widzial ???
Moze cos jak slynny Nuke z Crysisa ktorego do potrzeb Trailera musieli prerenderowac , bo na najszybszym obecnie pececie uzyskiwali 3-4 fps
- ATI podobno tez (autor: Shamoth | data: 5/02/08 | godz.: 22:29)
pracowalo/je nad akceleracja fizyki zintegrowana w grafie, nie wiem jak sprawa ma sie teraz bo dawno o tym czytalem ale jesli jest to ich autorski projekt to za jakis czas bedzie niezly bajzel fizyka od ati nvidi intela i praktycznie jedynie nowy DX jakos to bedzie trzymal w kupie ... pozyjemy zobaczymy ;]
- jak włączam UT3 to mam reklamówki Nvidia, AGEIA, Intel (autor: kubazzz | data: 5/02/08 | godz.: 22:50)
piękny zestaw:)
- ja tam nie wiem (autor: vaneck | data: 5/02/08 | godz.: 23:22)
czy to się źle sprzedawało z powodu braku wsparcia? Drogie to było, na dzień dobry wołali ponad 200 eurosków, teraz jakieś 120. Karty sieciowe dla graczy też są, tylko że efektów nie widać:
http://www.killernic.com/products/k1.aspx
- Tony Soprano Centymetr (autor: RusH | data: 6/02/08 | godz.: 10:01)
1 masz racje, ta firma nic nie miala poza patentami (nic nie wartymi w EU bo dotyczacymi softu)
2 "dobra fiza w grach sie przyda"
ageia nie ma nic wspolnego z fizyka w grach, a z EFEKTAMI wygladajacymi jak fizyczne, tz ikskierki czy woda wygladajaca jak zlepek kulek, slowem GOWNO
Efekty strikte fizyczne jak niszczenie scian itd mozna sobie zobaczyc w UT3, gdzie z AGEIA masz <30 fps gdy rozwalasz sciane .. bo karta SPOWALNIA CALEGO KOMPA, w dodatkyu karta AGEIA w UT3 dziala TYLKO na jednym specjalnym levelu, a nie w calej grze :)))
ATI i NVIDIA w tamtym roku mialy juz swoje wlasne implementacje Havoc na GPU dzialajace kilkukrotnie szybciej od wielordzeniowego CPU, ATI bylo ponoc 6 miesiecy do przodu, wyglada jakby Nvidia sie przestraszyla i postanowila walczyc z ATI patentami kupionymi od ageii
- I tak trzeba czekac na DX11 (autor: Adolph | data: 6/02/08 | godz.: 11:10)
Z tego co słyszałem to już jest w specyfikacji fizyka w GPU :):):). Ale jakby chcieli byc super i zamontowac to w GPU to te GT200 miało by TDP jakieś 300 Watt Więc jest to rekord nie do pobicia :):):) Chyba że takie 2.
- RusH (autor: Remedy | data: 6/02/08 | godz.: 13:37)
;D ;D ;D
Zakładam, że nie widziałeś nigdy pokazu Cell Factor przy użyciu PhysX. W przeciwnym wypadku nie opowiadałbyś takich bajek.
Fizyka od ATI i Nvidia? Działająca szybciej? HAHAHAHHAHAHAH! Chyba nie mówisz o tym, co pokazali w demkach a co mniej więcej można opisać tak: granat wrzycony w kupkę kości (chyba dinozaura), które po wybuchu latały w powietrzu jak kot z pęcherzem odstawiając przy tym tragikomiczny cyrk. To jest ta Twoja fizyka?
Poza tym sądziłem, że rozumiesz co to jest PhysX.
- czy to jest jakis dinozaur? (autor: RusH | data: 6/02/08 | godz.: 15:35)
http://www.youtube.com/watch?v=xMjgssWkRE0
http://www.youtube.com/watch?v=gLgb9AdnaBI
nie chce mi sie szukac reszty, ale byl do tego tekst z info ze na GPU ciagna 10x wiecej operacji niz havoc na 2 rdzeniowym intelu
Cell Factor to nie gra a demo PhysX. UT3 z PhysX KLATKUJE (bo tak nazywam gre z 30fps na wypasionym kompie)
- RusH (autor: Remedy | data: 6/02/08 | godz.: 18:23)
Przyznaję, że na tym drugim filmiku ruch obiektów wygląda naprawdę dobrze. Natiomiast w pierwszym już nie tak różowo. Ok obiektów więcej, ale nie o to chodzi.
Z kolei drugi filmik ma bardzo dobry ruch/interakcję obiektów ale za to jest skromną pokazówką. Gdzie tu mówić o kompletnej grze.
No i jaki jest sens 3 (!!!!!!) kart graficznych w komputerze żeby uzyskać efekt i tak gorszy od jednego PhysX?
Cell Factor można kupić od producenta - jak dla mnie to gra.
UT3 z PhysX klatkuje? Napisz maila do Epic, że są sierotami i nie potrafią poradzić sobie z napisaniem dobrego kodu pod PhysX.
To, że GPU może nawet 10x lepiej radzić sobie z fizyką nie jest dla mnie zaskoczeniem. Tyle, że PhysX potrafi poradzić sobie z tym samym kilka razy lepiej niż najlepsze GPU. Co wybierasz?
- No i jaki jest sens 3 (!!!!!!) kart graficznych (autor: RusH | data: 6/02/08 | godz.: 19:17)
2 ciagnely grafe, fizyka szla na X1600 czyli na zabytku
>skromną pokazówką. Gdzie tu mówić o kompletnej grze.
przeciez koles wyraznie powiedzial ze jest to implementacja API HAVOC, czyli KAZDA gra z fizyka na havoc by z tego kozystala (oblivion, HalfLife2 itd)
>UT3 z PhysX klatkuje? Napisz maila do Epic, że są sierotami i
>nie potrafią poradzić sobie z napisaniem dobrego kodu pod
>PhysX.
Reaction: Immediate disappointment. On the standard gaming rig we use – housing an Athlon 64 X2 4800+, a GeForce 8800 Ultra and 2GB of RAM whilst running Vista – the framerate fell through the floor. What had previously averaged at a smooth 30-35 FPS with everything on maximum now suffered 4-7FPS even with everything on minimum.
http://www.bit-tech.net/...3/unreal_tournament_3/4
lepiej, 4-7fps dzieki wspanialemu "akceleratorowi fizyki" cos jak S3Virge akceleratorem 3D. W GRAW ta karta tak samo "akceleruje" wstecznie, a dodaje jedynie iskry przy wybuchach i wode wygladajace jak kulki kisielu
>To, że GPU może nawet 10x lepiej radzić sobie z fizyką nie
>jest dla mnie zaskoczeniem. Tyle, że PhysX potrafi poradzić
>sobie z tym samym kilka razy lepiej niż najlepsze GPU. Co
>wybierasz?
Remedy juz 2 razy byla TA SAMA dyskusja tutaj z toba :/
http://209.85.129.104/...amp;cd=2&client=opera
za kazdym razem jest to samo, zachwalasz, ja wklejam link do testu z 4-7fps i sie zamykasz ...
- o lol (autor: Remedy | data: 7/02/08 | godz.: 00:06)
Tobie trzeba drukowanymi? TO WINA PAJACÓW Z EPIC, ŻE NIE POTRAFIĄ NAPISAĆ DOBREGO KODU DO OBSŁUGI TEGO. Większość pajaców nie potrafi dlatego korzystają z czegoś takiego jak Havoc - czyli gotowiec zrobiony przez fachowców. Minus Havoca to to, że zrzuca wszystko na CPU, który nie nadaje się do tego typu obliczeń.
Dlaczego spada FPS np w GRAW? BO JEST WIĘCEJ ELEMENTÓW DO LICZENIA DLA GRAFIKI!!!!!!!! Proste? Debile zamiast zrobić porzadną fizykę z tym co było, woleli dodać parę bzdur jak iskry, drzazgi i trochę gruzu.
- masz racie (autor: RusH | data: 7/02/08 | godz.: 18:09)
7fps w UT3 to wina epic, 2x mniej fps z physX w GRAW to wina ubisoft .. i tak dalej :)
Havoc nie ma nic magicznego, tez ma API przez ktore wysyla sie info o interakcji i odbiera przeliczone juz dane, to ze jest szybszy, latwiejszy w kodowaniu i istnieja juz implementacje na GPU to jego zalety a nie wady.
Wez kup sobie w koncu ta karte to ci przejdzie.
- a co ma mi przejść? (autor: Remedy | data: 8/02/08 | godz.: 02:13)
Od początku kibicowałem temu projektowi, bo jest to coś naprawdę sensownego. Oczywistym było to, że z czasem trafi do najprawdopodobniej na kartę graficzną. Sami twórcy mówią, że PhysX jest częścią trójkąta PPU + CPU + GPU.
Wkurza mnie tylko pajacowanie ludzi, którzy nie potrafią zrozumieć prostej zależności - więcej obiektów na ekranie = mniej FPS.
W zamierzeniu nie chodziło o to, żeby dzięki PhysX mieć 4x więcej iskier czy krzywo latających drzazg. Chodziło o to żeby z tym budżetem poligonów, który mają programiści zrobić realniejsze interakcje i zależności między przedmiotami oraz żeby nie obciążać tym CPU tylko właśnie PPU jakim jest PhysX.
On ma liczyć tylko to a nie wspomagać GPU. Dlatego oczywistym jest, że jeżeli ktoś da 4 razy więcej obiektów na ekranie to gra zwolni.
- ale PO CO? (autor: RusH | data: 8/02/08 | godz.: 09:33)
skoro na cpu z Havoc mam bardzo ladne interakcje (HL2 grav gun, oblivion melony z nieba itd)
W UT3 jest wlasnie tak jak _bys chcial_, tz nie ma wiecej iskier itd, sa za to sciany ktore mozna rozwalac, i kazde trafienie w taka sciane = 3FPS przez pare sekund bo magiczna karta PhysX nie nadaza z obliczeniami.
- ale (autor: Remedy | data: 8/02/08 | godz.: 11:50)
to co jest w HL2 to śmiech na sali. Za mało tego i za mało realistycznie. Wszystko to ma za małą masę, nie można tego rozpieprzyć na drobne itd. W samochodówkach też sporo jest do zrobienia.
I chodzi właśnie o to, że CPU się do tego nie nadaje. Owszem, do obsługi kilku oponek i śmietników o słabym "szkielecie fizycznym" tak, ale nic ponad.
- no ale (autor: RusH | data: 8/02/08 | godz.: 12:08)
PhysX tez sie do tego nie nadaje, a skoro ATI na marnym X1600 potrafi przyspieszyc havoca 10 ktornie to nie widze potrzeby kupowania specjalnej karty za 400-800zl
- Na jakiej podstawie twierdzisz, że się nie nadaje? (autor: Remedy | data: 8/02/08 | godz.: 13:12)
Ja osobiście też nie chciałbym wydawać na to 800zł. 400zł mógłbym przełknąć. Bez sensu jest dla mnie używanie karty graficznej tylko do obliczeń fizycznych.
Poza tym jest jeszcze coś. Możliwość stosowania różnych kart graficznych do tego to problemy z kompatybilnością no i wydajnością, bo może się okazać że trzeba kupić mocniejszą grafę, bo nowa gra ma jeszcze większe wymagania. Nie wspominając już o tym, że potrzeba 3 gniazd PCI-Express!!!
|
|
|
|
|
|
|
|
|
D O D A J K O M E N T A R Z |
|
|
|
Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.
|
|
|
|
|
|
|
|
|
|