TwojePC.pl © 2001 - 2024
|
|
Czwartek 16 maja 2013 |
|
|
|
Studio Guerilla Games chwali Sony za PlayStation 4 Autor: Wedelek | 08:02 |
(25) | Konsola Sony PlayStation 3 regularnie zbierała cięgi od deweloperów, którzy narzekali, że specyficzna architektura rdzeni CPU wymaga od nich większych nakładów pracy. Wszystko było względnie proste dopóki gra miała działać tylko na konsoli, ale gdy trzeba było stworzyć tzw. port dla innych platform, w tym PCta z procesorem na bazie x86, pojawiały się schody, wymagające dodatkowych nakładów pracy. Jak bardzo deweloperzy oczekiwali ułatwień w PlayStation 4 odczuliśmy tuż po prezentacji specyfikacji nowej konsoli, która dostała procesor z ośmioma rdzeniami x86 Jaguar, GPU na bazie architektury GCN i zintegrowaną, współdzieloną pamięć GDDR5.
Użytkownicy na co dzień pracujący jako programiści chwalili w komentarzach ruch Sony, a także Microsoftu, który jak wiadomo też wsadzi do swojego Xboksa podobny układ od AMD.
Niedawno pojawił się nawet oficjalny komentarz studia Guerilla Games, który pracuje nad nowym Killzone: Shadow Fall. Powiązane z Sony studio doceniło fakt, że kod dla PlayStation 4 pisze się łatwiej niż w przypadku „trójki”, a co najważniejsze nie trzeba wprowadzać aż tylu poprawek, by gra mogła poprawnie działać na komputerach PC. Studio w samych superlatywach wypowiadało się też na temat wydajności GPU, chwaląc pomysł wprowadzenia współdzielonej pamięci GDDR5.
|
| |
|
|
|
|
|
|
|
|
|
K O M E N T A R Z E |
|
|
|
- Robi się (autor: Toranaga | data: 16/05/13 | godz.: 10:02)
co najniej ciekawie, jeśli te konsole odniosą sukces to Nvidia nie będzie miała łatwego życia.
- @1 dlaczego? (autor: Demo | data: 16/05/13 | godz.: 10:21)
imho granie na pc nie jest w żadnym wypadku zagrożone. Jak wychodziły ps1, ps2, xboxy to też wyprzedzały pc'ty jakością grafy, płynnością itd. a jednak pcty migiem je doganiały i prześcigały.
- PS4 w momencie premiery (autor: Remek | data: 16/05/13 | godz.: 11:19)
już będzie z tyłu za pecetami. Szkoda zachodu.
- up. (autor: piobzo | data: 16/05/13 | godz.: 11:31)
ciekawe bo ja nie widziałem jeszcze 8 rdzeniowego apu z gddr5 na piecu...
- #2 Dlatego, że (autor: Toranaga | data: 16/05/13 | godz.: 12:17)
IMHO łatwiej będzie developerom robić porty na PC (zbliżona architektura).
A, że niezgodna z Nvidią więc Nvidia ma problem.
- @2. (autor: quadcore | data: 16/05/13 | godz.: 12:40)
Bo teraz radki dostaną takiego kopa , dzięki optymalizacji że Nvidia będzie miała wielki problem.
- nvidia moze sie pozegnac z optymalizacja (autor: Kosiarz | data: 16/05/13 | godz.: 13:50)
Pod fisiksa i inne cuda. Amd niedlugo bedzie podstawowym dostawca sprzetu do grania-tak widze rynek za parenascie miesiecy. Intel procki biznesowe a nv mysle ze moze podzialac na rynku mobilnym i obliczeniowym.
- @5 i @6 ale problem będzie dotyczył (autor: Demo | data: 16/05/13 | godz.: 13:51)
portów na pc. A jaki to jest % gier w jakie gramy na kompach?
- #Up (autor: Toranaga | data: 16/05/13 | godz.: 14:06)
duży, poza tym nie rozumiesz widzę zależności.
Jeśli wiadomo, że port konsolowej gry jest optymalizowany pod AMD (i prawie na pewno nie będzie wspierał cudów Nvidii) to jak myślisz, które karty będą lepsze do gier?
- @8. (autor: quadcore | data: 16/05/13 | godz.: 14:29)
Toranaga ma racje.Deweloperzy będa pisać pod GCN(xbox720 , PS 4 , PC , WiiU) i nikomu raczej się nie będzie opłacała optymalizacja pod "Cuda" Nvidi. Czysty biznes to by trwało zbyt długo i byłby zbyt kosztowne.
- Toranaga ja tu widzę jeden minus (autor: Sławekpl | data: 16/05/13 | godz.: 14:30)
można się obawiać stagnacji u AMD, skoro ich sprzęt będzie lepiej wykorzystywany (gry bardziej dopracowane pod ich CPU/APU/GPU) to mogą spocząć na jakiś czas na laurach
- #Up (autor: Toranaga | data: 16/05/13 | godz.: 14:45)
coś jest na rzeczy w tym co napisałeś.
Ale z drugiej strony patrząc w segmencie pro, z którym mam do czynienia to obserwuję ogromny skok wydajnościowy i jakościowy AMD w stosunku do tego co proponowali choćby 2 lata temu.
mam nadzieję, że to się przełoży na segment rozrywkowego wykorzystania GPU.
- jak (autor: Markizy | data: 16/05/13 | godz.: 15:39)
by się jeszcze optymalizacje z konsoli łatwo przenosiły na świat PCtów?:P
Nvidia nie musi się czuć zagrożona bo to czy gra będzie korzystać z psiksa czy nie nie ma dla nich znaczenia, był to i tak zawsze dodatek do możliwości CUDA, jednak ten dodatek się nie przyjął specjalnie dobrze. Optymalizacje gier konsolowych dadzą zaledwie pare % lepsze wyniki gierkom na PCta, a dlaczego a no dlatego że konsole posiadają inny system operacyjny który posiada całkowicie inne założenia niż typowy windows. Jedyna zaletą jaka jest z to taka że CPU w PC i konsolkach mają taką sama architekturę, a to ułatwi tworzenie portów, przez co gry będą wymagały mniejszej ilości poprawek, no i poprawi się ogólna wydajność na prockach amd, bo nie będą używane optymalizacje działające tylko na intelu.
Czas pokaże co z tego wszystkiego wyniknie bo dopóki dopóty nie ma konkretnych tytułów i testów to można sobie gdybać.
- nie ma dla nich znaczenia (autor: RusH | data: 16/05/13 | godz.: 19:30)
nie ma znaczenia a placa tysiace dolarow developerom za zaimplementowanie :)
- @03 (autor: mbe | data: 16/05/13 | godz.: 20:52)
Każda konsola w dniu premiery było do tyłu co chodzi o moc obliczeniową bo tylko tak naprawdę można porównać pc i konsole. Tyle że konsola nie ma miliona konfiguracji i pisze się pod jedną określoną specyfikacje.
Kolejna sprawa że X i PS4 będą do siebie zbliżone.
Myślę że AMD teraz skupi się na arch. jaguar i porzuci arch. modułową...
- mbe (autor: Markizy | data: 16/05/13 | godz.: 21:12)
dlaczego mieliby porzucić architekturę modułową? Jaguarł był projektowany do uzyskiwania niskich częstotliwości, ostatnio się zastanawiałem ile wspólnego bobcat/jaguar miałby z k7 po modyfikacjach.
- @16 (autor: mbe | data: 16/05/13 | godz.: 22:12)
Bo moduły nie sa zbyt przyszłościowe jak widać.
- NV vs AMD (autor: franc# | data: 16/05/13 | godz.: 22:27)
to że GCN będzie w konsolach, może oznaczać, że będzie pod to optymalizowany kod, jest jedno ale. Jeśli zaczną pod to optymalizować, to pytanie czy AMD będzie dalej mogło ruszyć z tą architekturą? Rewolucji nie będzie, no bo jak wrzucą coś nowego do PC-towych radków, to znowu się okaże, że tylko one będą to miały, a konsole się magicznie nie zupgrade-ują. Czyli niby AMD skorzysta, ale może tylko na początku? Jak dla mnie mało ważne, która architektura jest lepsza - to dobre dla fanbojów :P. Niech powstaną wypasiony gry, bo W KOŃCU! konsole mają tyyyyle pamięci i tyyyyle mocy, że developerzy nie będą piszczeć, że są ograniczeni.
- mbe (autor: Markizy | data: 16/05/13 | godz.: 22:44)
moduły są bardziej przyszłościowe niż niezależne rdzenie, tylko w przypadku amd zaliczyły falstart. Narazie po pierwszych poprawkach podnieśli wydajność o 15%, ciekawe jak przedstawi się SR na tle PD. Nie przyszłościowa jest jest architektura intela bo podnosi wydajność o 5% średnio, co może wynikać z faktu że osiągnęła ona granice możliwości, albo przynajmniej blisko niej jest, przez co skupiają się na kwestii energetycznej.
- @mbe (autor: grafenroot | data: 17/05/13 | godz.: 01:59)
Architektura modułowa ma świetlaną przyszłość. Już Markizy mniej więcej Ci to wytłumaczył. Jedyne czego się spodziewam, to że AMD zakończy linię FX w momencie kiedy dwumodułowe APU (HSA) okażą się wydajniejsze od czteromodułowych FX. Stsanie się tak jeśli AMD uda się wdrożyć ideę HSA (co jest prawie pewne wziąwszy pod uwagę, że wspiera to firma ARM).
Teraz wzystko zależy od oprogamowania.
Zintegrowane GPGPU (którego intel nie posiada) może dać wielkie wzrosty wydajności (architektura modułowa była pod tym kątem projektowana).
Jeśli chodzi o intela to jeśli nie przedstawi nowej architektury to zostanie ostro w tyle za AMD i dostanie sromotnego kopniaka w dupę od AMD.
- @grafenroot (autor: Promilus | data: 17/05/13 | godz.: 07:57)
Intel posiada GPGPU, a jakże. Wszystkie igp od Ivy Bridge wspierają OpenCL (obecnie chyba 1.2) czyli aktualne (ib) i przyszłe (hsw) są jak najbardziej w pełni wartościowymi "apu". Problemy są jednak 2:
a) większość softu OpenCL nie liczy wcale na iGP intela, bo szuka akceleratorów amd i nv only. Dotyczyło to m.in. aplikacji GPU na platformie BOINC, nie wiem czy czasem nie bitcoin oraz Winzip.
b) iGP intela i tak ustępuje wydajnością produktom AMD, a w szczególności iGP z PS4 więc nie są jakąś specjalnie mocną konkurencją
c) jak dobrze pamiętam jedyne co łączy igp i cpu w intelu to niewielki cache i kontroler pamięci. Nie kojarzę by mieli odpowiednik hUMA czy nawet zero copy path, ale tutaj akurat ktoś lepiej zaznajomiony z tematem powinien się wypowiedzieć.
- Promilus (autor: Markizy | data: 17/05/13 | godz.: 11:49)
jak dobrze pamiętam intel w swoich układach od SB używa ring-bus do komunikacji cpu-gpu-cache. Problem integry intela może być jej efektywność w stosunku o wielkości, nie be z powodu projekt larrabee upadł zanim pojawił się na rynku. Co do implementacji czegoś na wzór hUMA to nie słyszałem żeby intel dokonał.
Co do openCL nie wiem czy intel poprawił swoje sterowniki pod to środowisko, ale ostatnio w testach pclab wyszło że układy intela działają lepiej na sterowniku AMD. Ważne jest jak widać żeby tez zapewnić odpowiednie wsparcie programowe.
@grafenroot
architektura modułu jest o tyle fajna że w procesorze można zrobić jak by procesor, bo przykładowo obecny moduł to taki dwurdzeniowy w którym rdzenie komunikują się ze sobą przez L2 nie mecząc się przez pamięć L3. Dodatkowo nic nie stoi też na przeszkodzie żeby dorzucić tam kolejne rdzenie, przy czym wraz z ich dokładaniem będą rosły wymagania odnośnie L2 i L1, obecnie te pamięci są średnie w wykonaniu AMD.
- @up (autor: Promilus | data: 17/05/13 | godz.: 17:52)
"Co do openCL nie wiem czy intel poprawił swoje sterowniki pod to środowisko, ale ostatnio w testach pclab wyszło że układy intela działają lepiej na sterowniku AMD"
Dotyczy to WYŁĄCZNIE sterownika do CPU o czym większość portali nie raczyło pisać - bo AMD nie ma ŻADNEJ implementacji OpenCL na igp intela. sterownik OCL intela CPU wymaga SSE4.x wzwyż czyli od Penryna w górę, sterownik AMD wymaga SSE2 czyli od K8 i P4 w górę. Jest różnica, prawda?
- Promilus (autor: Markizy | data: 17/05/13 | godz.: 19:15)
nie wnikałem w szczegóły przyznaje, ale pisząc układy można było rozumieć też że mam namyśli całość cpu+igp.
- @ Promilus (autor: grafenroot | data: 20/05/13 | godz.: 11:36)
No to mnie zaskoczyłeś. Słyszałem, że IGP intela nie potrafi liczyć tego co inne GPGPU i w części obliczeń posiłkuje się rdzeniami CPU. Głowy, ręki czy nawet koniuszka palca nie dam sobie za to obciąć bo nie za bardzo interesowałem się możliwościami IGP intela.
|
|
|
|
|
|
|
|
|
D O D A J K O M E N T A R Z |
|
|
|
Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.
|
|
|
|
|
|
|
|
|
|