TwojePC.pl © 2001 - 2024
|
|
Środa 3 kwietnia 2013 |
|
|
|
W przyszłości do APU firmy AMD zawita współdzielona pamięć typu GDDR Autor: Wedelek | źródło: The Inquirer | 10:14 |
(12) | John Gustafson, szef działu zajmującego się rozwojem produktów graficznych w AMD w wywiadzie dla portalu The Inquirer powiedział, że jego firma planuje w przyszłości wyposażyć swoje APU we współdzieloną pamięć typu GDDR, do której dostęp miałyby zarówno GPU jak i CPU. Taki układ miałby podobną budowę do tego, który znajdziemy w nowej konsoli Sony – PlayStation 4. Dzięki znacznie większej przepustowości podsystemu pamięci wydajność wzrosła by wielokrotnie dzięki skróceniu czasu jaki jest potrzebny do przetransportowania danych z pamięci do jednostki, która zajmuje się ich przetwarzaniem.
Niestety w dalszej części wywiadu John Gustafson rozwiał wszelkie nadzieje osób wypatrujących podobnego rozwiązania w zbliżających się APU Kabini, twierdząc, że na zastosowanie tego typu rozwiązania jest jeszcze zbyt wcześnie. Powód, dla którego w chwili obecnej implementacja pamięci GDDR wewnątrz APU nie jest możliwa jest prozaiczny i na imię mu cena. Stworzenie takiego układu byłoby kosztowne, co natychmiast odbiłoby się na jego popularności.
Innymi słowy nie pozostaje nam nic innego, jak czekać na moment, w którym stworzenie takiego APU będzie w końcu opłacalne. |
| |
|
|
|
|
|
|
|
|
|
K O M E N T A R Z E |
|
|
|
- innymi (autor: Krax | data: 3/04/13 | godz.: 10:58)
słowy amd nie da nam super wydajnych apu(na razie)...bo były by zbyt drogie?
- Ehhhh (autor: zgrzejan | data: 3/04/13 | godz.: 11:35)
To niech przynajmniej wybor dadza.Ja tam bym dolozyl do GDDR5
- hmm (autor: 123er | data: 3/04/13 | godz.: 11:37)
może nie integracja w krzemie a umieszczenie na jednym chipe core i gddr z 2 kawałków krzemu.
- Takiej pamieci nie musialoby byc duzo (autor: rookie | data: 3/04/13 | godz.: 13:04)
Szybcitkiej pamieci 256MB do najczesciej wykonywanych obliczen a reszta obliczen do DDR3, ale o wysokiej wydajnosci min .1866mhz.
- @rookie (autor: VP11 | data: 3/04/13 | godz.: 13:26)
I to by spowodowalo problemy w obliczeniach. Nalezaloby robic optymalizacje kodu by poprawnie wykorzystac cache (bo to chyba proponujesz). Natomiast przejscie dla procesorow AMD na ddr5 nie przyniosloby pewnie takiej efektywnosci jak dla GPU. Ale obstawiam ze dla 8-rdzeniowca i jednowatkowych procesow (8 na raz) daloby niesamowity efekt. Ja widze po Xeonie jak on sie zapycha liczac kilka obliczen na pojedynczych watkach. Spadek wydajnosci jest powyzej 50%. I to procek z obsluga pamieci w trybie trzykanalowym.
To samo ma i AMD. Uruchomienie dodatkowego watku prowadzi do spadku wydajnosci pojedynczego watku. Uzycie szybkiej pamieci prawdopodobno zmniejszyloby spadek wydajnosci spowodowany przeplywem duzej ilosci danych. Ale o ile tego nie wiem.
- ^^ + 3 znaki (autor: Star Rider | data: 3/04/13 | godz.: 18:25)
hmmm (autor: Star Rider | data: 15/03/13 | godz.: 19:06)
a mnie ciekawi co inżynierowie SONY dołożyli do architektury AMD i ile z tego AMD przemyci do swoich przyszłych generacji procesorów :) GDDR5 jako pamięć operacyjna na PC? ;)
GDDR5 to jest DDR3 (autor: RusH | data: 15/03/13 | godz.: 19:45)
z kosmetycznymi roznicami (mniejsze napiecie, wiecej pinow, wieksze opoznienia, wieksze zegary)
nie ma czegos takiego jak "inzynierowie sony" :) Sony jest z technologia w dupie, ledwo sie z ps3 wyrobili (karta NV byla w ps3 wepchnieta w ostatniej chwili) naciagajac przy tym toschibe i ibma na ogromna inwestycje w CELLa
- ciekawe rozwiązanie. (autor: Qjanusz | data: 3/04/13 | godz.: 23:40)
ale można byłoby ciekawiej:
http://www.rambus.com/...s/xdr2/xdr2_vs_gddr5.html
;-)
- Qjanusz (autor: Markizy | data: 4/04/13 | godz.: 07:24)
tylko żeby ktoś na poważnie produkował pamięci xdr2
- @ Qjanusz (autor: loccothan | data: 4/04/13 | godz.: 09:13)
Tak RAMbus to byłoby to ale Intel Pogrzebał te technologię daawno temu z powodów nieopłacalności ;-) lol
Chciałbym zeby RAMbus się zagnieździło w PC BAAARDZOOOO ! W sumie testy testami ale miałem RAMbus-y wiele lat temu przy okazji uzytkowania Pentium i powiem że się "zbierał" he he !
- ciekawe (autor: piobzo | data: 4/04/13 | godz.: 12:24)
ile jak to będzie wyglądać, czy pamięć będzie na płycie głównej, czy może wpinana w płyte główną, no bo raczej nie zintegrowana z procesorem... powiedziałbym, że samo stworzenie to pikuś, w porównaniu z kosztami jakie wiążą się z wypuszczeniem na rynek... nowe płyty, procesory, pamięci...
- @piobzo (autor: Qjanusz | data: 4/04/13 | godz.: 12:59)
myślę że w najgorszym przypadku będzie to wyglądało mniej więcej tak:
http://www.infineon.com/...P256_Chip_GDDR3_ATI.jpg
a najprawdopodobniej będzie łącznie z APU częścią jednego kawałka krzemu.
- piobzo (autor: Star Rider | data: 4/04/13 | godz.: 17:53)
nowe płyty, procesory, pamięci... przecież to od wielu lat robi intel. I to w większości bez uzasadnienia z czysto inżynieryjnego punktu widzenia, a wyłącznie tylko dlatego żeby sobie kabzę nabić. Jeżeli przyrost wydajności byłby znaczny to nie widzę problemu. Żeby nie to nabijanie sprzedaży na siłę (co procesor to nowa podstawka, a jak stara to przynajmniej napięcia nie pasują, lol) to już dawno komponenty PC łączyły by się uniwersalną magistralą optyczną gdzie nie istnieje problem elektrycznego niedopasowania, a ewentualne niezgodności sprowadzały by się do aktualizacji firmware. I nie ma problemu żeby zasilanie do tego pociągnąć oddzielną wtyczką, płyta główna to tylko hub optyczny, a reszta komponentów z procesorem włącznie to moduły podłączane do niego. Trochę futurystyka, ale w sumie to niedaleka przyszłość raczej, bo inna alternatywa to tylko wszystko na raz w jednym kawału krzemu...
|
|
|
|
|
|
|
|
|
D O D A J K O M E N T A R Z |
|
|
|
Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.
|
|
|
|
|
|
|
|
|
|