TwojePC.pl © 2001 - 2024
|
|
Piątek 6 stycznia 2012 |
|
|
|
Pierwsze zdjęcia rdzenia APU Trinity Autor: Zbyszek | źródło: Beyond3D | 18:16 |
(38) | W sieci pojawiły się pierwsze zdjęcia przedstawiające budowę rdzenia nowych procesorów APU o nazwie kodowej Trinity, które trafią na rynek na przełomie marca oraz kwietnia i zastąpią oferowane dotychczas APU Llano z rdzeniami K10.5+. Układy będą wyposażone w dwa moduły Piledriver (ulepszony Bulldozer) z czterema rdzeniami x86 oraz zintegrowany układ graficzny Radeon serii 7000, prawdopodobnie zbudowany w oparciu o architekturę VLIW4. Chipy mają powierzchnię około 240 mm2 i w porównaniu do Llano są nieco węższe, ale za to wyraźnie dłuższe.
W górnej środkowej części rdzenia widzimy dwa moduły Piledriver, każdy z 2MB pamięci podręcznej drugiego poziomu. Po ich lewej stronie umieszczono interfejsy komunikacyjne oraz kontroler PCI-Express, po prawej stronie interfejs dwukanałowej pamięci DDR3 natomiast kontroler pamięci wraz mostkiem północnym znajduje się pomiędzy pamięciami podręcznymi modułów. W dolnej części rdzenia znajduje się układ graficzny.
Po lewej - Llano, po prawej Trinity
(kliknij aby powiększyć) |
| |
|
|
|
|
|
|
|
|
|
K O M E N T A R Z E |
|
|
|
- APU Trinity (autor: Conan Barbarian | data: 6/01/12 | godz.: 20:00)
Może być ciekawie.
- ... (autor: Sauron920925 | data: 6/01/12 | godz.: 20:08)
ciekawe kiedy i co wsadzą do nowych konsol
- ... (autor: Aamitoza | data: 6/01/12 | godz.: 20:41)
Cofanie się, czy jak? Widać wyraźnie 6 SIMD, a skoro jest VLIW4 to nie ma 384 procesory strumieniowe. Skoro chcą uzyskać 50% większą moc obliczeniową GPU, to będą musieli wrzucić zegary na poziomie 900-950mhz.
- ... (autor: Aamitoza | data: 6/01/12 | godz.: 20:41)
To ma 384*
- hmmm (autor: Mario2k | data: 6/01/12 | godz.: 21:03)
Do nowych konsol zawsze wkladano to co najnowsze na rynku albo cos zblizonego wydajnoscia do topowych gpu danego okresu .
na dzien dzisiejszy modyfikowany GPU Tahiti pro
- Mario2k (autor: Aamitoza | data: 6/01/12 | godz.: 21:44)
Tylko, że wtedy te topowe GPU miały TDP w granicach 100W, a do konsol trafiały i tak wersje okrojone. Więc w konsolach można się spodziewać co najwyżej GPU podobnych do mobilnego topu.
- ... (autor: Sauron920925 | data: 6/01/12 | godz.: 23:04)
No właśnie to mnie zastanawia. W momencie premiery Xboxa 360 czy PS3 to te GPU były dużo mniejsze, prostsze, wydzielały dużo mniej ciepła i pobór energii pewnie był ze 100-150% mniejszy względem obecnych, topowych układów. Do tego trzeba jeszcze dodać CPU i powoli zaczyna mnie zastanawiać czego możemy się spodziewać. Myślę że nadchodzące APU mogą stanowić zapowiedź nadchodzącej nowej generacji konsol. Nie wierzę że wsadzą coś pokroju GTX580...
- @ up (autor: Zbyszek.J | data: 7/01/12 | godz.: 00:02)
http://twojepc.pl/news22140.html
- Sauron (autor: Aamitoza | data: 7/01/12 | godz.: 00:05)
Tak jak pisałem - wsadzą układy pokroju rynku mobile. TDP takich układów to 50-75W i więcej w konsolach nie będzie.
w przypadku konsol aktualnej generacji wsadzili mocno okrojone karty topowe. Tyle, że miały one TDP 100W, a i tak zwęzili im szynę, obcieli ROPy do połowy i jedynie shaderów nie poskąpili za bardzo.
Więc Skoro konsole mają wyjśc w przeciągu przyszłego roku więc w 28nm, to nie ma co się spodziewać cudów - będą to układy pokroju mobilnych z końca tego roku.
- ... (autor: Aamitoza | data: 7/01/12 | godz.: 00:10)
Inna sprawa że M$ najbardziej chciał by pewnie od razu wydać układ SOC gpu + CPU w jednym, więc tutaj trzeba by uwzględnić nawet wolniejsze GPU pokroju HD68xx - około 1,5 miliarda tranzystorów na GPU, podobna ilość na CPU i mamy w 3 miliardach tranzystorów 8 rdzeniowego power7 + HD68xx. Oczywiście GPU było by wydajniejsze od 68xx bo zoptymalizowane pod konsole itd.
- na chwile obecna (autor: Kosiarz | data: 7/01/12 | godz.: 01:17)
co by nie wsadzili to i tak bedzie o niebo wydajniejsze niz poprzednia generacja. popatrzcie na specyfikacje tego co siedzi w konsolach a tego co mamy teraz. Jak beda optymalizowac kod gier tak jak to robia teraz no to mamy spokoj na kilka lat.
- @up (autor: Plackator | data: 7/01/12 | godz.: 01:34)
Kod nie jest optymalizowany ;)
- @12. (autor: Mariosti | data: 7/01/12 | godz.: 04:04)
Tylko sam magicznie wyciąga 1000% z gpu... sztuczki graficzne z teksturami itp to też optymalizacje.
- @up (autor: Plackator | data: 7/01/12 | godz.: 12:26)
Trudno nazwać pre-renderowanie sceny optymalizacja z mojego punktu widzenia, to tak jak by film który jest pre-renderowany nazwać optymalizowanym.
Optymalizacja możemy nazwać raczej renderowanie gry w bardzo niskich rozdzielczościach i później skalowanie ich
- @Plackator (autor: Kosiarz | data: 7/01/12 | godz.: 12:39)
kombinujesz jak kaczor pod gore. prawda jest taka ze jezeli chodzi o konsole to juz dawno skonczyl im sie zapas mocy a nadal tworza gry ktore wygladaja coraz lepiej. pre-rendery czy inne cuda - co za roznica. Gry wygladaja rewelacyjnie w porownaniu do tego co bylo standardem jak wypuszczali konsole na rynek i to sie liczy. Mozemy tutaj toczyc debate filozoficzna co sie zmienilo a co nie tylko po co...
Prawda jest taka ze jak te same zabiegi zastosuja dla kart pokroju radeonow 7k to beda gry wygladajace jak Avatar. Tyle w temacie.
- kosiarz (autor: Aamitoza | data: 7/01/12 | godz.: 12:52)
Chyba na screenach :D Bo tylko tam większość prerenderów wygląda świetnie.
- @15 (autor: Plackator | data: 7/01/12 | godz.: 13:31)
Nie wiem czy gra w rozdzielczości 960x7xx rozciągnięta do 1920x1200 wygląda jak marzenie, bo jak dla mnie wygląda jak rozmazana plama...
- Po co szybsza grafika (autor: pomidor | data: 7/01/12 | godz.: 15:13)
która będzie czekała na wolny CPU ? To jest niezbilansowany produkt. Może się nada do mielenia seti at home i tym podobnych.
Pozostaje czekać na Ivy Bridge z 2x szybszą grafiką, niskim poborem prądu i łatwym OC CPU do 5.5Ghz.
- @15 (autor: Plackator | data: 7/01/12 | godz.: 15:14)
poza faktem ze pre-renderowane sceny wyglądają jak doklejone modele 3D do doklejonej sceny, bo zazwyczaj cześć gry jest pre-renderowana.
- @pomidor (autor: Conan Barbarian | data: 7/01/12 | godz.: 15:21)
"Po co szybsza grafika która będzie czekała na wolny CPU"
Dlaczego szybkie CPU jest sprzedawane (na siłę) z beznadziejnym GPU w przypadku Intela?
- Akurat w przypadku domowych zastosowań... (autor: Seba78 | data: 7/01/12 | godz.: 17:21)
APU od AMD są korzystniej zbilansowane i w domowych zastosowaniach biją rozwiązania intela na łeb. Moc procesora intela ujawnia się tylko w kilku profesjonalnych zastosowaniach i to tylko dlatego, że programy są pod te procesory zoptymalizowane. Odbijają się niestety lata praktyk monopolistycznych.
- Pomidor (autor: Aamitoza | data: 7/01/12 | godz.: 17:30)
To intel ma źle zbilansowaną platformę - mocne CPU + słabe GPU.
U AMD masz średnie CPU i średnie GPU.
- No właśnie... (autor: losarturos | data: 7/01/12 | godz.: 17:35)
Jak masz w procku mocne CPU i za słabe GPU to ewentualnie dokupujesz grafę na pcie i wsadzasz w płytę. A jak masz średnie GPU i za słabe CPU to kupujesz mocniejszy procek i wsadzasz sobie go w d... bo w płycie już masz procka i nie ma placu na następny ;-)
- hmm (autor: Seba78 | data: 7/01/12 | godz.: 17:42)
U AMD mamy dobry procek i bardzo dobre GPU
W przypadku Intela mamy dobry procek i beznadziejne GPU lub bardzo dobry procek i beznadziejne GPU za kosmiczne pieniądze.
To nie jest dobry bilans do domowych i biznesowych zastosowań. Naprawdę trudno tu o racjonalny argument za platformą intela.
- @25 ależ jest: z68 / lucid Virtu i .. nowe Ati 77xx-79xx (autor: AbrahaM | data: 7/01/12 | godz.: 17:58)
2d obsłuży integra z CPU (do czego z nawiązką wystarczy), 3D ATI. Dzięki "Zero Core Power" ATI znajdując się w stanie idle będzie konsumować.. całe 3W. Źródło: http://twojepc.pl/..._radeon_hd_7970&strona=5.
Konfiguracja marzenie dla kogoś, kto szanuje energię i potrzebuje wydajności..
- Intel vs AMD (autor: Conan Barbarian | data: 7/01/12 | godz.: 18:02)
W przypadku AMD APU mamy zdecydowanie lepsze dopasowanie CPU do GPU.
W przypadku Intela mamy świetne CPU i namiastkę GPU, którą najlepiej zwać zbukiem lub grafiką 2D, aby nie było nadużywania nazwy GPU.
- @23 (autor: Plackator | data: 7/01/12 | godz.: 18:38)
W przypadku APU, jeżeli masz dokupisz do APU grafike, łączy się nią i uzyskuje dużo większą wydajnosc.
Zresztą AMD idzie w całkiem inne rozwiązanie niż Intel, czyli dokładnie APU, nawet w przypadku serwerów....
- @up (autor: Plackator | data: 7/01/12 | godz.: 18:46)
tzn. układy heterogeniczne.
- heh rece opadaja (autor: Mario2k | data: 7/01/12 | godz.: 19:18)
7970 bierze okolo 3Watty przy wlaczonym screensaverze i mam tu na mysli black nie fajerwerki.
Tak przy okazji kiedy oniz zrobia porzadek z zarzadzaniem energia na kilku monitorach
mam grafe podpieta do Teli ogladam przez 2 godziny film nic nei robiac na kompie a monitor swieci przez ten caly czas daremnie :/ Taki babol od lat mialem nadzieje ze w seri 7xxx naprawia i dupa zbita
- @up (autor: Plackator | data: 7/01/12 | godz.: 20:10)
yyyy...?
Przecież na prawie każdym systemie operacyjnym możesz wyłączyć monitor po x minutach.
- @30. (autor: Mariosti | data: 7/01/12 | godz.: 20:47)
Problem w tym że przy podłączeniu przez hdmi wyłączenie wysyłania sygnału do monitora nie skutkuje jego wyłączeniem u mnie np jest wtedy niebieski obraz, na dvi nie ma problemu i faktycznie monitor przechodzi w stan uśpienia.
- @29 - mnie też opadają (autor: AbrahaM | data: 7/01/12 | godz.: 22:05)
przecież właśnie o tym pisałem, o tym, że praktycznie nieaktywna karta bierze tylko 3W i to jest jej b. silny atut. A jak to powiazać z Virtu i obsługą "2D" przez "to coś" wbudowane w CPU intela, to jest w efekcie bardzo miła kombinacja oszczędności energii i mocy do dyspozycji gdy trzeba..
- Intel - jak jest wie ktoś? (autor: Conan Barbarian | data: 7/01/12 | godz.: 22:49)
Czy ktoś znalazł oficjalne info lub testy poboru mocy dla Sandy Bitch w przypadku P67?
Chodzi o podstawowe pytanie - czy zbuczek jest aktywny czy nieaktywny?
- @up (autor: Plackator | data: 7/01/12 | godz.: 23:23)
2500k na P67 przy prime95 pobiera 148W, a 2500k na H67 przy prime95 pobiera 148W
- @Plackator (autor: Conan Barbarian | data: 8/01/12 | godz.: 13:31)
czyli wszystko jasne
- obawiam się, że procesor graficzny intela nie nadaje się nawet do 2D (autor: Seba78 | data: 8/01/12 | godz.: 14:53)
Przecież to nie potrafi poprawnie obsłużyć obrazu z BR o innych problemach nie wspominając. Ten badziew ciągle się wysypuje jeśli chcemy zrobić coś wykraczającego poza standard wyświetlania pulpitu. I jeszcze ta jakość obrazu. Zgroza!
- Plackator (autor: Mario2k | data: 8/01/12 | godz.: 20:05)
Chyba nie lapiesz problemu ....
Monitor podlaczony po DVI TV podlaczony po HDMI
normalnie screen saver i wylanczanie monitora dziala bez problemu ,ale podczas ogladania filmow na TV monitor chodzi nonstop !!! nie dziala wtedy ani screen saver ani jego calkowite wygaszenie , moge go tylko przycieskiem wylaczyc ale to jest strasznie wnerwiajace .
Z tego co czytam tu i owdzie to wina sterownikow
widac trzeba kolejnych kilku lat zeby to naprawili :/
- #Up (autor: Alt-Computer | data: 8/01/12 | godz.: 20:18)
chyba jednak to nie w sterowniku problem.
BenQ VW2420H przez DVi i jakiś Samsung przez HDMI.
Monitor wyłącza się podczas oglądania filmu.
Karta 6970 (tryb teatralny).
|
|
|
|
|
|
|
|
|
D O D A J K O M E N T A R Z |
|
|
|
Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.
|
|
|
|
|
|
|
|
|
|