Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Piątek 6 stycznia 2012 
    

Pierwsze zdjęcia rdzenia APU Trinity


Autor: Zbyszek | źródło: Beyond3D | 18:16
(38)
W sieci pojawiły się pierwsze zdjęcia przedstawiające budowę rdzenia nowych procesorów APU o nazwie kodowej Trinity, które trafią na rynek na przełomie marca oraz kwietnia i zastąpią oferowane dotychczas APU Llano z rdzeniami K10.5+. Układy będą wyposażone w dwa moduły Piledriver (ulepszony Bulldozer) z czterema rdzeniami x86 oraz zintegrowany układ graficzny Radeon serii 7000, prawdopodobnie zbudowany w oparciu o architekturę VLIW4. Chipy mają powierzchnię około 240 mm2 i w porównaniu do Llano są nieco węższe, ale za to wyraźnie dłuższe.

W górnej środkowej części rdzenia widzimy dwa moduły Piledriver, każdy z 2MB pamięci podręcznej drugiego poziomu. Po ich lewej stronie umieszczono interfejsy komunikacyjne oraz kontroler PCI-Express, po prawej stronie interfejs dwukanałowej pamięci DDR3 natomiast kontroler pamięci wraz mostkiem północnym znajduje się pomiędzy pamięciami podręcznymi modułów. W dolnej części rdzenia znajduje się układ graficzny.

Po lewej - Llano, po prawej Trinity

(kliknij aby powiększyć)

 
    
K O M E N T A R Z E
    

  1. APU Trinity (autor: Conan Barbarian | data: 6/01/12 | godz.: 20:00)
    Może być ciekawie.

  2. ... (autor: Sauron920925 | data: 6/01/12 | godz.: 20:08)
    ciekawe kiedy i co wsadzą do nowych konsol

  3. ... (autor: Aamitoza | data: 6/01/12 | godz.: 20:41)
    Cofanie się, czy jak? Widać wyraźnie 6 SIMD, a skoro jest VLIW4 to nie ma 384 procesory strumieniowe. Skoro chcą uzyskać 50% większą moc obliczeniową GPU, to będą musieli wrzucić zegary na poziomie 900-950mhz.

  4. ... (autor: Aamitoza | data: 6/01/12 | godz.: 20:41)
    To ma 384*

  5. hmmm (autor: Mario2k | data: 6/01/12 | godz.: 21:03)
    Do nowych konsol zawsze wkladano to co najnowsze na rynku albo cos zblizonego wydajnoscia do topowych gpu danego okresu .

    na dzien dzisiejszy modyfikowany GPU Tahiti pro


  6. Mario2k (autor: Aamitoza | data: 6/01/12 | godz.: 21:44)
    Tylko, że wtedy te topowe GPU miały TDP w granicach 100W, a do konsol trafiały i tak wersje okrojone. Więc w konsolach można się spodziewać co najwyżej GPU podobnych do mobilnego topu.

  7. ... (autor: Sauron920925 | data: 6/01/12 | godz.: 23:04)
    No właśnie to mnie zastanawia. W momencie premiery Xboxa 360 czy PS3 to te GPU były dużo mniejsze, prostsze, wydzielały dużo mniej ciepła i pobór energii pewnie był ze 100-150% mniejszy względem obecnych, topowych układów. Do tego trzeba jeszcze dodać CPU i powoli zaczyna mnie zastanawiać czego możemy się spodziewać. Myślę że nadchodzące APU mogą stanowić zapowiedź nadchodzącej nowej generacji konsol. Nie wierzę że wsadzą coś pokroju GTX580...

  8. @ up (autor: Zbyszek.J | data: 7/01/12 | godz.: 00:02)
    http://twojepc.pl/news22140.html

  9. Sauron (autor: Aamitoza | data: 7/01/12 | godz.: 00:05)
    Tak jak pisałem - wsadzą układy pokroju rynku mobile. TDP takich układów to 50-75W i więcej w konsolach nie będzie.

    w przypadku konsol aktualnej generacji wsadzili mocno okrojone karty topowe. Tyle, że miały one TDP 100W, a i tak zwęzili im szynę, obcieli ROPy do połowy i jedynie shaderów nie poskąpili za bardzo.

    Więc Skoro konsole mają wyjśc w przeciągu przyszłego roku więc w 28nm, to nie ma co się spodziewać cudów - będą to układy pokroju mobilnych z końca tego roku.


  10. ... (autor: Aamitoza | data: 7/01/12 | godz.: 00:10)
    Inna sprawa że M$ najbardziej chciał by pewnie od razu wydać układ SOC gpu + CPU w jednym, więc tutaj trzeba by uwzględnić nawet wolniejsze GPU pokroju HD68xx - około 1,5 miliarda tranzystorów na GPU, podobna ilość na CPU i mamy w 3 miliardach tranzystorów 8 rdzeniowego power7 + HD68xx. Oczywiście GPU było by wydajniejsze od 68xx bo zoptymalizowane pod konsole itd.

  11. na chwile obecna (autor: Kosiarz | data: 7/01/12 | godz.: 01:17)
    co by nie wsadzili to i tak bedzie o niebo wydajniejsze niz poprzednia generacja. popatrzcie na specyfikacje tego co siedzi w konsolach a tego co mamy teraz. Jak beda optymalizowac kod gier tak jak to robia teraz no to mamy spokoj na kilka lat.

  12. @up (autor: Plackator | data: 7/01/12 | godz.: 01:34)
    Kod nie jest optymalizowany ;)

  13. @12. (autor: Mariosti | data: 7/01/12 | godz.: 04:04)
    Tylko sam magicznie wyciąga 1000% z gpu... sztuczki graficzne z teksturami itp to też optymalizacje.

  14. @up (autor: Plackator | data: 7/01/12 | godz.: 12:26)
    Trudno nazwać pre-renderowanie sceny optymalizacja z mojego punktu widzenia, to tak jak by film który jest pre-renderowany nazwać optymalizowanym.

    Optymalizacja możemy nazwać raczej renderowanie gry w bardzo niskich rozdzielczościach i później skalowanie ich


  15. @Plackator (autor: Kosiarz | data: 7/01/12 | godz.: 12:39)
    kombinujesz jak kaczor pod gore. prawda jest taka ze jezeli chodzi o konsole to juz dawno skonczyl im sie zapas mocy a nadal tworza gry ktore wygladaja coraz lepiej. pre-rendery czy inne cuda - co za roznica. Gry wygladaja rewelacyjnie w porownaniu do tego co bylo standardem jak wypuszczali konsole na rynek i to sie liczy. Mozemy tutaj toczyc debate filozoficzna co sie zmienilo a co nie tylko po co...

    Prawda jest taka ze jak te same zabiegi zastosuja dla kart pokroju radeonow 7k to beda gry wygladajace jak Avatar. Tyle w temacie.


  16. kosiarz (autor: Aamitoza | data: 7/01/12 | godz.: 12:52)
    Chyba na screenach :D Bo tylko tam większość prerenderów wygląda świetnie.

  17. @15 (autor: Plackator | data: 7/01/12 | godz.: 13:31)
    Nie wiem czy gra w rozdzielczości 960x7xx rozciągnięta do 1920x1200 wygląda jak marzenie, bo jak dla mnie wygląda jak rozmazana plama...

  18. Po co szybsza grafika (autor: pomidor | data: 7/01/12 | godz.: 15:13)
    która będzie czekała na wolny CPU ? To jest niezbilansowany produkt. Może się nada do mielenia seti at home i tym podobnych.
    Pozostaje czekać na Ivy Bridge z 2x szybszą grafiką, niskim poborem prądu i łatwym OC CPU do 5.5Ghz.


  19. @15 (autor: Plackator | data: 7/01/12 | godz.: 15:14)
    poza faktem ze pre-renderowane sceny wyglądają jak doklejone modele 3D do doklejonej sceny, bo zazwyczaj cześć gry jest pre-renderowana.

  20. @pomidor (autor: Conan Barbarian | data: 7/01/12 | godz.: 15:21)
    "Po co szybsza grafika która będzie czekała na wolny CPU"
    Dlaczego szybkie CPU jest sprzedawane (na siłę) z beznadziejnym GPU w przypadku Intela?


  21. Akurat w przypadku domowych zastosowań... (autor: Seba78 | data: 7/01/12 | godz.: 17:21)
    APU od AMD są korzystniej zbilansowane i w domowych zastosowaniach biją rozwiązania intela na łeb. Moc procesora intela ujawnia się tylko w kilku profesjonalnych zastosowaniach i to tylko dlatego, że programy są pod te procesory zoptymalizowane. Odbijają się niestety lata praktyk monopolistycznych.

  22. Pomidor (autor: Aamitoza | data: 7/01/12 | godz.: 17:30)
    To intel ma źle zbilansowaną platformę - mocne CPU + słabe GPU.

    U AMD masz średnie CPU i średnie GPU.


  23. No właśnie... (autor: losarturos | data: 7/01/12 | godz.: 17:35)
    Jak masz w procku mocne CPU i za słabe GPU to ewentualnie dokupujesz grafę na pcie i wsadzasz w płytę. A jak masz średnie GPU i za słabe CPU to kupujesz mocniejszy procek i wsadzasz sobie go w d... bo w płycie już masz procka i nie ma placu na następny ;-)

  24. hmm (autor: Seba78 | data: 7/01/12 | godz.: 17:42)
    U AMD mamy dobry procek i bardzo dobre GPU
    W przypadku Intela mamy dobry procek i beznadziejne GPU lub bardzo dobry procek i beznadziejne GPU za kosmiczne pieniądze.
    To nie jest dobry bilans do domowych i biznesowych zastosowań. Naprawdę trudno tu o racjonalny argument za platformą intela.


  25. @25 ależ jest: z68 / lucid Virtu i .. nowe Ati 77xx-79xx (autor: AbrahaM | data: 7/01/12 | godz.: 17:58)
    2d obsłuży integra z CPU (do czego z nawiązką wystarczy), 3D ATI. Dzięki "Zero Core Power" ATI znajdując się w stanie idle będzie konsumować.. całe 3W. Źródło: http://twojepc.pl/..._radeon_hd_7970&strona=5.

    Konfiguracja marzenie dla kogoś, kto szanuje energię i potrzebuje wydajności..


  26. Intel vs AMD (autor: Conan Barbarian | data: 7/01/12 | godz.: 18:02)
    W przypadku AMD APU mamy zdecydowanie lepsze dopasowanie CPU do GPU.
    W przypadku Intela mamy świetne CPU i namiastkę GPU, którą najlepiej zwać zbukiem lub grafiką 2D, aby nie było nadużywania nazwy GPU.


  27. @23 (autor: Plackator | data: 7/01/12 | godz.: 18:38)
    W przypadku APU, jeżeli masz dokupisz do APU grafike, łączy się nią i uzyskuje dużo większą wydajnosc.

    Zresztą AMD idzie w całkiem inne rozwiązanie niż Intel, czyli dokładnie APU, nawet w przypadku serwerów....


  28. @up (autor: Plackator | data: 7/01/12 | godz.: 18:46)
    tzn. układy heterogeniczne.

  29. heh rece opadaja (autor: Mario2k | data: 7/01/12 | godz.: 19:18)
    7970 bierze okolo 3Watty przy wlaczonym screensaverze i mam tu na mysli black nie fajerwerki.

    Tak przy okazji kiedy oniz zrobia porzadek z zarzadzaniem energia na kilku monitorach
    mam grafe podpieta do Teli ogladam przez 2 godziny film nic nei robiac na kompie a monitor swieci przez ten caly czas daremnie :/ Taki babol od lat mialem nadzieje ze w seri 7xxx naprawia i dupa zbita


  30. @up (autor: Plackator | data: 7/01/12 | godz.: 20:10)
    yyyy...?
    Przecież na prawie każdym systemie operacyjnym możesz wyłączyć monitor po x minutach.


  31. @30. (autor: Mariosti | data: 7/01/12 | godz.: 20:47)
    Problem w tym że przy podłączeniu przez hdmi wyłączenie wysyłania sygnału do monitora nie skutkuje jego wyłączeniem u mnie np jest wtedy niebieski obraz, na dvi nie ma problemu i faktycznie monitor przechodzi w stan uśpienia.

  32. @29 - mnie też opadają (autor: AbrahaM | data: 7/01/12 | godz.: 22:05)
    przecież właśnie o tym pisałem, o tym, że praktycznie nieaktywna karta bierze tylko 3W i to jest jej b. silny atut. A jak to powiazać z Virtu i obsługą "2D" przez "to coś" wbudowane w CPU intela, to jest w efekcie bardzo miła kombinacja oszczędności energii i mocy do dyspozycji gdy trzeba..

  33. Intel - jak jest wie ktoś? (autor: Conan Barbarian | data: 7/01/12 | godz.: 22:49)
    Czy ktoś znalazł oficjalne info lub testy poboru mocy dla Sandy Bitch w przypadku P67?
    Chodzi o podstawowe pytanie - czy zbuczek jest aktywny czy nieaktywny?


  34. @up (autor: Plackator | data: 7/01/12 | godz.: 23:23)
    2500k na P67 przy prime95 pobiera 148W, a 2500k na H67 przy prime95 pobiera 148W

  35. @Plackator (autor: Conan Barbarian | data: 8/01/12 | godz.: 13:31)
    czyli wszystko jasne

  36. obawiam się, że procesor graficzny intela nie nadaje się nawet do 2D (autor: Seba78 | data: 8/01/12 | godz.: 14:53)
    Przecież to nie potrafi poprawnie obsłużyć obrazu z BR o innych problemach nie wspominając. Ten badziew ciągle się wysypuje jeśli chcemy zrobić coś wykraczającego poza standard wyświetlania pulpitu. I jeszcze ta jakość obrazu. Zgroza!

  37. Plackator (autor: Mario2k | data: 8/01/12 | godz.: 20:05)
    Chyba nie lapiesz problemu ....
    Monitor podlaczony po DVI TV podlaczony po HDMI
    normalnie screen saver i wylanczanie monitora dziala bez problemu ,ale podczas ogladania filmow na TV monitor chodzi nonstop !!! nie dziala wtedy ani screen saver ani jego calkowite wygaszenie , moge go tylko przycieskiem wylaczyc ale to jest strasznie wnerwiajace .

    Z tego co czytam tu i owdzie to wina sterownikow
    widac trzeba kolejnych kilku lat zeby to naprawili :/


  38. #Up (autor: Alt-Computer | data: 8/01/12 | godz.: 20:18)
    chyba jednak to nie w sterowniku problem.
    BenQ VW2420H przez DVi i jakiś Samsung przez HDMI.
    Monitor wyłącza się podczas oglądania filmu.
    Karta 6970 (tryb teatralny).


    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.