Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Czwartek 28 kwietnia 2011 
    

SLI w płytach z chipsetami AMD - to już pewne


Autor: Zbyszek | źródło: VR-Zone | 16:00
(33)
Nvidia oficjalnie poinformowała o udzieleniu firmie AMD licencji na technologię SLI. Licencja umożliwi zastosowanie tej technologii w płytach głównych z chipsetami AMD 990FX, AMD 990X oraz AMD 970, które będą obsługiwać nadchodzące procesory z architekturą Bulldozer. W ramach licencji producenci płyt głównych będą mogli zastosować 2-way SLI w płytach z chipsetami AMD 990X i 970, a w przypadku 990FX nawet również 3-way SLI, bez konieczności stosowania dodatkowych mostków NF200.

Wydajnie płyt głównych z najnowszymi chipsetami AMD oraz obsługą CrossFire i SLI zapowiedzieli już tacy producenci jak między innymi ASUS, Gigabyte, MSI I ASRock. . Premiera płyt głównych z chipsetami AMD serii 900 oraz podstawką Socket AM3+ spodziewana jest na przełomie 2 i 3 kwartału bieżącego roku.

 
    
K O M E N T A R Z E
    

  1. i to jest bardzo dobra wiadomość: (autor: Qjanusz | data: 28/04/11 | godz.: 16:18)
    "bez konieczności stosowania dodatkowych mostków NF200"

    Widać że słabe wyniki nVidii zmusiły zarząd do zaprzestania myślenia kategoriami fochów, a skłoniły do myślenia kategorią ekonomiczną. Super! Nie ma to jak zejście na ziemię.

    Dobrze że chociaż CF nie jest objęty opłatami licencyjnymi.


  2. Wg ostatniego (autor: Irmo | data: 28/04/11 | godz.: 16:23)
    "przecieku" 8-mio rdzeniowy Buldożer ma wydajność Athlona II x4. Ciekawe jak sobie taka "bestia" poradzi z 570GTX SLI.

  3. @Irmo (autor: Qjanusz | data: 28/04/11 | godz.: 16:34)
    te przecieki są tyle warte co wcześniejsze, wbijające i7 w glebę.

    Będą normalne testy pod którymi podpisze się konkretna osoba, a się zobaczy i się oceni.


  4. @03 (autor: bmiluch | data: 28/04/11 | godz.: 16:37)
    wg innego ostatniego przecieku IŁ rozpylił hel

    może jednak zostawmy przecieki zadodowym podsyfiaczom


  5. Po co NV przydziela licencję ? (autor: pomidor | data: 28/04/11 | godz.: 16:45)
    Przecież do obsługi SLI nie są potrzebne żadne zmiany na płycie/chipsecie. To jest kwestia sterownika od NV.

  6. @pomidor (autor: Qjanusz | data: 28/04/11 | godz.: 16:47)
    to raczej kwestia pazerności i wiecznego głodu...

    przypomnij sobie cyrki z licencją SLI zaszytą w BIOSie na mobo pod Intela, niedługo po tym jak nVidia zaklinała że bez NF200 ni hu hu...


  7. #6 add (autor: Qjanusz | data: 28/04/11 | godz.: 16:57)
    polityka firm i firemek czarno na białym:

    "Jeśli producent danej płyty głównej chce, aby była ona zgodna z SLI, NVIDIA wymaga od niego opłacenia licencji oraz implementacji w BIOS-ie specjalnych kluczy zgodności, które następnie rozpoznawane są przez sterowniki karty graficznej i włączają tryb Scalable Link Interface. W tańszych modelach płyt producenci nie decydują się na implementację kluczy aby obniżyć koszty, mimo że z punktu widzenia hardware’u nic nie stoi na przeszkodzie aby SLI było obsługiwane.

    Z CrossFire nie ma takich problemów – ATI nie wymaga żadnych licencji, ani kluczy. Jeśli dana płyta główna zawiera wystarczającą liczbę slotów PCI-Express x16, to automatycznie będzie na niej działać CrossFire."

    http://www.benchmark.pl/...spieraja_SLI-16032.html


    polecam też komentarz nr 1 pod tym:
    http://www.pcworld.pl/...eruje.SLI.dla.Intela.html


  8. i z innej beczki... (autor: Qjanusz | data: 28/04/11 | godz.: 17:11)
    myślę że ostatnią Ofiarą okaleczoną przez NF200, jest GTX590.

    Producenci mobo pięknie wybronili się z obłędnej grzałeczki, a nVidia raczej po raz kolejny nie powinna popełniać "sepuku", wsadzając gorący krowi placek pomiędzy dwa śliczne GPU wykonane w 28nm na GTX690


  9. @Qjanusz (autor: pomidor | data: 28/04/11 | godz.: 17:18)
    Dzięki za info, dobrze wiedzieć.

  10. @Qjanusz (autor: Marek1981 | data: 28/04/11 | godz.: 17:22)
    Nvidia musi dbać o swój wizerunek, bo może na jakimś chipsecie gorzej chodzić - to oficjalne stanowisko. Nieoficjalne to że chce kasę za taką możliwość... czy zdzierstwo.

    Samo posunięcie było dla nich dobre gdy NV miała ok 80% udziału w rynku kart graficznych, teraz ma poniżej 50% więc takie postępowanie jest niewskazane.

    Pytanie czy AMD da możliwość korzystania z SLI, mogą twierdzić iż nie działa na tyle stabilnie iż nie widzą potrzeby wprowadzania tego rozwiązania. Ale raczej tego nie zrobią, gdyż to by popchnęło NV ku Intelowi.


  11. @Marek1981 (autor: Qjanusz | data: 28/04/11 | godz.: 17:40)
    "Pytanie czy AMD da możliwość korzystania z SLI" - a tego to nie rozumiem. Przecież w newsie napisane że AMD dostało licencję (oczywiście nie za darmo) na używanie technologii i brandu SLI. Czego miałoby teraz zabraniać po tym jak kaska poszła do nVidii?

    W interesie obu firm leży wzajemna kompatybilność tego tematu. dla nVidii oznacza to zwiększenie liczby odbiorców kart graficznych, dla AMD większą uniwersalność platformy.
    Wszyscy się cieszą, poza szarym klientem, na barki którego ostatecznie zostaną przerzucone koszta zakupu licencji SLI.


  12. Qjanusz (autor: Marek1981 | data: 28/04/11 | godz.: 18:01)
    "Przecież w newsie napisane że AMD dostało licencję (oczywiście nie za darmo)"

    Ja nie umiem czytać czy raczej Ty???
    "Nvidia oficjalnie poinformowała o udzieleniu firmie AMD licencji na technologię SLI. Licencja umożliwi zastosowanie tej technologii w płytach głównych "
    AMD może ale nie musi skorzystać, także nie ma mowy o kasie, pewnie AMD nic nie zapłaciło.... tak mi się zdaje, bo to tylko NV na tym posunięciu może skorzystać.


  13. A co się stało (autor: Gigant | data: 28/04/11 | godz.: 18:31)
    że Nvidia nagle licencej udziela AMD?

    Niech się wypchają bo nikt kto kupi Buldożera nie będzie ładował gejforca tylko kupi Radka...


  14. Podwalają się teraz (autor: Gigant | data: 28/04/11 | godz.: 18:36)
    do AMD kiedy mają lepsze CPU od Intela... Judasze...

  15. Gigant (autor: agnus | data: 28/04/11 | godz.: 18:39)
    A skąd wiesz że ktoś nie będzie chciał mieć procka AMD i SLI z GeForce? Skoro ja mogę mieć w stacjonaru procek Intela z HD4850 to czemu nie w drugą stronę :)

  16. Gigant (autor: agnus | data: 28/04/11 | godz.: 18:40)
    AMD ma lepsze cpu od Intela? W którym miejscu? APU.. no może. Co dalej? Wyjdzie nowa architektura, poczytamy testy to bedzie można rozmawiać.

  17. agnus (autor: Gigant | data: 28/04/11 | godz.: 18:44)
    Chodzi mi o to, że Nvidia to gnida bo dopiero teraz dają AMD licencje kiedy AMD wyjeżdża z Buldożerem. A wcześniej to co AMD nie istniało?

  18. Widocznie (autor: Arlic | data: 28/04/11 | godz.: 18:59)
    Intel (który ostatnio jest BARDZO aktywny) i nvidia wiedzą o bulldozerze, czego my nie wiemy.

  19. agnus (autor: Gigant | data: 28/04/11 | godz.: 19:07)
    Ja odrau zakładam, że Buldożer jest szybszy od SandyBitch ponieważ wystawiają markę FX która jest synonimem top wydajności...

  20. Arlic (autor: Gigant | data: 28/04/11 | godz.: 19:12)
    Nvidia ma już dawno sample Buldożera dlatego pewnie wiedzą dokładnie jaka będzie jego wydajność i dali SLI bo zobaczyli że procek AMD wymiata Intela...

  21. Hello... To jest licencja - ZA TO SIĘ PŁACI!!! (autor: Qjanusz | data: 28/04/11 | godz.: 20:05)
    @Marek1981 & @Gigant - to AMD zabiega o licencję, za którą płaci. Jeżeli byłaby darmowa, pytam się po co klucz umieszczany byłby w BIOSie na mobo?
    Ludzie, myśleć trochę!!!
    Jeżeli nie potraficie i polegacie na słowie napisanym, proszę bardzo:

    "Za licencjonowanie technologii będzie oczywiście trzeba zapłacić, dlatego też należy oczekiwać, że producenci, którzy zdecydują się na licencjonowanie SLI, będą sprzedawać płyty główne z obsługą technologii NVIDIA drożej niż wersje pozbawione tegoż rozwiązania."
    http://nvision.pl/...SLI--News-19031-ndetails.html

    Jest to tak oczywiste, że większość serwisów nawet o tym nie wspomina.

    @Gigant - głupi jesteś jeżeli klasyfikujesz rynek AMD - Radeon i Intel - GeForce. Wyznawca jedynie słusznych powiązań???

    "Podwalają się teraz do AMD kiedy mają lepsze CPU od Intela", "A wcześniej to co AMD nie istniało?"

    Nikt się nie "podwala" (podwala??? Ile Ty masz latek???) tylko robi dobry biznes. AMD wcale nie ma lepszych CPU w kontekście tematu SLI. Procki AMD są dobre do max. średnich zestawów. Nie wiem czy chwytasz, ale SLI to najwyższa liga. Do multiGPU potrzeba ekstremalnie wysokiej wydajności. Nie wiem ile osób się ze mną zgodzi, ale AMD w tym rynku NIE ISTNIEJE. Najwydajniejsze procki AMD zapewnią wystarczającą wydajność dla max HD6970/GTX580. A i tak pewnie przesadziłem.
    Układy AMD CPU z multiGPU to niedomaganie od strony CPU. I po co nVidia miała bawić się z AMD w SLI, kiedy te właśnie SLI byłoby wiecznie niedokarmione na platformie AMD.

    Bulldozer coś zmieni? Zobaczymy.

    "Ja odrau zakładam, że Buldożer jest szybszy od SandyBitch" - robisz tak bo jesteś fanbojem. I co tu dużo pisać, patrząc na argumentację, głupim fanbojem.


  22. No to u amd juz calkiem zle (autor: Sony Vaio rev 6.0 | data: 28/04/11 | godz.: 20:10)
    musieli blagac by Nvidia sprzedala im licencje, aby jakkolwiek ratowac sprzedaz plyt.

  23. @up (autor: Qjanusz | data: 28/04/11 | godz.: 20:14)
    a rewizja ósma to skończyła już zmianę czy znów zapanował czasowy banik?

  24. głupota mnie przeraża (autor: Marek1981 | data: 28/04/11 | godz.: 20:51)
    @Gigant
    "że Nvidia nagle licencej udziela AMD?

    Niech się wypchają bo nikt kto kupi Buldożera nie będzie ładował gejforca tylko kupi Radka..."
    Bzdury.... jak NV wyda kartę z lepszym współczynnikiem wydajności do ceny to dlaczego i nie??

    @Qjanusz nadal ściemniasz...
    "to AMD zabiega o licencję, za którą płaci. Jeżeli byłaby darmowa, pytam się po co klucz umieszczany byłby w BIOSie na mobo? "
    Mało widać rozumiesz, AMD nie musiało się ubiegać tylko NV dała taką możliwość i udostępniła producentom takim jak np ASUS klucze do biosu.

    A tak na zdrowy rozum jaki interes ma AMD by płacić za SLI?? AMD po prostu nie blokuje umieszczenia takiej funkcjonalności i tyle.

    Może taki przekona Cię argument:
    AMD ma płacić za rozwiązanie wspierające produkty konkurencji....


  25. QJanusz (autor: piobzo | data: 28/04/11 | godz.: 21:02)
    nie wiem ale mi się wydaje, że AMD nie ponosi żadnych kosztów z tym związanych.. tylko producenci płyt.. po prostu jest zgoda na SLI na chipsetach AMD..

  26. ........ (autor: Marek1981 | data: 28/04/11 | godz.: 21:22)
    To potwierdzałoby moją tezę:
    "Potwierdzają się nieoficjalnie doniesienia sprzed paru tygodni. Dziś NVIDIA oficjalnie poinformowała o tym, że udostępnia licencję na technologię SLI dla producentów płyt głównych, którzy zechcą wykorzystać ją w płytach opartych na układach logiki AMD 970, 990X i 990FX, wyposażonych w podstawki AM3+."


  27. System rozliczania jest nieistotny, (autor: Qjanusz | data: 28/04/11 | godz.: 21:34)
    bo i tak na końcu koszta zakupu licencji ponosi klient.
    nVidia podpisała porozumienie z AMD a nie z każdym producentem płytek z osobna. To jest dokładnie taka sama sytuacja jak w przypadku umowy z Intelem.

    Sprawą absolutnie drugorzędną jest to czy to AMD płaci nVidii po czym koszta przerzuca w dół, czy drabinka zaczyna się od producenta płyty głównej. I tak za to wszystko zapłaci klient, który zechce nabyć mobo z kluczykiem SLI zaszytym w BIOSie.

    A AMDkom bardzo zależy na tym, żeby móc wspierać SLI, ponieważ przez to ichna platforma będzie uniwersalna.

    Załóżmy że Bulldozer wyszedł rewelacyjnie, jest mocno konkurencyjny i zdobywa udziały w rynku.
    Za rok nVidia wydaje z kolei GTXy, które biją na głowę Radeony.

    Napiszcie mi gdzie można wetknąć sobie dobrą platformę, która wspiera tylko gorszą odmianę multiGPU? Więc jak, za frajer oddajemy swoje udziały konkurencji? W mądrym biznesie nie ma miejsca na fochy. To znaczy jest, ale nVidia dobitnie pokazała, jak kończy się takie marudzenie.


  28. @Marek (autor: Arlic | data: 28/04/11 | godz.: 23:04)
    Też źle rozumiesz
    To nie AMD będzie płacić za tą licencje, tylko producenci płyt głównych, co suma summarum zapewne odbije się na naszych portfelach, ale chociaż nie będzie na siłę.


  29. i to sie (autor: cyferluu | data: 28/04/11 | godz.: 23:57)
    w zasadzie nazywa wolny rynek. Kup co chcesz a będzie działać bez faworyzowania czegokolwiek ani kogokolwiek. Niech sobie użytkownicy sami stwierdzą jaka kartę wsadzić na płytę z chipsetem AMD.
    teraz żarcik!!!
    to teraz niech AMD zacznie robić chipsety obsługujące SB IB oraz intel zacznie dłubać chipsy i mobo dla buldożera XD


  30. @Arlic (autor: Marek1981 | data: 29/04/11 | godz.: 12:22)
    Dobrze zrozumiałem... Wcale moje zaprzeczenia nie dotyczyły producentów płyt (którym może się opłacać zapłacić za to rozwiązanie) tylko AMD.

    Specjalnie podałem potem komentarz że to dotyczy producentów płyt a nie AMD.


  31. Bulldozer (autor: PCCPU | data: 29/04/11 | godz.: 14:37)
    Te linki które podał morgi jednak świadczą tylko o wysokiej wydajności Buldożera. Według mnie testy w Cinebench 11.5 przeprowadzone były na max 1 Module(2 klastry INT). W Cinebench 11.5 jest opcja w menu Advanced benchmark po której uaktywnieniu w lewej górnej części oprucz "CPU" pokazuje się "CPU(Single Core)" i przyciśnięciu obok tej opcji test będzie przeprowadzony na jednym rdzeniu. Na tych zdięciach ta opcja jest wyłączona co wskazuje że test jest w multi Threads. Ale jest też opcja w menu "Preferences" w której wybieramy "Render Threads" i następnie zaznaczmy "Custom Namber of Render Threads" i ustawiamy ręcznie od 1 do max liczby wądków dla danego układu.
    Pierwsza opcja moim zdaniem to to że test był przeprowadzony na 1Module(2 klastry INT) lub 2 klastrach INT ale osobnych modułach.
    Przypomnę że dla Bulldozera wydajność kolejnych klastrów i modułów wygląda tak: 100%(100%+80%)+95%+95%+95% Założyłem że na jednym module i wyszło mi tak:
    Zambezi 4M/8T(8Core) 2.82GHz
    1M/1T - 1.67
    1M/2T - 3.18
    4M/8T - 11.79
    Oczywiście wydaje mi się że ta opcja jest najbardziej realna.
    Druga opcja jest zbyt optymistyczna i rysuje się następująco:
    Zambezi 4M/8T(8Core) 2.82GHz
    1M/1T - 3.18
    1M/2T - 4.72
    4M/8T - 17.52
    Druga opcja pokrywa się mniej więcej z tym http://www.youtube.com/...uOcs&feature=related co widać po zdięciach z przecieków z wcześniejszych postów również i w tym rankingu wyniki są z Cinebench 11.5
    Nie wiem jak jest w 3DMarku ale zakładam że też można wybrać liczbę wątków w teście. Co o tym myślicie?


  32. Up edit (autor: PCCPU | data: 29/04/11 | godz.: 14:40)
    poprawny link http://www.youtube.com/...uOcs&feature=related

  33. Trzeb apamiętać (autor: PCCPU | data: 29/04/11 | godz.: 14:55)
    że moduł BD to około 67 Mln tranzystorów a rdzeń SB to ok 55 Mln tranzystorów więc poprawa wydajności na mm2 czy na wat jak i na MHz powinna być duża.

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.