TwojePC.pl © 2001 - 2024
|
|
Piątek 18 lutego 2011 |
|
|
|
Tick-tock Nvidii, Tegra 3 w 40nm, kolejna w 28nm Autor: Wedelek | źródło: Xbit Labs | 15:14 |
(31) | Taiwan Semiconductor Manufacturing Company, czyli w skrócie TSMC ma bardzo ambitne plany dotyczące procesu produkcji 28nm, który miałby ruszyć pod koniec roku i stanowić już na starcie 2-3% całkowitego dochodu spółki. Oznacza to, że firma ma nadzieję sprzedać przed końcem roku wafle krzemowe wytwarzane w najnowszej technologii za około 100 milionów dolarów. Okazuje się jednak, że największy partner TSMC, to jest Nvidia nie ma zamiaru czekać do tego czasu, a Tegra 3, zwana projektem "Kal El" skorzysta z 40nm procesu produkcji. Wybór właśnie 40nm według CEO jest podyktowany po pierwsze czasem - nowa Tegra miałaby zadebiutować jeszcze w sierpniu, a po drugie względami ekonomicznymi.
Uzysk w 28nm na początku może być niewystarczający i w gruncie rzeczy nieopłacalny, zwłaszcza dla Nvidia, której umowa z TSMC nie sprzyja niedopracowanej technologii. Tymczasem 40nm to już proces dojrzały jak mówi Jen-Hsun Huang z Nvidia i idealnie nadający się dla Tegry 3. SoC "Kal El" to połączeni czterordzeniowego procesora Cortex-A9 z układem graficzny GeForce mogącym się pochwalić dwunastoma procesorami strumieniowymi i wsparciem sprzętowym dla Blu-ray. Nowość ma być dwukrotnie wydajniejsza od Tegra 2 i jednocześnie bardzo oszczędna pod względem ilości pobieranej energii. Tym właśnie sposobem jesteśmy świadkami powstania nowej strategii firmy Nvidia, która garściami czerpie z Intelowskiego "tick-tok", który jak określił to CEO Nvidia wydaje się być najlepszym rozwiązaniem. Kolejna Tegra skorzysta z nowego procesu, potem nastąpi zmiana architektury i ponownie procesu.
|
| |
|
|
|
|
|
|
|
|
|
K O M E N T A R Z E |
|
|
|
- Szkoda, że już sama NVidia nie ma tak ambitnych planów (autor: SweetDreams | data: 18/02/11 | godz.: 15:16)
tylko coraz bardziej cofa się w rozwoju
- tick tock zaatakował smok (autor: Sony Vaio | data: 18/02/11 | godz.: 15:21)
oby tylko tsmc znowu nie nawaliło, jak przy Fermi, bo zaprzepaścili wspaniałą technologię.
- ... (autor: Aamitoza | data: 18/02/11 | godz.: 15:24)
"jednocześnie bardzo oszczędna pod względem ilości pobieranej energii."
Ehe, dajmy wszystkiego więcej w tym samym procesie, podbijmy zegary i otrzymamy mniejszy pobór energii :D Takie bajki to moga sobie wkręcać. TDP na pewno nie spadnie, a wzrośnie - może jedynie w idlu czy przy małych obciążeniach pobór energii będzie na mniejszym poziomie.
- TICK-TOCK (autor: Conan Barbarian | data: 18/02/11 | godz.: 15:56)
Intel ma model TICK-TOCK dokładnie w tym samym miejscu, gdzie już od dłuższego czasu jest klient.
- Ale się nvidia rozpędziła (autor: pomidor | data: 18/02/11 | godz.: 16:23)
aż 4 generacje w produkcji. A co ze sławetnym GF ? AMD się krzywi i idzie do TSMC, Nvidia też, chyba nie zdobędą takiej pozycji jak im się na początku wydawało.
- hmmm (autor: Jarek84 | data: 18/02/11 | godz.: 17:12)
nazwy kodowe kojarza mi sie tylko z jednym herosami z uniwersum DC i Marvela - ciekawe które imperium okaze sie lepsze w wykonaniu NV.
PS. mam propozycje dl NV na kolejne kodziadla:
2015 - JORDAN
2016 - WEST
2017 - PARKER
2018 - BANNER
i w 2019 - SIMMONS
:]
- @pomidor (autor: popierdulka1234 | data: 18/02/11 | godz.: 17:40)
proszę merytorycznie wytłumaczyć pojęcie jakie stosujesz
czyli od kiedy faza planowania (rysowania wykresików) jest fazą produkcji ????
rzeczowo proszę
- "Tymczasem 40nm to już proces dojrzały jak mówi Jen-Hsun Huang z Nvidia" (autor: Qjanusz | data: 18/02/11 | godz.: 20:10)
dopiero to zauważył???
Wizjoner!!! :D
Wszyscy z tego już uciekają, a ten doszedł do wniosku że już się zrobiło dojrzało.
ps. A czy to czasami nie sama nVidia śmiała się w komiksach z Intelowego modelu Tick-tock???
Co się stało? :D
- Aamitoza (autor: Gigant | data: 18/02/11 | godz.: 20:31)
też mnie to zastanawia jak oni mają zamiar przy tym samym procesie dołożyć 2x więcej rdzeni CPU , dopalić 2 razy GPU nie zwiększając przy tym TDP o 2x. ;)
- sorrki (autor: Gigant | data: 18/02/11 | godz.: 20:40)
Według slajdu Nvidii GPU będzie nie 2x a 5x mocniejsze. To TDP pójdzie z 3W na ponad 15W ;)
- gigant (autor: Aamitoza | data: 18/02/11 | godz.: 20:45)
A widzisz ta śmieszną szarą kreske na końcu ktorej jest napisane core2duo :DD No to nvidia pokazała bardzo komiczny slajd ;)
- ... (autor: Aamitoza | data: 18/02/11 | godz.: 20:46)
wayne i logan kilka(naście?) razy szybsze od core2duo :D:D
- @tegra (autor: popierdulka1234 | data: 18/02/11 | godz.: 21:45)
dolejmy ciut oliwy do ognia
http://www.pocketgamer.co.uk/...s/news.asp?c=27514
jeśli nvidia może zakładać że w przeciagu 3 lat będzie miała 100x szybszy sprzęt to będzie tylko o dwa lata spóźniona
- Czyli dobra wiadomosc (autor: morgi | data: 18/02/11 | godz.: 21:48)
tsmc niziutko w 28 nm, wiec nie bedzie Tegry, nie bedzie przede wszystkim arm w tym roku, wietrze wielka szanse dla Intela, jesli tylko przyspieszy migracje 32 i 22 nm, co juz sie dzieje.
- morgi (autor: Aamitoza | data: 18/02/11 | godz.: 22:06)
to że nvidia daje du..., nie znaczy że inni też. 28nm będzie w tym roku i to jest fakt potwierdzony przez TSMC, a nie życzenie.
- Aamitoza (autor: morgi | data: 18/02/11 | godz.: 22:35)
No taaa, dla wirtualnych zlomow, moze, chociaz Nvidia tez moze wydac jakies gpu wyzszych lotow, co jest malo prawdopodobne, po fatalnych przejsciach z 40 nm mamy potezny zastoj juz 3 rok ten cienki tech.
- z tą (autor: scoobydoo19911 | data: 19/02/11 | godz.: 00:40)
wydajnością "trochę" poszybowali. Chociaż z drugiej strony ruch na rynku musi być. Rosnąca architektura arm może wkońcu zmobilizować intela, amd i via do głębszych zmian w x86(tylko zmiany bo całkowite porzucenie jest na chwilę obecną wysoce nie opłacalne)
- Aamitoza (autor: Gigant | data: 19/02/11 | godz.: 15:21)
Tegra 2:
-Dual core Cortex A9
-8SP GeForce
Tegra 3:
-Quad core Cortex A9
-12SP GeForce
Dla mnie to wygląda, że GPU będzie o 50% wydajniejsze a nie o 5x. Marketingowcom Niewidy chyba się skale o jedno zero pomyliły ;)
- gigant (autor: Aamitoza | data: 19/02/11 | godz.: 15:25)
GPU szybsze o połowe + zegar ciut wyższy, 2x więcej rdzeni CPU i zegary wyższe o połowę... W sumie jak pomnożysz wszystko to masz magiczne x5 :D
- Aamitoza (autor: Gigant | data: 19/02/11 | godz.: 15:41)
Nie wyjdze....
2x1GHz=2GHz
4x1.5GHz=6GHz
CPU jest szybsze o 3x
GPU o 50%
Średnia z tego 3.5x/2=1.75 ;)
- gigant (autor: Aamitoza | data: 19/02/11 | godz.: 16:52)
A 3*1,5=? 4,5.
Do tego jeszcze kilka % z przyspieszenia zegara GPU i mamy x5 wydajność tegra2. nie mówiłem tu o jakiś średnich.
- Aamitoza (autor: Gigant | data: 19/02/11 | godz.: 18:38)
To może pomnóż jeszcze przez częstotliwość kontrolera pamięci to wyjdzie ci 10x.
- japier***e... (autor: Aamitoza | data: 19/02/11 | godz.: 18:45)
Jeżeli wykorzystasz pełną moc układu, to wydajnośc właśnie tyle wzrośnie. Za przykłąd dajmy gry.
mamy 2 rdzeniowy procesor 2Ghz i kartę X. wydajność wynosi 1.
mamy 4ro rdzeniowy procesor 3Ghz i kartę Y szybszą o 50% od karty X. W warunkach idealnych w których gra była by w stanie wykorzystać wszystkie rdzenie, a karta nie ograniczała by wydajności mieli byśmy 2 krotny wzrost FPS wynikający z ilości rdzeni i +50% z powodu zegarów, dodatkowo wzrost FPS spowodowany 50% szybszym GPU.
No i powiedź mi jaki byśmy mieli w tych okolicznościach wzrost. 1,75 jak jakoś pokracznie wyliczyłeś, czy bliski 4,5 krotnemu?
- Aamitoza (autor: Gigant | data: 19/02/11 | godz.: 20:33)
Czy ty się dobrze czujesz?
- 10x szybsze GPU + 10x szybszy CPU (autor: Gigant | data: 19/02/11 | godz.: 20:43)
nie oznacza , że ci sprzęt przyśpieszy o 100x.
To tak samo jakbyś mówił, że 10x bardziej taktowane CPU z 10x wyżej taktowanym cachem L3 będzie 100x wydajnieszjym CPU.
- ja j*bie.. (autor: Aamitoza | data: 19/02/11 | godz.: 21:13)
NIE WYRABIAM JUŻ. Zabierzcie go stąd bo chyba eksploduje. Najpierw głupia dyskusja na temat działu hendheldów w AMD który od ponad 2 lat nie istnieje bo został sprzedany (ale nie... AMD chowa ten dział w tajemnicy przed światem! noż kolejna teoria spiskowa! Nowy Smoleńsk!), a teraz jakieś głupie przykłady z keszem - nie - 2x szybszy kesz nie przyspieszy CPU 2 kotnie.
Ja mówię o rzeczach które są realne - 2x mocniejszy CPU -> 2x wyższy FPS o ile karta nie ogranicza, czy też sterownik nie obciąża przesadnie CPU. 2x mocniejsze GPU - teoretycznie 2x wyższa wydajność - przykład HD5870 vs HD5770 - w sytuacjach najbardziej hardkorowych HD5870 wypadnie 2x lepiej (jakieś bardzo wysokie rozdzielczości i tryby AA).
Więc jak zastosuje procesor A + HD5770 i 2x szybszy procesor B + HD5870 to w szczycie jestem w stanie osiągnąć 4x większy FPS.
Zrozumiał czy dalej czarna magia?
- tłumacze ci jak dziadek krowie na granicy (autor: Gigant | data: 19/02/11 | godz.: 23:04)
a ty dalej swoje....
Niby jak ma ci przyśpieszyć 4x gra skoro CPU i GPU są tylko 2x szybsze? Żeby mieć 4x razy większe fps to potrzeba 4x szybsze CPU i 4x szybsze GPU.
- gigant (autor: Aamitoza | data: 19/02/11 | godz.: 23:16)
To jakim cudem 2x szybsz karta daje 2x więcej FPS na tym samym procesorze? Powiedź że udajesz, bo zaczynam brać Cie za osobę nie do końca rozwiniętą.
Skoro zmieniając procesor na 2x mocniejszy masz 2x więcej FPS lub zmieniając kartę na 2x mocniejszą masz 2x więcej FPS, to ile więcej FPS będziesz miał jak wymienisz te 2 układy na 2x mocniejsze? Też 2? To po cholerę zmieniać 2 skoro zmiana jednego daje to samo?
Zaczniesz się kiedyś zastanawiać nad tym co piszesz? To nie działą tak, że 50% FPS należy do CPU i 50% do GPU. Dasz 2x mocniejsze GPU to masz 2x więcej FPS jeżeli tylko CPU nie ogranicza. Mocniejsze CPU może to tylko przyspieszyć, a jeżeli będzie 2x mocniejsze, a GPU tej wydajności nie ograniczy, to będzie kolejne 2x więcej klatek co w sumie da 4krotny wzrost.
- zgadzam (autor: scoobydoo19911 | data: 20/02/11 | godz.: 13:19)
się z Amitozą jedank 4x większa wydajność jest możliwa tylko jakiś specjalnie przygotowanych warunkach i testach
- @28. (autor: Mariosti | data: 20/02/11 | godz.: 20:42)
"Skoro zmieniając procesor na 2x mocniejszy masz 2x więcej FPS lub zmieniając kartę na 2x mocniejszą masz 2x więcej FPS, to ile więcej FPS będziesz miał jak wymienisz te 2 układy na 2x mocniejsze? Też 2?"
Przecież tak się oczywiście nie dzieje... zależy to od zastosowania. Ograniczmy się do gier. Testujemy grę X na procesorze P i grafice G z jakimiś stałymi ustawieniami X. Dostajemy wtedy pewną liczbę fps X(P,G). Teraz jeśli wymienimy procesor na taki o wydajności 2*P to mogą stać się dwa scenariusze i wszelka ich kombinacja:
-karta graficzna była mocno ograniczana przez procesor i uzyskamy 2x większą wydajność.
-karta graficzna nie była w ogóle ograniczana przez procesor i uzyskamy dokładnie taką samą wydajność jak z 2x słabszym procesorem.
W przypadku wymiany gpu na 2x wydajniejsze mamy dokładnie taką samą zależność w drugą stronę.
Z tego wynika że jeśli mamy w komputerze doskonale do siebie dobrane wydajnością: procesor i grafikę, to wymieniając jedno bądź drugie na mocniejsze nie uzyskamy praktycznie żadnego wzrostu wydajności, bo niewymieniony podzespół będzie ograniczał ten drugi.
Czyli w ramach twojej poprzedniej dywagacji. Zakładając że 5870~2x5770, jeśli 5770 połączymy z procesorem A i osiągnie jakąś liczbę fps'ów w danym tytule, a potem połączymy go z procesorem o wydajności 2*A, to jeśli zobaczymy 4x wzrost wydajności na 5870 to zobaczymy też 2x wzrost wydajności na samym 5770 z lepszym procesorem. Te dwa podzespoły są od siebie prawie liniowo zależne, jeśli o wydajność w grach chodzi... przypomina to trochę funkcje przeżywalności względem liczebności innych gatunków w algorytmach ewolucyjnych...
Oczywiście wiem że marketingowcy nie mogą tego rozumieć bo nie byliby marketingowcami i muszą stosować to co masz na myśli, czyli teoretyczny wzrost mocy obliczeniowej pc'ta zakładając że wyjściowy wyraża się wzorem CPU*GPU, co jest oczywiście nieprawdą i nie ma nawet sensu logicznego(w odróżnieniu od CPU+GPU co jest oczywiście wyznacznikiem zupełnie teoretycznym).
- Aamitoza (autor: Gigant | data: 20/02/11 | godz.: 21:05)
Strugasz idiotę czy rżniesz debila?
Chcesz żeby ci gra przyśpieszyła o 4x jak CPU jest tylko 2x szybszy i ogranicza wydajność GPU? Puknij się w ściane....
|
|
|
|
|
|
|
|
|
D O D A J K O M E N T A R Z |
|
|
|
Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.
|
|
|
|
|
|
|
|
|
|