TwojePC.pl © 2001 - 2024
|
|
Czwartek 8 lipca 2010 |
|
|
|
Phenom II 1045T X6 zadebiutuje w trzecim kwartale 2010 Autor: Wedelek | źródło: Fudzilla | 19:31 |
(26) | Najmocniejszym obecnie sześciordzeniowym procesorem od AMD jest taktowany zegarem 3.2 GHz Phenom II x6 1090T który na detronizację będzie musiał prawdopodobnie poczekać do końca 2011 roku. Popyt na ten model jest bardzo duży, ale "zieloni" mieli w planach poszerzenie swego arsenału o jeszcze jeden CPU z rdzeniem o kodowej nazwie Thuban, a mianowicie Phenom II 1035T X6 z zegarem 2,6 GHz. Producent z Sunyvale postanowił po raz kolejny udowodnić że w pełni zasługuje na miano firmy, która jest mistrzem dopracowywania swoich rozwiązań i wprowadzić jeszcze jeden, szybszy CPU o takim samym TDP jak w słabszym modelu. W ten sposób najsłabszy z sześciordzeniowców znajdzie się poniżej Phenoma II 1045T X6 którego zegar wzrośnie w stosunku do 1035T o 100MHz i najprawdopodobniej go zastąpi.
Procesor jest wykonany w 45nm procesie produkcji i dzięki funkcji Turbo Core rdzenie mogą być "przetaktowane" do wartości 3.2GHz. Ponadto CPU charakteryzuje 9MB pamięci podręcznej, wsparciem dla pamięci typu DDR3 - 1333, a jego TDP będzie wynosić 95W. Premiera odbędzie się w trzecim kwartale 2010 roku a procesor stanie obok modeli 1055T i 1090T do walki z Intelowskimi Core i7. |
| |
|
|
|
|
|
|
|
|
|
K O M E N T A R Z E |
|
|
|
- ??? (autor: MariuschM | data: 8/07/10 | godz.: 20:01)
a od kiedy to AMD wydało Phenom-a II 1035T x6 że chcą go zastąpić??
- i bardzo dobrze kombinuja (autor: Mario2k | data: 8/07/10 | godz.: 20:06)
Jako posiadacz i7 4.1GHz na codzien :)
zycze AMD dogonienia w jak najszybszym czasie topowych prockow Intela , nic tylko obnizka cen jest nam potrzebna .
- ... (autor: Qjanusz | data: 8/07/10 | godz.: 20:20)
"udowodnić że w pełni zasługuje na miano firmy, która jest mistrzem dopracowywania swoich rozwiązań..." "zostanie zastąpiony modelem ... którego zegar wzrośnie w stosunku do poprzednika o 100MHz."
no ja bym się pokłócił czy podniesienie zegarka o 100 tykadeł jest pretekstem do miana "mistrza dopracowywania"...
- @Wedelek (autor: krzysiozboj | data: 8/07/10 | godz.: 20:41)
Popraw co nieco i może mniej hura optymizmu? ;)
- Rewolucja wielordzeniowa dobiega końca (autor: pomidor | data: 8/07/10 | godz.: 20:41)
Chociaż tego jeszcze za bardzo nie widać. Prawo Amdahl jasno mówi że jest sens zwiększać ilość rdzeni, tylko wtedy gdy w kodzie jest coraz więcej (procentowo) pracy równoległej - czyli dla wielu rdzeni. Natomiast w rzeczywistości jest na odwrót. Oprogramowanie z dużym procentem pracy równoległej, zostało przeniesione jako pierwsze. Teraz pozostało do przeniesienia takie, w którym tej pracy równoległej będzie coraz mniej. Więc i potrzeba na nowe rdzenie gwałtownie maleje z każdym rokiem. Jeżeli ktoś kupuje cpu z 6 - 8 rdzeniami zakładając że pojawi się soft, który wykorzysta te rdzenie na maksa, jest w błędzie. Jeżeli do tej pory taki soft się nie pojawił, to już się pewnie nie pojawi. Cała nadzieja na przyśpieszenie, nadal pozostaje w zwiększaniu częstotliwości - tryb turbo dla części rdzeni.
- Proces Technologiczny sie kłania...! (autor: KPRT | data: 8/07/10 | godz.: 21:05)
Z faktu iż coraz trudniej zmniejszać proces technologiczny co za tym idzie w pewnym momencie wafel będzie już produkowany w najniższym możliwym procesie więc trzeba będzie się przesiąsć na nową technologię produkcji i wykorzystać inne materiały niż dostępne do tej pory. Jeszcze przez jakiś czas bedziemy zasypywani przetaktowanymi wielordzeniowcami a kiedy już proces produkcji będzie na najniższym możliwym poziomie zacznie się bum na poprawianie kodu aplikacji ....!
- @pomidor (autor: Promilus | data: 8/07/10 | godz.: 21:13)
To teraz podaj przykłady softu którego zrównoleglić się nie bardzo da. W końcu w zasadzie wszystko z obrazkami 2D, 3D, szyfrowanie, kompresja, kodowanie wideo, antywir, rozpoznawanie tekstu itp. itd. ową pracę równoległą wykorzystuje. Nawet przeszukiwanie dokumentu worda może zostać napisane z wykorzystaniem wielu rdzeni ;) Dlaczego softu tak mało powstaje? Bo nakłady pracy na optymalizację takiego kodu, który nie tylko działałby na (sztywno) 2 czy 4, ale 3, 6, 20 i 60 rdzeniach w miarę sensownie są dla wielu producentów softu po prostu zbyt duże. A żaden kompilator cudów sam nie zdziała.
- @KPRT (autor: Marek1981 | data: 8/07/10 | godz.: 21:35)
jak już nie raz pisałem poziom technologiczny jest blokowany przez sposób produkcji, u Intela to chyba 22nm a u AMD to coś ok 11nm. Co więcej im bliżej granicy tym trudniej wprowadzić nowy proces technologiczny i kosztuje on o wiele więcej. Więc tu AMD może przegonić Intela już w następnym zejściu (22nm)
- Marek1981 (autor: Grave | data: 8/07/10 | godz.: 21:44)
A możesz podać przynajniej jeden proces technologiczny który AMD wprowadziło PRZED Intelem. Chociaż JEDEN...? Albo jeszcze lepiej - podaj jakiś przypadek kiedy AMD wprowadziło nowy proces technologiczny przynajmniej w tym samym czasie co Intel. Kiedy to było? Bo ja już nawet nie pamiętam.
Żeby przegonić w czymkolwiek najpierw trzeba przynajmniej DOGONIĆ. Więc może niech najpierw AMD uda się choć dogonić zanim będziemy mówić o przeganianiu...:>
- @Grave (autor: krzysiozboj | data: 8/07/10 | godz.: 21:49)
No nie bądź takim pesymistą, szturmem ich wezmą i już a powiadają że kiedyś musi być ten pierwszy raz ;)
- @Grave (autor: rainy | data: 8/07/10 | godz.: 22:10)
To były czasy Athlonów: jedyny raz w historii rywalizacji pomiędzy AMD a Intelem, byli oni technologicznie z przodu (osiągnięcie zegara 1 GHz).
"By working with Motorola, AMD was able to refine copper interconnect manufacturing to the production stage about one year before Intel. The revised process permitted 180-nanometer processor production. The accompanying die-shrink resulted in lower power consumption, permitting AMD to increase Athlon clock speeds to the one GHz range. Yields on the new process exceeded expectations, permitting AMD to deliver high speed chips in volume in March 2000."
"In commercial terms, the Athlon Classic was an enormous success—not just because of its own merits, but also because the normally dependable Intel endured a series of major production, design, and quality control issues at this time. In particular, Intel's transition to the 180 nm production process, starting in late 1999 and running through to mid-2000, suffered delays. There was a shortage of Pentium III parts. In contrast, AMD enjoyed a remarkably smooth process transition and had ample supplies available, causing Athlon sales to become quite strong."
- Grave (autor: morgi | data: 8/07/10 | godz.: 22:19)
To sie nigdy nie stanie w takiej sytuacji z jaka mamy teraz do czynienia, czyli Intel pionier badan technologicznych, dalej falanga powolnych, w tym ibm, na ktorego 'utrzymaniu' jest amd. Procesy od ibm maja swoja specyfike, jak i ich chipy i architektury. Nie znam dokladnych planow, ale oni chyba nie maja zamiaru doganiac Intela w tym ogrodku, raczej beda obwarowywac sie przed wyeliminowaniem z budowy hardware.
- @Promilus (autor: pomidor | data: 8/07/10 | godz.: 22:20)
Większość programów można zrównoleglić. Te przykłady które podałeś na pewno skorzystają z paru rdzeni i użytkownik to odczuje. Problem tkwi w tym że ilość rdzeni wzrasta, zaś ilość procentowa pracy równoległej nie wzrasta. Jeżeli np. kod wykonuje 50 % pracy wielowątkowo, to na 2 rdzeniach czas przetwarzania skróci się do 75%, na 4 rdzeniach - 62%, na 6 rdzeniach - 58%, na 8 rdzeniach - 56%. Jak widać kolejne rdzenie coraz mniej dają. Dodatkowo pierwsze zostały przeniesione programy które zawierały 90 % pracy równoległej, potem te z 70 %, potem te z 50%. Pozostałe, z mniej niż 50%, nie zostaną przeniesione, bo będzie za mały zysk w szybkości, a ilość pracy i pieniędzy jest większa niż przy tworzeniu programu jednowątkowego.
- ... (autor: krzysiozboj | data: 8/07/10 | godz.: 22:34)
Jakoś wydajność trzeba podnosić by postęp w rozwoju utrzymać. Opracowanie nowych architektur coś daje ale bez przesady jesli trzymamy się x86 ciągle. Podbijanie zegara widać nie takie proste, zatrzymał się on już od ładnych kilku lat na poziomie ok 3-3,6 Ghz (PIV miały chyba 3,6 lub 3,8 GHz), najprościej dodać rdzeni ale chyba najtrudniej przełożyć je na realny wzrost wydajności.
Mamy dzisiaj do wyboru - od 2 do 6 rdzeni, jak widać przy 6 rdzeniach na podobnym TDP jak przy 2 nie potrzebujemy drastycznie zbić zegarów więc jeśli można to dlaczego nie mieć 4-6 rdzeni. A jeśli już je mamy i piszemy soft to dlaczego nie pomyśleć by te rdzenie jakoś wykorzystać.
Więc ja dla mnie nie dlatego tędy droga bo najlepszy efekt ale dlatego że chyba jedyna pozwalająca na spory wzrost wydajności., nie potrafimy podbić zegara do 6 GHz, nie potrafimy zrobić architektury 2 razy wydajniejszej to miast 1 rdzenia damy 4 i powiedzmy średnio podwoimy wydajność.
- ciekawe (autor: kosa23 | data: 8/07/10 | godz.: 23:10)
to dlaczego serwery działają?
- @krzysiozboj (autor: Jarek84 | data: 8/07/10 | godz.: 23:49)
Troche "na około" podchodzisz do problemu - soft pisze sie pod sprzet (glownie) a obecnie procesory 2-4 rdzeniowe sa juz standardem wiec o powstanie softu, ktory te rdzenie wykorzysta nie martwilbym sie raczej, tym bardziej w jezykach programowania widac ze "think parallel" jest teraz mysla przewodnia wspolczesnej inz oprogramowania (OpenMP, PLinQ, OpenCL) to tylko pare z tevhnologii wpomagajacych nasza prace w pisaniu oprogramowania - oczywiscie nie zawsze dziala to optymalnie, (ale tak samo jest z kodem napisanym w jezyku wyzszego poziomu vs wstawki asm) jak i trzeba madrze dobrac technologie np w niektorych przypadkach lepsze bedzie uzycie TPL niz PLINQ.
A co do utylizacji rdzeni, ten sam problem mieli kiedyś producenci GPU - były na wsyzstko wystarczająco szybkie, zatem podniosły się wymagania sprzętowe (wyższa rozdzielczość, eyecandy modes etc), poza tym MS na pewno w nowym systemie zadba o wykorzystanie CPU :D
- Nie bądźcie tacy (autor: sz4rlej | data: 9/07/10 | godz.: 01:03)
pesymistyczni. Jeśli zamiast krzemu zaczniemy używać innych materiałów możliwe będzie zejście w niższy proces technologiczny niż minimum dla krzemu. Ponadto w laboratoriach na świecie powstają pierwsze (bardzo prymitywne,ale zawsze) komputery kwantowe. Mówi się także o powstaniu komputerów optycznych, w których braki logiczne będą budowanie w ciekłych kryształach - mają one ogromny potencjał. Także bardzo możliwa, że jeszcze za naszego życia skończy się era krzemu i nadejdzie nowa :)
- hola hola (autor: Seba78 | data: 9/07/10 | godz.: 01:05)
A możliwość korzystania z wielu programów na raz przy wykorzystaniu wielu rdzeni? Przecież to też korzyść. Czasami korzystam sobie z wirtualizacji. Virtual PC zajmuje jedno jajko, a system drugie. Gdyby były 4 to można by to jeszcze sensowniej podzielić. Naprawdę nie miał bym problemu z zagonieniem 6 jaj do pracy:)
- @sh4rlej (autor: Promilus | data: 9/07/10 | godz.: 07:10)
To teraz 2 rzeczy - czy prąd popierdala w tranzystorkach i miedzi znacząco wolniej niż światło w szkle? Nie? A bramki optyczne są szybsze niż tranzystory? Nie? Aaa...czyli wszystko rozbija się o pochłanianą energię.
Inna sprawa - komputery kwantowe - o ile serce tego układu jest bardzo malutkie, to interfejs olbrzymi. A dość konkretną wadą w naszych zastosowaniach jest to, że 2+2=/=4 tylko 99,9% 4, 0,05% że 5, i kolejne 0,05% że 200. Taki przykład lekko z dupy, ale mniej więcej obrazuje o co chodzi. I dość optymistycznie te 99% jest podane ;)
- @Promilius (autor: sz4rlej | data: 9/07/10 | godz.: 10:00)
Nie bardzo chyba rozumiesz o co chodzi w komputerach kwantowych. To co napisałeś to trochę jakaś bzdura. Jak chcesz opisać zasadę działania w 1 zdaniu to lepiej nie pisz wcale. Za ich pomocą obliczeń można dokonywać z idealną precyzją. Jeśli powstanie pierwszy komputer kwantowy, to banki na świecie zaczną trząść portkami, ponieważ za jego pomocą hasła, które teraz łamane byłyby w 10 lat wtedy padną po dziesięciu.
Jeśli chodzi o komputery optyczne, to problemem obecnie jest raczej ich rozmiar niż prędkość działania, ponieważ już teraz taki układ optyczny działa szybciej niż tranzystory, tylko jest nieporównywalnie większy. I nie chodzi tu o prędkość elektronów w miedzi, bo ta jeśli chcesz wiedzieć jest niska - kilka cm/s :P
- @sh4rlej (autor: Promilus | data: 9/07/10 | godz.: 10:47)
http://en.wikipedia.org/wiki/Quantum_computer
"To co napisałeś to trochę jakaś bzdura"
Jaaasne, a chemia i fizyka chemiczna to też bzdura? Zasada nieoznaczoności Heisenberga, zakaz pauliego? Same bzdury widocznie.
"ak chcesz opisać zasadę działania w 1 zdaniu to lepiej nie pisz wcale"
Obecne implementacje opierają się na reprezentowaniu stanów logicznych poprzez położenie elektronów - a tego nie da się określić w 100% a jedynie z określonym prawdopodobieństwem.
To co, może dalej:
http://www.benchmark.pl/..._juz_dziala.-24972.html
Hmmm.
"Należy zauważyć, że algorytmy wykonywane przez komputer kwantowy są algorytmami probabilistycznymi. Oznacza to, że uruchamiając ten sam program na komputerze kwantowym dwukrotnie, możemy otrzymać zupełnie różne wyniki ze względu na losowość procesu kwantowego pomiaru."
Yhym, yhym...
Ogółem trafiłeś w szyfrowanie, ale nie zupełnie bo tylko część algorytmów taki komputer będzie w stanie szybko rozpracować. Patrz en.wiki....
"już teraz taki układ optyczny działa szybciej niż tranzystory" Serio? A co załącza te bramki optyczne?
"bo ta jeśli chcesz wiedzieć jest niska"
A prędkość czoła fali elektromagnetycznej pobudzającej te elektrony do uporządkowanego ruchu? Yhym...
- @ pomidor (autor: pawel.xxx | data: 9/07/10 | godz.: 10:56)
Natomiast prawo Gustafsona mówi że wraz ze wzrostem rozmiaru problemu zwiększa się udział zadań które można z powodzeniem zrównoleglić.
Tak więc "rewolucja wielordzeniowa" jeszcze długo nie dobiegnie końca. Bo chyba nikt nie ma wątpliwości że złożoność rozwiązywanych problemów będzie wzrastać.
- @Promilus (autor: sz4rlej | data: 9/07/10 | godz.: 13:57)
Algorytmy kwantowe opierają się na zasadzie nieoznaczoności, jednak mylisz się pisząc, że wyniki otrzymywane za ich pomocą mają jakieś prawdopodobieństwo poprawności - wynik jest zawsze poprawny. Wyobraź sobie, że ktoś napisze system obsługujący taki komputer i za każdym włączeniem zadziała on inaczej? Problemem tego komputera w linku który podałeś jest niedoskonałość techniczna - to ona jest przyczyną takiej niskiej dokładności. Poza tym nie uważam Wikipedii za rzetelne źródło wiedzy, ze względu na to, że ludzie piszący w niej hasła często nie wiedzą o czym piszą.
Poza tym takie rzucanie haseł "Jaaasne, a chemia i fizyka chemiczna to też bzdura? Zasada nieoznaczoności Heisenberga, zakaz pauliego? Same bzdury widocznie." bez żadnych argumentów jest oznaką niewiedzy.
"Serio? A co załącza te bramki optyczne?" nie ma znaczenia co załącza. Wyobraź sobie, że częstotliwość komputerów optycznych może sięgać setek GHz. Jest to związane z szybkością obrotu molekuł w ciekłych kryształach pod wpływem światła. Polecam iść na jakiś wykład z optyki nieliniowej oraz na mechanikę kwantową na UW.
Co do zastosowań algorytmów kwantowych nie będę się spierał. Powstało ich naprawdę bardzo wiele i nie jestem w stanie teraz sprawdzić jakie zabezpieczenia będą w stanie łamać a jakie nie.
A jeśli chodzi o elektrony to napisałem prawdę i ty zresztą też :P
Kolejna sprawa, to, że na świecie powstały komputery obsługujące maksymalnie 4 kwanty (za kwant można przyjąć np polaryzację fotonu, albo pozycję elektronu)więc na razie nie ma co się bać :P
- up nie kwanty tylko kubity :) (autor: sz4rlej | data: 9/07/10 | godz.: 13:58)
jw.
- @sh4rlej (autor: Promilus | data: 9/07/10 | godz.: 15:50)
"Poza tym nie uważam Wikipedii za rzetelne źródło wiedzy, ze względu na to, że ludzie piszący w niej hasła często nie wiedzą o czym piszą"
Owszem, w tym wypadku jednak napisali dobrze.
"jednak mylisz się pisząc, że wyniki otrzymywane za ich pomocą mają jakieś prawdopodobieństwo poprawności"
Nie, nie mylę się. Wszystkie algorytmy probabilistyczne się tym cechują, nie wiem czemu twierdzisz że te zastosowane w komputerach kwantowych NIE.
"Wyobraź sobie, że ktoś napisze system obsługujący taki komputer i za każdym włączeniem zadziała on inaczej"
Mózg ludzki kwantowym komputerem nie jest, ale i neuron różnie reaguje na bodźce na dendrytach...nie ma 0 i 1, choć jest zadziała/nie zadziała. Dlatego też się...mylimy, wyrażamy się nieprecyzyjnie (większe/mniejsze, bliższe/dalsze itp.) - zarąbiście radzimy sobie z rozpoznawaniem wzorców czy to optycznych, czy dźwiękowych gdzie niejeden superkomputer ma problemy, nawet liczymy całki i pochodne gdy sprawność komputerów w tych dziedzinach określają algorytmy zastosowane w sofcie...niemniej nie potrafimy tak szybko przeliczać liczb... np. EDh+45h*FAh? To parę cykli dla CPU, kilkanaście ns->kilka us, a dla nas? To tak odnośnie zastosowań - komputery kwantowe w określonych dziedzinach są świetne, w innych jednak gorsze. Daleka przyszłość zanim pojawią się na naszych biurkach.
"bez żadnych argumentów jest oznaką niewiedzy"
Przepraszam, to ty zarzuciłeś mi pisanie bzdur bez jakiegokolwiek argumentu na poparcie tej śmiałej tezy.
"Wyobraź sobie, że częstotliwość komputerów optycznych może sięgać setek GHz."
Tak, natomiast światło generują dalej lasery/diody laserowe o dość ograniczonej prędkości, prawda? :) Jeszcze sporo barier do pokonania na tym polu zanim ktoś pokaże coś sensownego...a intel dalej zmniejsza proces mimo iż w nieco odległej już teorii od paru lat powinien być już kres.
"Jest to związane z szybkością obrotu molekuł w ciekłych kryształach pod wpływem światła."
aż tak to one się szybko znów nie obracają, poza tym pozostaje wrażliwość na temp. czy pole elektryczne.
"Polecam iść na jakiś wykład z optyki nieliniowej oraz na mechanikę kwantową na UW." Dzięki, instytut fizyki PŚ ma również niezłe osiągnięcia w tych dziedzinach czym się pewnie równie często chwali co UW, a i tak wszyscy jesteśmy daleko za USA, Niemcami, Japonią czy nawet...Rosją. Ja tam kompleksów nie mam, bo też i jestem energoelektronikiem chociaż z optoelektroniką również miałem do czynienia.
"więc na razie nie ma co się bać" - nie ma ani teraz, ani w przyszłości. Chyba że wyobrażasz sobie, że berkeley, stanford albo mit zbuduje sobie dość konkretny komputer kwantowy i będzie łamało hasła do kont bankowych, a bankowcy dalej będą stosować te same algorytmy w swoich systemach ;) Ale ja jakoś w to nie wierzę :D
- Trzeba się przebudzić! (autor: BeHQ | data: 10/07/10 | godz.: 20:02)
To całe wymyślanie o kwantowych komputerach, Bio-CPU itp. elektro-fantazje jeśli nastąpi, to prędzej dla naszych wnuków, prawnuków niż dla Nas. Jeśli nastapi i mam na myśli masowe użycie jak ma się to teraz z mnogością procesorów do wyboru. Nam pozostaje podliczyć gotówkę na zakup platformy z komponentami dostępnymi dziś, teraz, od zaraz ze sklepowej pułki. Raczej zoptymalizujmy swoje mózgi, aby kupić co potrzebujemy lub na co nas stać, niżeli snuć fantazje co by było, gdyby... ? Udawanie magistra chemii, fizyki i elektroniki to też nie najlepszy pomysł ;)
W Polsce wygrywa AMD (wydajność /do ceny). Na zachodzie prowadzi Intel (mam pieniądze /do reklamy). Wszystko zależy od zasobności portfela i indywidualnych upodobań.
|
|
|
|
|
|
|
|
|
D O D A J K O M E N T A R Z |
|
|
|
Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.
|
|
|
|
|
|
|
|
|
|