Połączenie wielu serwerów
#1
Posted 24 February 2014 - 19:25
mam dwa pytania:
1) Czy można połączyć dowolną ilość takich serwerów, aby działały jak superkomputer, lub bardzo wydajny serwer?
2) Co sądzice o stworzeniu procesora do serwerów ze złączonymi koprocesorami, GPU i złączami na pamięć RAM?(lepszego od IBM POWER 8 )
PS: Jestem początkujący i nie wiem gdzie poruszać takie tematy, dziękuję za odpowiedzi.
#2
Posted 24 February 2014 - 23:49
2. Projektuj! Sądzisz, że IBM zatrudnia idiotów? To doświadczeni ludzie, z często wieloletnią praktyką. Aby zrobić lepszy procesor, musisz umieć więcej niż oni. Do tego, zaprojektowanie nowego CPU wymaga wielkiego zespołu ludzi i PIENIĘDZY. Robiąc coś po raz pierwszy, masz dużą szansę popełnić błędy ograniczające wydajność. Gdyby to było takie proste, AMD nie byłby tak bardzo z tyłu za Intelem. A samo chłodzenie takiego wielkiego układu scalonego? Do tego, pewnie ktoś podejmie próbę wykorzystania nowych APU właśnie od AMD, które mają wiele bloków "wbite" do środka. Np. od dawna sterowniki zarządzające RAM wsadza się do środka CPU.
Pentagram Karakorum HP-120 AlCu + Arctic Cooling AF1225L
4 GB DDR3 1600 MHz
Było Asus Radeon HD 6950 DCU II, jest XFX 7850 z AC Mono - czego się nie robi dla tej ciszy!
SilentiumPC Deus G1 600W
#3
Posted 25 February 2014 - 09:41
#4
Posted 25 February 2014 - 10:51
Pentagram Karakorum HP-120 AlCu + Arctic Cooling AF1225L
4 GB DDR3 1600 MHz
Było Asus Radeon HD 6950 DCU II, jest XFX 7850 z AC Mono - czego się nie robi dla tej ciszy!
SilentiumPC Deus G1 600W
#5
Posted 25 February 2014 - 21:06
#6
Posted 25 February 2014 - 23:24
Pentagram Karakorum HP-120 AlCu + Arctic Cooling AF1225L
4 GB DDR3 1600 MHz
Było Asus Radeon HD 6950 DCU II, jest XFX 7850 z AC Mono - czego się nie robi dla tej ciszy!
SilentiumPC Deus G1 600W
#7
Posted 26 February 2014 - 19:33
Pozdrawiam
Jeszcze dodam.
Większość dzisiejszych procesorów jest "RISC-ami" ale programista widzi je jak CISC.
#8
Posted 27 February 2014 - 01:39
USA nie odkryłeś. NVIDIA dodaje do swoich kart elementy techniki CUDA, ale i AMD też pewne elementy dodało, aby przyspieszyć operacje DirectCompute. Zauważ tylko, że pełna integracja CPU+GPU nie jest możliwa. Procesor działa na procesach realizujących algorytmy, natomiast grafika może działać równolegle, bo i tak wymagane jest wykonanie takich samych operacji dla pikseli obrazu i tekstur. Dlatego dodanie kolejnych potoków przypiesza kartę graficzną, w CPU nowe rdzenie nie przyspieszają komputera liniowo - drugi rdzeń, PC 2x szybszy. Wiem, słabo wytłumaczyłem.
Pentagram Karakorum HP-120 AlCu + Arctic Cooling AF1225L
4 GB DDR3 1600 MHz
Było Asus Radeon HD 6950 DCU II, jest XFX 7850 z AC Mono - czego się nie robi dla tej ciszy!
SilentiumPC Deus G1 600W
#9
Posted 27 February 2014 - 09:22
Znasz jakiś serwer ts? To może pogadamy bo jest dużo pisania. Ja mogę po 18:15.
#10
Posted 27 February 2014 - 11:54
- wykonywany/e program/y musi/szą być zoptymalizowany/e do pracy równoległej. bardzo równoległej. coś, co musi się wykonywać jednym potokiem, ew. najeżone jest ..admi skoków będzie pomyłką
- dane do obróbki i wyniki muszą być przesyłane do węzłów w odpowiednio dużych porcjach i najlepiej bez opóźnień (w praktyce z jak najmniejszymi). brzmi prosto, proste nie jest.
- wielozadaniowość systemu operacyjnego pozwala optymalnie udostępniać zasoby kilku/nastu/dziesięciu użytkownikom. tyle, że trzeba mieś taki system, lub/i umieć go odpowiednio skonfigurować.
- prąd.... od dłuższego czasu istotny jest przelicznik ile mocy obliczeniowej dostaniemy za jednostkę mocy dostarczonej.
- serwery szyje się pod zastosowania - inny do świadczenia prostych usług dziesiątkom czy tysiącom użytkowników - inny do masowych równoległych obliczeń (tu ciekawe rozwiązanie wyszło od seti)
- nadprzewodnictwo w informatyce jeszcze nie występuje, więc taki pracujący supersystem oddaje całkiem sporo ciepła - trzeba je odebrać, co wiąże się z kolejnym wydatkiem energetycznym (a systemy chłodzenia doskonałe nie są, sptawności daleko do 100% ).
to co piszesz - serwer pada, inny zajmuje jego miejsce - to nadmiarowość. ew. działanie monitoringu "funkcji życiowych" potworka. coś trochę jak niektóre macierze raid napędów - zaczęło się od serwerów, teraz co druga (jak nie każda) płyta do desktopa ma zaimplementowane. tyle, że raid (odpowiedni) zabezpiecza dane na wypadek śmierci np. jednego dysku.
1x1x1m. fajne. 40 serwerów, też fajne. a jak to schłodzisz?. przechowywanie danych krytycznych - to raczej odpowiedni raid + backup.
#11
Posted 27 February 2014 - 13:26
#12
Posted 27 February 2014 - 18:26
Dzisiaj nie projektuje się nie wiadomo jak wydajnych procesorów (może poza kartami graficznymi, chociaz tempo jest teraz powolne) bo po prostu fizyczne możliwości wykonania takich układów są jak na razie wyczerpane (stąd pojawiają się jednostki wieloprocesorowe a nie mocne procesory o taktowaniu np 10 GHz).
Superkomputer można sobie składać z wielu procesorów na jednej "płycie głównej", aczkolwiek obsługę takiej architektury należy sobie zaprojektować i napisać samemu, bo znacząco różni będzie się od prostszej architektury klasycznego komputera PC (własny system operacyjny przydzielający procesy na procesory i je synchronizujący, własne sprzętowe rozwiązania dostępu takich procesorów do pamięci i wiele innych niuansów).
#13
Posted 27 February 2014 - 19:01
#14
Posted 27 February 2014 - 19:05
#15
Posted 28 February 2014 - 08:21
1 user(s) are reading this topic
0 members, 1 guests, 0 anonymous users