To teraz wyobraź sobie sytuację, że masz animację, powiedzmy 1000 klatek, puszczasz render preview (kilka, kilkanaście sekund na klatkę) i na każdej klatce tracisz kilka sekund. Pół biedy jeśli jest kilka kompów, wtedy można zająć się w tym czasie czymś innym, choć jeśli termin zakończenia projektu się zbliża jest to irytujące. Inna sytuacja: pracujesz z podglądem sceny w czasie rzeczywistym i scena odświeża się z kilkusekundowym opóźnieniem. To nie są sytuacje z kapelusza. Niestety sam się sparzyłem. Kiedyś ściągnąłem sobie Amfeltec GPU Cluster, podpiąłem na zewnątrz 3xGTX780Ti (czwartej już system nie widział). Przy zapuszaniu finalnego renderu (dodatkowo z Terminala) jeszcze było znośnie (choć zapewniam Cię, że transfery i obliczenia które podałeś niewiele mają wspólnego z rzeczywistością). Render w viewporcie trwał mniej więcej tyle samo dla jednej karty jak dla pięciu, a szybkość, czy raczej wolność odświeżania sprawiała, że praca nie miała sensu. Pozbyłem się sprzętu. Żeby było śmiesznie kupiec zajmuje się kopaniem kryptowalut.
Podałeś przykład dla PCIE x4 i x16 i te wyniki mnie nie zdziwiły. PCIE x4 to moim zdaniem jest to absolutne minimum, żeby podłączać kartę graficzną do normalnej pracy w 3D. Dlatego napisałem, że stary Mac Pro powinien dać radę.
Podtrzymuję to co napisałem, co wynika z moich doświadczeń z pracy. Porównywanie kopania kryptowalut do pracy w 3D jest kompletnie bez sensu. Podpinanie karty graficznej do złącza PCIEx1 jest błędem i marnotrawstwem. Również opieranie się o jeden benchmark pokazujący tylko jeden z wielu aspektów pracy z 3D nie jest właściwe - tak robią np. redaktorzy, dla których ważne jest uzyskanie wyników do tabelek. Oczywiście takie wyniki nie są bez znaczenia, ale są to tylko wskazówki i trzeba podchodzić do tego z dystansem. Tak naprawdę liczy się to, jak ze sprzętem pracuje się na codzień, w rzeczywistości.
Właśnie zdałem sobie sprawę z tego, że jeszcze nigdy nie puściłem żadnego benchmarka. Bo po co?
Użytkownik yfile edytował ten post 08 kwietnia 2017 - 17:37