Skocz do zawartości

Witaj!

Zaloguj lub Zarejestruj się aby uzyskać pełny dostęp do forum.

Zdjęcie
- - - - -

MacBook Pro Retina 15'' Late 2013 - opinie


  • Zaloguj się, aby dodać odpowiedź
475 odpowiedzi w tym temacie

#26 dzikipl

dzikipl
  • 533 postów

Napisano 01 listopada 2013 - 20:17

Mnie zastanawia jak jest w końcu z obsługą 4K.
Wg specyfikacji "Support for 4096-by-2160 resolution at 24Hz" po hdmi
a przez DP: "and up to 2560 by 1600 pixels on up to two external displays"

Apple - Thunderbolt: Next-generation high-speed I/O technology.

"Now with Thunderbolt 2 built into the new Mac Pro and MacBook Pro with Retina display, you can connect the latest 4K desktop displays and get double the bandwidth for your peripherals. And the two generations of Thunderbolt technology are compatible with each other."

Będzie 4k 60hz?

#27 kostek_ja

kostek_ja
  • 228 postów
  • SkądWarszawa, PL

Napisano 02 listopada 2013 - 16:10

OhNo, a od kiedy to photoshop nie korzysta z GPU? :) Akurat programy Adobe preferują karty nVidi więc do photoshopa zdecydowanie wolałbym mieć dodatkowe GPU, tym bardziej że w takiej samej specyfikacji wersja z dGPU i bez kosztuje dokładnie tyle samo. Jeżeli dobrze pamiętam to programy CS6 czerpią zyski z CUDA, więc kolejny + dla posiadania katrt nVidi. Kolejną ciekawą kwestią jest w ogóle konstrukcja procesorów z Iris Pro, a dokładnie crystalwell który jest szybką pamięcią podręczną dla zintegrowanego GPU. Nie mniej jednak jak się przełączymy na dedykowane GPU to Crystalwell staje się pamięcią podręczną L4 o pojemności 128MB i zwiększa wydajność procesora. Kolejny + dla dGPU. Pamięć podręczna też nie jest bez znaczenia gdyż przy Iris Pro masz 128MB + 1 GB RAMu, a przy dGPU masz 2GB i 1GB więcej dla procesora. Nie pamiętam tylko jak wygląda sprawa prędkości owych pamięci, ale później z ciekawości sobie znajdę :) Z której strony nie spojrzeć wersja z dGPU jest sensowniejszą opcją, oczywiście o ile robimy coś ciekawszego czyli montujemy wideo, bawimy się w Photoshopie itd. Zwiększa nam to wydajność całego komputera a nie tylko grafiki. Jeżeli chodzi o 4K przez HDMI to te 24Hz nie wynikają z jakiegoś widzi mi się Apple tylko ze specyfikacji HDMI 1.4. Dopiero we wrześniu wyszło HDMI 2.0 które obsługuje 4K na poziomie 60Hz.

#28 dzikipl

dzikipl
  • 533 postów

Napisano 02 listopada 2013 - 16:48

Jeżeli chodzi o 4K przez HDMI to te 24Hz nie wynikają z jakiegoś widzi mi się Apple tylko ze specyfikacji HDMI 1.4. Dopiero we wrześniu wyszło HDMI 2.0 które obsługuje 4K na poziomie 60Hz.


Mogli użyć 2.0

Ale zastanawiające jest jak po DP, teoretycznie może i tak się chwalą na stronie o TB, ale w specyfikacji nie obsługuje.
A jest to istotne bo za niebawem ceny monitorów 4k spadną do realnego poziomu.

#29 kostek_ja

kostek_ja
  • 228 postów
  • SkądWarszawa, PL

Napisano 02 listopada 2013 - 20:17

Trochę średnio mogli, skoro wyszło niedługo przed premierą. Chociaż też bym wolał aby się sprężyli i wrzucili. Pytanie też czy to naprawdę zależało od nich czy może od wsparcia Intela/nVidi.

#30 iron.gery

iron.gery
  • 4 651 postów
  • SkądPolska | USA

Napisano 02 listopada 2013 - 20:38

A jest to istotne bo za niebawem ceny monitorów 4k spadną do realnego poziomu.


A mi się wydaje że obmyślanie nad 4K będzie miało sens za 2-3 lata. Czyli przy kupnie nowego komputera, kiedy to rMBP 15'' Late 2013 będzie już trochę przestarzały :)

#31 dzikipl

dzikipl
  • 533 postów

Napisano 03 listopada 2013 - 09:47

A mi się wydaje że obmyślanie nad 4K będzie miało sens za 2-3 lata. Czyli przy kupnie nowego komputera, kiedy to rMBP 15'' Late 2013 będzie już trochę przestarzały :)


Skoro już za ok 4400 można kupić komputer z ekranem "retina" 15" to ceny większych ekranów też szybko spadną.
Obecny rynek monitorów jest dość nasycony, mnie do zmiany musiałby przekonać spory skok jakości, to by dało 4K.

Jak już kupuję komputer za ok 10kPLN to chciałbym żeby był przynajmniej odrobinę przyszłościowy, może i za pół roku będzie mnie stać na monitor 4K i mam się wtedy denerwować?

#32 iron.gery

iron.gery
  • 4 651 postów
  • SkądPolska | USA

Napisano 03 listopada 2013 - 12:28

Skoro już za ok 4400 można kupić komputer z ekranem "retina" 15" to ceny większych ekranów też szybko spadną.
Obecny rynek monitorów jest dość nasycony, mnie do zmiany musiałby przekonać spory skok jakości, to by dało 4K.

Jak już kupuję komputer za ok 10kPLN to chciałbym żeby był przynajmniej odrobinę przyszłościowy, może i za pół roku będzie mnie stać na monitor 4K i mam się wtedy denerwować?


4400zł komputer z ekranem Retina 15''…? Chyba dolarów.

#33 softice

softice
  • 9 postów

Napisano 03 listopada 2013 - 13:09

4400zł komputer z ekranem Retina 15''…? Chyba dolarów.


Prawde mówi, niewiele sie pomylił. 7500brutto - 23 vat - PIT5 = 5167zł

#34 kostek_ja

kostek_ja
  • 228 postów
  • SkądWarszawa, PL

Napisano 03 listopada 2013 - 13:32

dzikipl, ale jakby nie patrzeć to HDMI 1.4 jest wystarczająco przyszłościowe do zastosowań telewizyjnych. Każdy normalny film ma 25-30 fps. Aktualnie wszystkie telewizory 4K mają rozdzielczość 3840x2160, a przy takiej rozdzielczości masz 30Hz czyli wystarczająco do właściwie każdego filmu. Ta wyższa rozdzielczość to już nie jest 16:9 a jakieś dziwne 256:135. Do tego wsparcie HDMI 2.0 raczej nie zalezy od apple a od nVidi i Intela i dopiero nowsze generacje będą wspierać to złącze. A na koniec można stwierdzić że jak cię stać to sobie za rok, dwa zmienisz. Można też stwierdzić że jak masz masz pieniądze to zmieniasz sprzęt co 2-4 lata, więc jak to dla ciebie ważne to można rok poczekać. Akurat z tym HDMI to naprawdę nie widzę powodu gadania na Apple. Co do telewizorów 4K to nie przesadzajmy że teraz są jakieś strasznie drogie, skoro rozmawiamy o laptopach za +/- 10k PLN to telewizor za +/- 20k nie powinien stanowić problemu. Ja wolałem kupić za te 20k dobre 75 cali w full HD, niż 65 cali w 4K za tyle samo. 85cali 4K bardzo fajne ale to już ponad 100k PLN :)

#35 kostek_ja

kostek_ja
  • 228 postów
  • SkądWarszawa, PL

Napisano 03 listopada 2013 - 15:54

Ciekawy test:
Ultimate 15" MacBook Pro Retina Showdown: GT 650M vs Iris Pro (Early vs Late 2013) - YouTube

#36 sancruz3

sancruz3
  • 2 436 postów

Napisano 03 listopada 2013 - 18:17

To kolega moze odrazu tak czekac i czekac... Najlepiej poczekac na sprzet produkowany z rurek w nanotechnologi... Ale telewizory 4k leca na dol z sonego i mozna wytargac 55" za 13tysciecy wiec w stosunku do retiny nie jest to duzo skoro wydaje sie tyle na sprzet co 3-4 lata... No i 84 cale ogladac jak niekotrzy z 3 metro :) LOL

#37 dzikipl

dzikipl
  • 533 postów

Napisano 04 listopada 2013 - 07:48

4400zł komputer z ekranem Retina 15''…? Chyba dolarów.


https://shop.sony.pl...ideActive=)/.do

Jest wysyp u wielu producentów, Apple było pierwsze ale już jedyne nie jest. 400PLN dopłaty od FHD to nie jest dużo.

I 4K nie chcę do filmów, wielu to ma na myśli, mi chodzi o monitor 30" który pokaże dużą ilość detali. Teraz pracuję na 27" w rozdzielczości 2560 x 1440 i mogłby mieć więcej. Nikt nie neguje retiny w 15" a na zewnętrznym kablu to już myślą o filmach.

#38 kostek_ja

kostek_ja
  • 228 postów
  • SkądWarszawa, PL

Napisano 04 listopada 2013 - 10:13

To pewnie dlatego że sam zastanawiałem się nad tą częstotliwością ze względu na telewizor a nie ekran zewnętrzny :) Zobaczymy w grudniu ile Apple policzy za swoje 4K. Nie mniej jednak pytanie brzmi czy faktycznie potrzebujesz odświerzania większego niż to 24-30Hz przy zdjęciach czy innego rodzaju grafice to chyba nie jest zbyt istotony parametr.

#39 dzikipl

dzikipl
  • 533 postów

Napisano 04 listopada 2013 - 11:38

To pewnie dlatego że sam zastanawiałem się nad tą częstotliwością ze względu na telewizor a nie ekran zewnętrzny :)

Zobaczymy w grudniu ile Apple policzy za swoje 4K. Nie mniej jednak pytanie brzmi czy faktycznie potrzebujesz odświerzania większego niż to 24-30Hz przy zdjęciach czy innego rodzaju grafice to chyba nie jest zbyt istotony parametr.


Inna płynność pracy, odczuwalna, nie jest oczywiście krytyczna ale niektóre osoby praca przy 24Hz potrafi drażnić.
Można to wymusić do testów podpinając do jakiś monitor po hdmi.

#40 kostek_ja

kostek_ja
  • 228 postów
  • SkądWarszawa, PL

Napisano 04 listopada 2013 - 13:35

Cały czas czepiasz się tych 24Hz które tak naprawdę nie mają znaczenia. Standard 4K to ta niższa rozdzielczość i wówczas mamy odświerzanie na poziomie 30Hz. W dodatku aktualne telewizory np. Samsunga (monitorów jeszcze nie zgłębiałem) mają wbudowany komputer który na bierząco filtruje obraz i tworzy pomiędzy klatkami dodatkwe klatki, więc do twoich oczu dociera zdecydowanie lepszy obraz niż te 30Hz które przeszło HDMI. W te filtry średnio wierzyłem ale naprawdę robią robote. Ta dodatkowe kilkadziesiąt razy więcej klatek... nie wiem czy widzę wzrost płynności, ale teoria działania ma sens.

#41 dzikipl

dzikipl
  • 533 postów

Napisano 04 listopada 2013 - 15:00

Cały czas czepiasz się tych 24Hz które tak naprawdę nie mają znaczenia. Standard 4K to ta niższa rozdzielczość i wówczas mamy odświerzanie na poziomie 30Hz. W dodatku aktualne telewizory np. Samsunga (monitorów jeszcze nie zgłębiałem) mają wbudowany komputer który na bierząco filtruje obraz i tworzy pomiędzy klatkami dodatkwe klatki, więc do twoich oczu dociera zdecydowanie lepszy obraz niż te 30Hz które przeszło HDMI.

W te filtry średnio wierzyłem ale naprawdę robią robote. Ta dodatkowe kilkadziesiąt razy więcej klatek... nie wiem czy widzę wzrost płynności, ale teoria działania ma sens.



Wiem jak działają, ale WOLAŁBYM natywne 60hz.
A czepiam się apple że raz piszą jedno a raz drugie.

#42 kostek_ja

kostek_ja
  • 228 postów
  • SkądWarszawa, PL

Napisano 04 listopada 2013 - 19:03

A czepiam się apple że raz piszą jedno a raz drugie.


Możesz rozwinąć? Ja nigdzie sprzeczności nie widzę.

#43 dzikipl

dzikipl
  • 533 postów

Napisano 04 listopada 2013 - 19:07

Możesz rozwinąć? Ja nigdzie sprzeczności nie widzę.


http://myapple.pl/ko...tml#post2207042

#44 kostek_ja

kostek_ja
  • 228 postów
  • SkądWarszawa, PL

Napisano 04 listopada 2013 - 19:36

Ale tutaj nie ma sprzeczności. Jak już napisałem wcześniej 30Hz dla 4K przez HDMI wynika ze specyfikacji samego HDMI. W przypadku TB2 sytuacja wygląda już kompletnie inaczej, ale nie ma podanej specyfikacji gdyż nawet takiego monitora jeszcze nie ma. Nie mniej jednak można to bardzo ogólnie policzyć. Zdjęcie JPG w rozdzielczości 4K ma jakieś 3-15MB, policzmy dla pewności 20MB. TB2 pracyje z prędkością 20Gb/s = 2,5GB/s = 2560MB/s, czyli możemy przesłać 128 takich zdjęć w przeciągu 1s, co nam daje 128Hz i wziąłbym to za minimum. W tym wypadku widzę większy problem z wydajnością grafiki w rMBP niż w samym złączu czy monitorze.

#45 daku3

daku3
  • 125 postów
  • SkądWarszawa

Napisano 04 listopada 2013 - 19:58

Po wysłaniu poniższych zdjęć do Pomocy Apple zaproponowano mi wymianę na nowy egzemplarz lub zwrot pieniędzy, wybrałem to drugie;)
rMBP 15" late 2013
[ATTACH=CONFIG]18070[/ATTACH]
[ATTACH=CONFIG]18071[/ATTACH]

Niezły yellow screen:roll:

#46 dzikipl

dzikipl
  • 533 postów

Napisano 04 listopada 2013 - 20:56

Ale tutaj nie ma sprzeczności. Jak już napisałem wcześniej 30Hz dla 4K przez HDMI wynika ze specyfikacji samego HDMI. W przypadku TB2 sytuacja wygląda już kompletnie inaczej, ale nie ma podanej specyfikacji gdyż nawet takiego monitora jeszcze nie ma. Nie mniej jednak można to bardzo ogólnie policzyć. Zdjęcie JPG w rozdzielczości 4K ma jakieś 3-15MB, policzmy dla pewności 20MB. TB2 pracyje z prędkością 20Gb/s = 2,5GB/s = 2560MB/s, czyli możemy przesłać 128 takich zdjęć w przeciągu 1s, co nam daje 128Hz i wziąłbym to za minimum. W tym wypadku widzę większy problem z wydajnością grafiki w rMBP niż w samym złączu czy monitorze.


To jak poza sprzecznością nazwać to:
"Now with Thunderbolt 2 built into the new Mac Pro and MacBook Pro with Retina display, you can connect the latest 4K desktop displays"
i
"Dual display and video mirroring: Simultaneously supports full native resolution on the built-in display and up to 2560 by 1600 pixels on up to two external displays, both at millions of colors" - o DP w MBPr

Wydajność TB nie oznacza wydajności DP.
Nie podają w której wersji jest DP(!)

Wg iFixit chipsety na płycie powinny obłsużyć DP 1.2 więc 4K@60Hz, ale wolałbym dowód.

Vaio które miałem obsługuje wg instrukcji tylko FHD a jak się okazało po hdmi 4K poszło.

DP i HDMI nie ma kompresji stratnej obrazu więc jak można to liczyć po wielkości jpg?

#47 kostek_ja

kostek_ja
  • 228 postów
  • SkądWarszawa, PL

Napisano 05 listopada 2013 - 20:18

Moim zdaniem ta sprzeczność wynika iż ta część specyfikacji nie została jeszcze updatowana. Co do reszty to przyznaje się bez bicia że na tyle się nie znam, aby się wypowiadać. Nie mniej jednak z wszelakich informacji prasowych TB nie równa się DP. Posiada kompatybilność wsteczną do DP, ale czy do wyświetlania obrazu zawsze używa standardu DP czy ma jakiś własny ciężko powiedzieć i ze wszelakich informacji, na które ja się natknąłem, wynika że wie to tylko Intel i Apple. Obsługa 4K w standardzie HDMI zależy głównie od typu HDMI więc jedynym powodem aby nie poszło na Vaio to jakaś blokada softwareowa, a że Windows to nie Apple i nie chciałoby się im takich ograniczeń wprowadzać :) Jestem świadomy braku kompresji w przesyłanym obrazie przez HDMI, ale z faktu że nie jestem pewny jak policzyć wielkość obrazu skłądającego się z x milionów pikseli i x mln. kolorów to wziąłem sensowną wartość. JPG które jest skompresowane a co za tym idzie ma mniejszy rozmiar mają rozmiary 3-12MB, za to RAW który zawiera dużo więcej informacji to już 30-50MB. W takim układzie okolice 20MB wydają się realną wartością.

#48 dzikipl

dzikipl
  • 533 postów

Napisano 06 listopada 2013 - 09:38

Obsługa 4K w standardzie HDMI zależy głównie od typu HDMI więc jedynym powodem aby nie poszło na Vaio to jakaś blokada softwareowa, a że Windows to nie Apple i nie chciałoby się im takich ograniczeń wprowadzać :)


Bardz złą i powszechną rzeczą stosowaną przez producentów to brak podawania w której wersji jest dane złącze, dobrze że piszą które USB jest

Jestem świadomy braku kompresji w przesyłanym obrazie przez HDMI, ale z faktu że nie jestem pewny jak policzyć wielkość obrazu skłądającego się z x milionów pikseli i x mln. kolorów to wziąłem sensowną wartość. JPG które jest skompresowane a co za tym idzie ma mniejszy rozmiar mają rozmiary 3-12MB, za to RAW który zawiera dużo więcej informacji to już 30-50MB. W takim układzie okolice 20MB wydają się realną wartością.


Liczy się banalnie:
ilość pikseli x*ilość pikseli Y * ilość bitów kolorów
4096*2160*32/8 = 33,75MB * 24Hz = 810MB/s = 6,48Gb/s

#49 kostek_ja

kostek_ja
  • 228 postów
  • SkądWarszawa, PL

Napisano 06 listopada 2013 - 15:11

Nie wiedziałem ile bitów przypada na piksel ;) Z tą rozdzielczością to też jest dyskusyjne ile ma 4K. Najczęściej jest to 3840x2160 w standardowo przyjętym stosunku 16:9. 4096x2160 ma już jakiś dziwny stosunek i jest zdecydowanie rzadziej stosowany. Jakby nie patrzeć, to zakładając że TB2 ma jakiś swój standard wideo to 20Gb/s : (3840*2160*32) = 80Hz. Ewentualnie dla tego dziwniejszego 4K (Eizo robi takie monitory) wychodzi nam ponad 75Hz. Tylko wówczas jesteśmy skazani na ekran od Apple, który zapewne tani nie będzie, ale to już zobaczymy w grudniu :) Ja też naprawdę bym wolał mieć HDMI 2.0 zamiast 1.4, ale stawiając się na miejscu Apple tez bym nagle nie przeprojektowywał komputera który był już zapewne w fazie testów bo wyszło nowe, nieprzetestowane złącze które może sprawiać problemy i opóźnić premierę.

#50 panjan

panjan
  • 21 postów

Napisano 07 listopada 2013 - 10:08

ekran od Apple, który zapewne tani nie będzie, ale to już zobaczymy w grudniu :)


A to potwierdzona informacja, że zobaczymy w grudniu nowy ekran? Apple na ostatniej konferencji nie wspomniało o tym ani słowa.




Użytkownicy przeglądający ten temat: 0

0 użytkowników, 0 gości, 0 anonimowych