Też sprzedałem swojego. Miałem go trzy lata i to chyba był ostatni dzwonek zanim Apple by porzucił ipada mini bez retiny. Pierwotnie miał być do czytania dokumentacji a praktycznie służył do tracenia czasu.
Ano TAK, jak się przyzwyczaiłeś i masz aplikacje na urządzenie, z którego chcesz dzwonić lub ma się mieścić w kieszeni.
wiesz, że chodziło o próbkowanie? 11, 22, 44, 96 to synonimy ustandaryzowanych częstotliwości próbkowania
Co to jest wyższy prąd? Słyszałeś o powielaczach napięcia? DAC w słuchawkach może pozwolić na dwie rzeczy: a) dopasowanie charakterystyki DAC do słuchawki b) wykorzystanie aktywnego tłumienia hałasu z zewnątrz.
Źle. Słuchawki BT trzeba ładować, są cięższe, Bluetooth jeden drugiemu nierówny. Przykładowo kiedyś do Nokii chciałem kupić konwerter BT/jack od Nokii (ten w wściekłych kolorach) i nie działał jeden z klawiszy [>>] do tego dźwięk był w niskiej jakości (obstawiam 22kHz). Wiem, że będzie ikonka designed for iPhone, ale niedoróby mogą być i będą droższe. Nie wiem, czy już zrobili, ale jeżeli w BT dali format dźwięku bez kompresji, to nie byłoby gówno. Najgorzej, że po takim 8h słuchania (np. na wyjeździe) słuchawki zdechną z głodu.
"16Bit/44,1kHz, a na Lightning 24Bit/96kHz, "
Nie bardzo rozumiem. W jacku masz analoga, myślałem, ze przetwornik w iPhonie ma te 24 bity/96kHz jak w zintegrowanych dźwiękówkach od Intela. Niech Apple zmieni DAC i po krzyku. Niestety ta firma robi skok licencyjny na słuchawki - bardzo nieładnie.
Artykuł był o procesorach z tezą, że na Iphonie było trochę wolniej od komputera, bo arm jest szybki. Jeżeli obciążenie procesora w obu testach byłoby niskie, to znaczyłoby, że wąskim gardłem jest odczyt małych porcji z dysku w logice programu, a tym samym całą tezę możnaby potłuc o kant .... stołu. Czy chcesz ukryć wyniki takiego testu czy mi się wydaje? ;-D
Według testów z notebookcheck.pl ma 688MB/s ale to nieistotne, bo jak czytał małymi porcjami to ma 13MB/s i wciąga 17% procesora. Filemaker może pominać cache plikowy przy zapisie, ale chociaż mógłby wgrać baze do pamięci. MSSQL wciąga całą pamięć na cache (np. 9GB przy 12GB w hoście) i to widać w działaniu. Dlatego pytałem o obciążenie procka i dysku, bo jak procek śpi a dysk szaleje, to wszystko stanie się jasne. Przy takiej objętości bazy raport powinien pojawić się raz-dwa. Możesz jeszcze zrobić ramdysk, tam wgrać bazę i wtedy zrobić test.
"Poniższy tekst pojawił się pierwotnie w dwunastym numerze MyApple Magazynu, który był przedświątecznym poradnikiem zakupowym. Warto mieć to na uwadze w czasie lektury. "
Przeczytałem no i? Lenovo, Acer powstały w tym roku?
Porównanie ceny do jakości to żart. Idąc tym krokiem to jeszcze lepszy był netbook Acer AO522 bo lekki, w miarę szybki, wyjście HDMI i stosunek ceny do jakości to byłoby 8/5 i trzymał 5h.
Stosunek ceny do jakości jest bardzo mylący, do tego w ramach rodziny występują modele z różnymi ekranami. Poza tym co autor porównuje? Zenbooka jest po 4200 a Dell (matowy, lepszy cpu, mniej ramu) już od 4800, lepsza wersja Dell jest droższy o te 2k, ale ma lepszy ekran, lepszy procesor, gwarancje 3 lata u klienta a ASUS 2 lata wysyłkowa. ASUS ma zaletę, że ma matowy ekran, a DELL też ma matowy ekran, ale to już nie jest zaletą? Gdzie modele od Lenovo, Surface od Microsoftu? Jeszcze jest niezły Acer Travelmate.
Ten artykuł niewiele wnosi a wręcz jest szkodliwy.
Przychylam się do głosów, że to kwestia optymalizacji, indeksów, cache bazy i sposobu dostępu do dysku (np. małymi porcjami). Przeładuj kompa, odpal i popatrz na użycie dysku. Jak możesz tę samą operację odpal na maku z HDD. Jak będzie dużo dłużej, to będzie znaczyło, ze dysk jest wąskim gardłem. Może test porównawczy zgrubny zrobisz jakimś softem do wyliczania Pi i ew. coś ram benchamark? Oczywiście jak masz czas.
"Kto dzisiaj tworzy wstawki assemblerowe?" Kto potrzebuje szybkości. Na pewno są w programach muzycznych, pluginach do grafiki. Nie pisałem, że to powszechne, ale widziałem to np. nawet w kodzie programu graficznego na net framework (korzystali z SIMD). Na poziomie systemowym też są (popatrz na źródla linuksa), w sterownikach niskopoziomowych (np. do PXE). Ktoś z tych dodatkowych specjalizowanych rozkazów procesora korzysta. Jak nie wierzysz, ściągnij sobie źródła 7zip "http://www.7-zip.org/a/7z938-src.7z". Masz asm dla ARM i X86.
"Przeniesienie całej reszty na nową platformę mało skomplikowane? Czemu tyle lat nie przenoszą jej na Linuxa" Linux od Windowsa czy MacOSX różni się GUI, funkcjami systemowymi, położeniem katalogów a nawet znakiem podziału ścieżki do pliku. O innych rzeczach nie wpominam. Może to być mało problemowe, ale trzeba od początku pisać z myślą o docelowych systemach (wersje pod różne GUI choćby) odpowiednie biblioteki (np. QT, Delphi, wspólny kompilator, do językow np. Icu.) lub języka z otoczeniem (np. Java/Swing, Python)
Pisałem o przypadku, gdy stara architektura i nowa architektura opiera się na tym systemie operacyjnym na różne procesory (np. Window 32/64). Odpowiada to sytuacji Apple w XCode zmieniasz architekture i masz. W Visual Studio jest standardem, że jak kompilujesz C czy C++ możesz sobie wybrać ARM, x86, x64. Przełączasz - build - masz. Ale warunkiem jest czyste pisanie opierając się na oficjalnych bibliotekach i bez "przyklejenia" do wielkości struktur danych. Sam kiedyś popełniłem małą bibliotekę komunikacyjną do RS232 i uzyskanie 64 bitów to było tylko wybranie opcji i rekompilacja. To samo poszłoby na ARM ale nie miałem potrzeby bo WindowsCE nie było systemem docelowym.
Wracają do Linuksa: nie wszyscy przenoszą, bo a) nie wszyscy oferują soft na Linuksa po prostu b) starszy soft odpalisz w Wine c) którego Linuksa? Debian? Redhat? Slackware? I na którą wersję modelu sterowania usługami czy podsystemu dźwiękowego? Za dużo zmiennych, za mały rynek - dla wielu nie opłaca się.
Zgodność z x86 to plus. Nie trzeba starych rzeczy przepisywać, można łagodnie przejść na nowe, odpalić stary (ale jary) soft w wirtualkach. Jeżeli przyjmiemy, że zgodność z x86 to ogon, no to jest ogon. W trybie x64 jest więcej rejestrów i dodatkowych rozkazów SIMD, wiec kompilując na x64 mamy do tego dostęp w standardzie. Poza tym soft pisze sie w C/C++, Java, Python więc do asemblera sięga się kiedy musi. Taka Java jeszcze w locie optymalizuje program w pamięci w czasie pracy pod konkretne cechy procesora. Krzem to piasek, a tego jest mnóstwo. Ponadto procesory Intela od dawna nie są tym, czym nam się wydaje, one tłumaczą kod maszynowy na swój wewnętrzny kod, optymalizuje, przewidują. Do tego dochodzi ogromny cache (np. 32MB) dla wielu rdzeni i to przyspiesza soft, bo dostęp do RAM jest baaardzo wolny. Pamięci RAM są tak zbudowane, że jak chcesz bajt od jakiegoś adresu, to musi minąć kilkanaście cykli zegara, kolejne bajty (n+1) są dostępne dużo szybciej. To czekanie to strata czasu, dlatego im więcej w cache tym lepiej.
A współpraca IBM z Apple. Może ktoś tam posmarował, robią deal i tyle. Tamci dostali rabac, ci mają reklamę. Jak to w biznesie. IBM może się angażować na 200% w swift, jak branża w to nie pójdzie to będzie nisza. Nie wiem, czy potrzebny jest dodatkowy język, tyle się tego namnożyło, że aż strach. Zresztą sam jezyk to nie wszystko, potrzebę są IDE, frameworki do web, do baz, do obliczeń , to wszystko przetestowane. Jakoś w necie nie słychać, że Swift to jakiś przełom, przełomów mamy aż nadto (Scala, odżycie javascript, java wciąż żywa, MS szaleje z c#).
Moim zdaniem przykład Adobe jest nieszczęśliwy, bo obstawiam, że przy przetwarzaniu obrazu mają trochę wstawek asemblerowych. Przeniesienie reszty (o ile to dalej ten sam język i nie było byle jak napisane) to sprawa mało skomplikowana.
Apple i tak zrobi co zechce, bo wtedy będą mieć pod kontrolą wszystko + kasa w kieszeni. Jeżeli wydajność by nie ucierpiała, a czas pracy mocno się wydłużył pod obciążeniem zwłaszcza, to byłoby fajnie. Ale jest ryzyko, że Adobe i inni olaliby platformę Apple i byłby zonk dla profesjonalistów.
Może ten program "śpi" na operacjach bazodanowych, mi też się wydaje, ze te sumowanie powinno być dużo szybsze.
Kiedy ARM będzie miał podobną wydajność na rdzeń jak Intel Xeon, to wtedy będzie można powiedzieć o poważnych zadaniach serwerowych, bo wydajność na rdzeń jest bardzo istotna. Mnożenie rdzeni nie jest cudownym rozwiązaniem, trzeba to programowo obsłużyć, a wielowątkowość komplikuje produkcję oprogramowania. Poza tym to nie jest tak, że damy rdzenie i sie przyspieszy, algorytm musi pozwalać na zwielokrotnienie obliczeń a i nie jest tak, ze 4 rdzenie to 4x szybciej. Druga kwestia to polityka licencyjna produktów, kiedy się płaci za wykorzystanie dodatkowych rdzeni przez oprogramowanie, lepiej dołożyć do procka. Czy Intel jest przestarzały? Nie jest, bo w serwerach jest soft 64 bitowy, a to już inny model programowy procesora (rejestry, rozkazy i te sprawy). Zresztą sprawy serwerowe to nie rewia mody tylko trwałość inwestycji, dobrze przetestowany sprzęt i stabilność sterowników. Oczywiście każda konkurencja jest na wagę złota, ale może być tak, że Intel już coś ma w zanadrzu (nowy przełomowy model) na spacyfikowanie buntowników.
Ale po co chcesz wrzucać filmik? W tamtych czasach monitory dużej rozdzielczości były rzadkością, być może też Apple pokopał sterowniki i może Excel w tamtej wersji był niedorobiony. Dziesięć lat w przemyśle komputerowym to przepaść, ale w ~2008 spokojnie grałem w stare CallOfDuty na zintegrowanej. Teraz zintegrowane mocno poszły do przodu i zagrażają tanim klasycznym kartom. Nie jest to sprzęt to wymagających gier ale nie do tego były projektowane. Moja następna też będzie zintegrowana.
NIe przesadzaj, porównujesz archaizm gma950 do najnowszych zintegrowanych? W swoim mam intel HD4000 i wszystko śmiga a to przecież staroć. Taaa niech kupują dedykowane, a później znowu coś im się odklei.
Zalezy jeszcze jaki masz tam system plikow i jak usuwasz, w syno jest kosz. Ja np. zrobiłem pomylke na koncie roota 'rm /' :-D i w Syno system poleciał, ale dane pozostaly. Podejrzewam, ze pierwotny OS leci z flash, zas dane na pewno sa zamontowane w ext4 i dodatkami syno w osobnym /volume1 co uchronilo przed kataklizem - to była mila niespodzianka. Wstała stara wersja OS, wgrałem najnowszy, coś tam pomedytował i wszystko ładnie wróciło. Warto wspomnieć, że jeszcze lepiej na różnych dyskach na różnych urządzeniach i w kilku kopiach wg zmian. Z backupem jest ten problem, ze trzeba sobie powiedzieć jakie ryzyko akceptujemy. Co z tego, że mamy na dwóch urządzeniach jak na jednej fazie zasilania i piorun może zniszczyć :-D. Dlatego pisałem o chmurze, bo tam możemy mieć kopię wszystkiego z NAS i w razie kataklizmu odzyskamy dane. Sam myślałem o drugim NASie to już przesada przy moim przeczuciu niebezpieczeństwa (czytaj: zakładam, ze linux sie nie posypie) i raczej kiedyś chciałbym kiedyś odejść od NAS bo najlepszy backup to brak danych do przechowywania, a po weryfikacji trochę pokasowałem.
Przecież DS214Play to sprzęt do domu. Dlaczego mija się z celem? Raid 1 nie zwiększa bezpieczeństwa kopii? Co powiesz tym, którym padł jedyny nowy dysk w NAS?
Przecież w Synology masz spokojnie możliwość wykorzystania Raid 1 - napisałeś to tak, jakby Syno nie miał możliwości ustawienia Raid 1 a ma.
Air vs Retina: retina ma więcej ramu, ale czy duża cześć z niej nie zostanie "pożarta" na potrzeby retiny?
Możesz rozwinąć? Bo to, ze ktoś komus plac za zrobienie apki, nie oznacza, ze musi być platna i musi zarabiać. Poza tym podejrzewam, ze statystyki utworzonych miejsc pracy dotycza caloksztaltu sklepu lub ilości wygenerowanych kont deweloperskich.
Tez myslalem, ze komentarz o Eizo i Nec jest bzdurny, ale była mowa o porządnych, a po drugie monitor ma odwzorowywać jak najlepiej obraz, a przecież Eizo i Nec to synonim monitorów dla grafików. Z kolei biorąc pod uwagę, żeby w ogóle było coś dobrze widać, to mamy o wiele większy wybór monitorów. Oczywiście nie te za 600zł - chociaż jako dodatkowy mam starego Philipsa za 65zł, bo taki mi wystarcza, na dużym bym się zgubił i zagracił biurko. Jak ktoś chce mieć najwyższą jakość obrazu i cierpi na nadmiar pieniędzy, to Eizo jest dobrym wyborem, czyż nie? Wyżej to chyba są monitory medyczne...
I komu to przeszkadzało? Czyli wynurzenia zrzędliwego Apple Fan Oldboya
Wg http://www.apple2.pl/apple/macos.html pierwsza polska wersja (System 6.0.8L ) wyszła w marcu 1992 (to z wiki) a Windows 3.1 PL w Polsce pojawił się we wrześniu 1992 http://www.computerworld.pl/news/309456/Windows.3.1.for.Central.and.Eastern.Europe.html
https://youtu.be/UKeuKNueVZo Sam go używałem w listopadzie 1993.
"Pamiętajcie, że zlokalizowana oficjalna wersja System powstała wiele lat przed polską wersją Windowsa."
Drogi Autorze, czy to jest "wiele lat wcześniej" ?