Miałeś racje co do wielkości "ramki" bo faktycznie jak się wybierze większe niż optymalna rozdzielczości to są one odpowiednio większe. Natomiast nie miałeś racji z tym dwukrotnym spowolnieniem bo spowolnienie także wiąże się z tym, że aplikacje takie jak mapy, na których testowałeś, przepychają więcej danych i to ich optymalizacja się nakłada. Podobny efekt uzyskałbyś bez Retiny podpinając monitor dużej rozdzielczości i porównując szybkość tych samych map w różnych rozdzielczościach - wtedy nie byłoby skalowania.
Podsumowując - Retina 13 z Iris to jest bardzo dobry sprzęt, a karta graficzna daje radę.
I to jest przyczyna. Ja nie oceniam czy GPU daje radę bo nie ma jednoznacznej odpowiedzi, wszystko zależy od zastosowań i zawsze znajdzie się zastosowanie gdzie najlepsze GPU nie podoła. Ale nie wiem jak chcesz zaklinać rzeczywistość że dwa razy więcej pikseli to nie jest dwa razy więcej pracy.
Jest i to już na poziomie API systemu które ma dwa razy więcej do roboty. Jak masz program rysuje kółko od brzegu do brzegu to dla programu to będzie bez różnicy, będzie w kodzie circle(0,0,width,height);. Złożoność po stornie programu bez zmian, ale API dostało to kółko i kiedyś będzie musiało je przełożyć na piksele a złożoność tych alogrytmów jest LINIOWA więc dwa razy więcej pikseli które rysują w wirtualnym buforze dokłada tu pracy dokładnie dwa razy.
Ale nie największą wadą tych algorytmów jest wydajność a degradacja jakości obrazu i to mój główny zarzut.