Dzień dobry,
Przygotowuję aplikację która w czasie rzeczywistym będzie łączyć obraz z np kamery facetime oraz z odtwarzanego pliku. Prace nad aplikację trwają ale napotkałem na problem z wydajnością. Nie mogę dojść co powinienem zrobić aby poprawić wyświetlanie i obrabianie obrazu.
Obraz z kamery przechwytuję i przetwarzam na CIImage. Dodaję do niego CIFilter i wyświetlam z wykorzystaniem NSOpenGLView. w tej konfiguracji wszystko działa ok i nie ma żadnych opóźnień.
gdy natomiast probuję to zrobić z odtwarzanym obrazem pojawia się problem. gdy jedynie wyświetlam obraz wszystko jest ok ale gdy dodam jakiś filtr (narazie testuję na crop) użycie procesora diametraline wzrasta a odtwarzany obraz zwalnia o tracone sa klatki.
Może ktoś ma jakieś przykłady albo ma więcej doświadczenia niż ja i mógłby pomoc.
AVPlayer obliczenia w czasie rzeczywistym
Rozpoczęty przez
andrzejhi
, 02 cze 2014 12:23
Brak odpowiedzi do tego tematu
Użytkownicy przeglądający ten temat: 0
0 użytkowników, 0 gości, 0 anonimowych