Я пытаюсь создать приложение для Glass для потоковой передачи видео с помощью GDK. Я нашел хороший пример с libstreaming (https://github.com/fyhertz/libstreaming): потоковое видео Google Glass на сервер
Решение создает потоковый сервер на телефоне. Для подключения к нему можно использовать VLC. Если буфер приема = 0, то я мог бы получить задержку до 0,1 секунды, жертвуя качеством.
Я смог запустить пример на своем Note2 с максимальным разрешением 320x240 30fps 500kbps. Когда я пытаюсь запустить его на Glass, у меня максимум 176x144 и ошибка «Не удалось подключиться к службе камеры».
Мне любопытно, смогу ли я получить больше, чем 176x144, через h.264 или другие протоколы? Я полностью застрял на ошибке «Не удалось подключиться к службе камеры».
Мой код почти такой же, как здесь: Потоковое видео Google Glass на сервер
Кроме:
в основной активности:
SessionBuilder.getInstance()
.setSurfaceView((SurfaceView) findViewById(R.id.surface))
.setCallback(this)
.setPreviewOrientation(90)
.setContext(getApplicationContext())
.setAudioEncoder(SessionBuilder.AUDIO_NONE)
.setVideoEncoder(SessionBuilder.VIDEO_H264)
.setVideoQuality(new VideoQuality(176, 144, 12, 24000));
в манифесте:
<uses-permission android:name="com.google.android.glass.permission.DEVELOPMENT"/>
<uses-permission android:name="android.permission.INTERNET" />
<uses-permission android:name="android.permission.WRITE_EXTERNAL_STORAGE" />
<uses-permission android:name="android.permission.RECORD_AUDIO" />
<uses-permission android:name="android.permission.CAMERA" />
<uses-permission android:name="android.permission.WAKE_LOCK" />
<uses-feature android:name="android.hardware.camera" />
<uses-feature android:name="android.hardware.camera.autofocus" />
Любая помощь или свежие идеи очень ценятся. Я слышал, что Mirror API можно использовать для потоковой передачи видео, но, к сожалению, еще не исследовал это.