• スポンサードリンク

WebRTCのnativeデモアプリでUVCカメラからの映像を送れた\(^o^)/

WebRTCのデモアプリでAppRTCちゅうのがあるんやけど、元々は内蔵カメラしかサポートしとらへんねん。

でも、WebRTCでUVCカメラを使いたいって話を時々頂くのと、去年のダメージ(確か2月ぐらいにWebRTCのソースが変わった時にそれまで動いてたUVCカメラの処理が全然動かんくなってもうた件)から立ち直ってきたんでちょっと試してみた。忙しい時ほど余計なことしたくなるっちゅう現実逃避の一環かもしれん^^;

VMWare Fusionで動かしとるUbuntuでWebRTCのソース落としてビルドしようとしてたんやけど、原因不明のエラーで途中で止まってもうててん。何回も試してだめやってんけど、ふとひらめいてディスクサイズを変えて仮想マシン作りなおしたらすんなりビルドできるようになってん。要するに途中でディスクへ書き込めんくなってたみたいや。なんせソースが巨大やからなぁ(。・_・。)

そんな紆余曲折を経て、UVCカメラ繋いどらん時は内蔵カメラ、UVCカメラ繋いだ時はUVCカメラからの映像をPCのChromeとの間で授受できた\(^o^)/

WebRTCのnative側でのSurfaceかSurfaceTextureかのハンドリングとオレオレバックエンド内でのSurfaceへの描画処理(=WebRTC側へ映像を送る処理)が合わんくて最初はクラッシュしとったんやけど、バックエンド側の描画モードを変えたら行けた(ちょっと遅くなるんやけどどのみちWebRTCでの送受信処理自体の方がバックエンドでの処理よりも重いからかまへんよな)

オレオレバックエンド自体はWebカメラからの音声の処理にも対応しとるけど、AppRTC用には何もしとらん。でもAndroid5.x以降ならOS側でWebカメラ(というかUAC機器)からの音声を勝手にひらうからとりあえずはええやろ。GALAXYとかみたいにちゃんと処理できん奴もおるけど–;

シグナリング周りをどないかせんといかんなぁ。

« »

  • スポンサードリンク

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

*