qtnet5g

読唇技術アプリケーション

協力パートナー:齋藤研究室(九工大)

唇の動きを撮影した画像をAI処理で言語化

唇の動きをエッジカメラで撮影後、サーバでAI処理することで発言を判読します。発話障がい者支援などへの活用が期待されます。
カメラで撮影した高精細画像をローカル5G環境を利用して高速伝送することで、よりリアルタイムな判読とモビリティの向上を実証しました。

図:読唇技術アプリケーション クチヨミ

ローカル5Gトップに戻る