Facial Component Extraction by Cooperative Active Nets with Global Constraints

Ryuji Funayama, Naokazu Yokoya, Hidehiko Iwasa, Haruo Takemura

Extraction methods of face and facial components are essential and expected to be applicable to personal identification, computer graphics, advanced human interface, etc.

This paper describes a new face and facial component extraction method from a face image using cooperative active nets. An active net model which is based on energy minimization principle is used for extracting non-rigid object region and I utilize this model for extracting face and facial components. Image force of a net is defined from color distribution of a face region and external constraint force from size, shape and symmetry of facial components. Each net deforms with its own energy being minimized and the position of the nets are controlled to minimize an energy which is produced by constraints of their placement.

Our method has been experimentally shown to be robust to variations of facial size, position and rotation compared with existing methods such as template matching and projection-based method. And it is not required to be carefully initialized unlike deformable templates.


人物画像からの顔領域および顔部品の抽出は、個人同定やCG、ヒューマン インターフェイスなどへの広範な応用が期待できる基本的な課題であり、 従来から様々な手法が提案されてきた。

本論文では、複数の動的な網のモデルの協調により、入力画像中人物の 顔および顔部品を抽出する新しいアルゴリズムを提案する。 エネルギー最小化原理に基づく動的な網のモデルは、雑音に強い非剛体物体 領域の抽出手法として用いられるが、これを顔および顔部品の抽出に用いる。 画像エネルギーを顔の色分布に基づいて定義し、顔部品の大きさや形状、 対称性などに関する制約を外部エネルギーとして定義する。そして、 顔部品の配置に関する先見的な制約に基づいた新たなエネルギー項を 導入し、各顔部品を抽出するための網の位置を制御して協調的に動作させる ことにより、ロバストな顔部品抽出を実現する。

本手法は、投影やテンプレートマッチングなどによる従来手法に比べ、 画像中の顔位置や大きさの変化、回転、背景雑音などに対してロバストである。 また、Deformable Templateのように網の初期値を入力画像に応じて個別に 設定する必要がないといった特徴が挙げられる。


Ryuji FUNAYAMA <ryuji@funayama.com>
inserted by FC2 system