著者
Liu Yu Nakajima Masayuki
出版者
一般社団法人映像情報メディア学会
雑誌
テレビジョン学会誌 (ISSN:03866831)
巻号頁・発行日
vol.50, no.10, pp.1507-1514, 1996-10-20
参考文献数
12
被引用文献数
2

アニメ画像は, 自然画像と異なる特徴と持っている, すなわち動いている対象物体, 人物, 動物などでは色数が少ない.また, ノイズがなく同色領域も多く, 規則的な輪郭線もある.それに対して背景にはフルカラーの領域が多く存在する.従来のアニメ画像圧縮手法として, 単純なストラクチャランレングス符号化があるが, フルカラーの背景を効率良く圧縮できない.また, 単純な予測DPCM符号化を用いて, 色数が少ない部分(人物など)を圧縮すると効率が低いという問題があった.そこで本論文では, アニメ画像の特徴を利用して, 高能率のロスレスハイブリッド符号化法を提案する.本提案手法は, ストラクチャランレングス符号化の基本手法と予測DPCMを併用し, 従来の手法における低圧縮率の問題を解消した.また, ストラクチャランレングス符号化の周辺画素のサーチ手法によって, 元の画像を記号データと色データに変換し, 周辺画素の記号によって, 適応予測DPCMを色データに適用するか否かを決定している.そして, 変換後の各データに対して, エントロピー符号化を行っている.従来の手法と比較した結果, エントロピーが適応DPCM符号化より, 平均的に1b/pxiel, 単純なストラクチャランレングス符号化より, 最大5b/pixel下がることが明らかとなった.
著者
SAPAICO Luis Ricardo LAGA Hamid NAKAJIMA Masayuki
出版者
一般社団法人 電子情報通信学会
雑誌
IEICE transactions on information and systems (ISSN:09168532)
巻号頁・発行日
vol.94, no.8, pp.1671-1682, 2011-08-01
参考文献数
26
被引用文献数
1

We propose a system that, using video information, segments the mouth region from a face image and then detects the protrusion of the tongue from inside the oral cavity. Initially, under the assumption that the mouth is closed, we detect both mouth corners. We use a set of specifically oriented Gabor filters for enhancing horizontal features corresponding to the shadow existing between the upper and lower lips. After applying the Hough line detector, the extremes of the line that was found are regarded as the mouth corners. Detection rate for mouth corner localization is 85.33%. These points are then input to a mouth appearance model which fits a mouth contour to the image. By segmenting its bounding box we obtain a mouth template. Next, considering the symmetric nature of the mouth, we divide the template into right and left halves. Thus, our system makes use of three templates. We track the mouth in the following frames using normalized correlation for mouth template matching. Changes happening in the mouth region are directly described by the correlation value, i.e., the appearance of the tongue in the surface of the mouth will cause a decrease in the correlation coefficient through time. These coefficients are used for detecting the tongue protrusion. The right and left tongue protrusion positions will be detected by analyzing similarity changes between the right and left half-mouth templates and the currently tracked ones. Detection rates under the default parameters of our system are 90.20% for the tongue protrusion regardless of the position, and 84.78% for the right and left tongue protrusion positions. Our results demonstrate the feasibility of real-time tongue protrusion detection in vision-based systems and motivates further investigating the usage of this new modality in human-computer communication.