デンソーテクニカルレビュー Vol.9 No.1 2004
特集 多機種の製品に適用可能な高速検査ロボットシステムの開発*
Development of a High-speed Vision Robot System Suitable for Many Product Models
木村博志
松岡 博
森 芳弘
近藤禎樹
Hiroshi KIMURA
Hiroshi MATSUOKA
Yoshihiro MORI
Yoshiki KONDO
榊原 聡
Satoshi SAKAKIBARA
We developed a high-speed vision robot system that can be applied to various types of products. The system
developed consists of a robot with cameras and lights, and a computer for teaching and image processing. In the
system many points on any face of the product can be inspected without stopping with the help of the developed robot
path planning, and a synchronous method between the robot path and image input. Moreover, we developed standard
inspection algorithms and unified environment for robot and vision teaching. Therefore the teaching operation can be
done without programming. This system is currently in use in our plants helping to maintain high quality products.
Key words : Appearance inspection, Vision robot, Path planning, Programming-less teaching
1.はじめに
る.そこで,最終検査工程を例に取り,実用化に必要
企業間の激しい競争に勝ち残るためには,高品質化
な技術課題を抽出する.Fig. 1に最終検査工程の特徴
が非常に重要である.一方、近年の製品は,製品改良
を示す.これより,検査部位が製品全体に三次元的に
や製品の世代交代の間隔が短くなり,生産ラインはよ
分布している10∼150箇所の検査を0.3s/箇所∼0.6s/箇
り多機種の製品に対応する必要がある.これらのニー
ズに対し,生産ラインの要所要所に検査工程を設け,
目視作業者または自動検査機で対応している.しかし,
Example of inspection points and items
4 Screw missing
12 bracket incorrect
人はヒューマンエラーが避けられないため高品質化に
は限界がある.また,検査工程を自動化する研究は多
5
1)-5)
く,実用化例も多いが, 検査部位が三次元的に分布
している製品で,かつ多機種を生産する検査工程を自
1
3
2
動化した例はない.
機種で,検査部位が三次元的に分布する製品に対応で
36
35
34
33
き,かつ高速に検査が可能な新しい検査システムを開
32
そこで本研究では,ロボットにカメラを持たせ,多
発した.そして,本システムの実用化上の課題となる,
13
22
29 28 27 26 25 24 23
Inspection time
30
0.6s/point
20
A/C
pomp
ECU
10
radiator
stator
injector
0.3s/point
生産ラインでは一般的にすべての部品が組み付けら
れた最終検査工程が最も多種になる.また,最終検査
工程は,あらゆる品質保証の取り組みの中で最後の砦
であるため,最も重要な検査工程と位置づけられてい
0
10 20 30 40 50
Sum of the inspection point
Fig. 1 Example of inspection
*(社)日本ロボット学会の了解を得て,「第21回学術講演会講演予稿集(2003)
」より一部加筆して転載
−100−
14
15
30
Inspection time (s)
2.外観検査自動化への課題
11
31
ングをプログラミングレスで行うことができるティー
化を可能にしたので報告する.
9 10
8
生成技術を開発し,また,ロボット及び視覚ティーチ
た多機種の製品に対応する必要がある検査工程の自動
7
37
多くの検査部位を高速に検査するためのロボット経路
チング技術を開発した.これにより,従来困難であっ
6
21
16
17
18
19
20
特 集
所の速度で検査しなくてはならない.そのため,検査
4.各構成部分の要素技術
システムには様々な方向から高速に検査できる柔軟性
4.1
が必要である.さらに,当社製品の自動車部品は,多
くの車種が存在する上に,同一車種であっても,グレ
ードや供給国等によって細かく仕様が分かれており,
品番数も50∼1000品番と多く,稼動後の品番追加も頻
繁なため,ティーチングが簡単に行えるシステムが必
要である.
カメラロボット
本システムで必要なカメラロボットは,三次元的に
分布する検査部位を任意の方向から撮像可能な可動範
囲を有することが必要である.今回,(株)デンソー
ウェーブと共同し,天吊り型6軸多関節ロボットを新
たに開発した.Table 1に諸元を示す.ロボットの制
御軸数は,任意の姿勢をとることができる,すなわち
6自由度を持った6軸多関節とした.また,当社の代
3.開発システムの概要
表的な製品のサイズ100mm∼800mmに対応できるよ
Fig. 2に開発システムの概要を示す.本システムは
うリーチ長は1000mmとした.また,今回は多くの部
主に,カメラと照明が取り付けられたカメラロボット
位を検査対象にするため,ロボットは高速に動作する
と,ティーチングの簡単化を可能とした画像処理装置
必要があるが,高出力のモータを使用した場合,剛性
で構成されている.カメラロボットに関しては,様々
を高めるためにロボットが大型化し,設備面積も増大
な検査部位を全方向から撮像するために,天吊り型の
する.これにより,ロボット本体のコストを押し上げ
多関節ロボットを新たに開発した.また,高速な検査
るのはもちろん,現状目視検査を行っている工程に導
を実現するために,新しいノンストップ検査技術を開
入するためには生産レイアウトの大幅な変更を行わね
発した.これにより,各検査箇所を停止することなく,
ばならず,多額のコストが発生し,実用化は到底困難
高速に検査を実行することができる.さらに,多機種
である.そのため,モータは小型ロボットでの標準的
かつ多部位の検査を簡単にティーチングするために,
な出力のものを使用した.ロボットの高速化について
標準検査アルゴリズムを開発し,ロボットと視覚の統
は,システム面の工夫により実現しており,これにつ
合ティーチング環境を構築した.これにより,ティー
いては4.2節で詳述する.
チング作業は,ロボット・視覚共にプログラミングレ
カメラについては,様々なサイズの検査対象に対応
スで行うことができ,新たな機種の追加や変更が迅速
するために,異なる分解能を持ったカメラを最大4台
に行うことが可能である.以下,各構成部分の要素技
まで搭載可能とした.照明は,応答性・高輝度・高寿
術について述べる.
命を考慮し,LEDストロボリング照明とした.なお,
照度は検査対象の材質違い等に対応できるよう,検査
Operator
Robot teaching
Vision teaching
部位ごとに256階調でレベルを制御できるようにした.
開発したカメラロボットの外観をFig. 3に示す.
Teaching & Image
processing unit
Table 1 Item
Robot
controller
Workpiece
Light Camera
Fig. 2 System structure
−101−
Axis
6 axis
Arm length
1000mm
Load capacity
10kg
Maximum speed
2552mm/s
Camera
Max. 4 cameras
Light
LED stroboscope
(Light intensity : 256 level)
デンソーテクニカルレビュー Vol.9 No.1 2004
しかし,任意の位置でティーチングした教示点間を
Overhead-mount
type 6axis robot
動作させた場合,ロボットの軌道はFig. 5(a)のよう
に教示点上を通ることはなく,手前でUターンしてし
まう.そこで,Fig. 5(b)に示すように,動作点と
呼ばれる新たな点を各教示点付近に設け,動作点間を
パス動作させた時にちょうど教示点を通る軌道を生成
することを考える.
Operation point
P’i
Teaching point
Pi
Teaching point Pi
Camera1
Camera2
Camera3
LED stroboscope
Start point
PSTART
Fig. 3 Camera robot
End point
PEND
Start point
PSTART
(a)Conventional method
4.2 多くの検査部位を高速に検査可能なロボット
End point
PEND
(b)New method
Fig. 5 New robot path planning method
技術
従来,ティーチングした位置(教示点)で撮像する
この考えを実現するためには,動作点の位置の決め
ためには,ロボットを各教示点で停止してから画像入
方が問題となる.これに関しては,各教示点付近に仮
力する必要があった.しかし,最終検査の場合,検査箇
動作点を設定した後,計算機内部でロボット軌道をシ
所が多いため,各教示点で停止後に撮像するとサイク
ミュレーションして教示点とのずれ量を求め,そのず
ルタイムオーバとなってしまう.よって,ロボットが
れ量が一定以下になるまで仮動作点を繰り返し動かし
高速移動中に撮像する機能が必要である.以下、この
ていくこととした.
機能を実現するために不可欠な技術について詳述する.
Fig. 6を用いて具体的に説明する.まず,仮動作点
4.2.1 ノンストップ検査が可能なロボット経路生
を P’ij と表すことにする.これは,i 番目の教示点に
対して j 回目のシミュレーション用に設定された仮動
成技術
各教示点でロボットが停止せずに移動する機能は,
従来から「パス動作モード」と呼ばれるモードで実現
作点を表している.なお,初期値 P’i1 は教示点上,す
なわち,
されている.これは,Fig. 4に示すように,教示点 P
P’i 1 = Pi( i = 1, 2, …, n )
へ向かう速度指令パターンと終点 PEND へ向かう速度
指令パターンを重ね,教示点 P への減速開始と同時
(1)
となるように設定する.
に終点 PEND への加速を開始するものである.その結
次に,すべての P’ij をパス動作させたときの軌道を
果,ロボットは合成速度で動作するため,教示点 P
シミュレーションによって求め,各教示点 Pi に最も
近くなる最近傍点から各教示点 P i へのずれベクト
では止まらない.
ル
Start point
PSTART
Teaching point
P
End point
PEND
を計算する.そして,このずれベクトル
あるしきい値 TH 以上の場合,
P’ij+1 = P’ij + α・
Speedν
が
PSTART → P Start of slowing-down
Composition speed
(αは重み係数)
(2)
のように仮動作点を再設定する.このシミュレーショ
ンを繰り返し,ずれベクトル
がすべてしきい値
TH 未満になった時の P’ij を動作点とする.
Time t
本手法を用いてロボット動作経路を生成することに
P → PEND Start of acceleration
より,ロボットが停止せずに各教示点上を通るように
Fig. 4 Path mode
なった.
−102−
特 集
Tentative operation point P’ij+1
Tentative operation point P’ij
時間が,ある一定時間を下回らないようにロボット速
→
α・ d ij
度を最適に制御することとした.
→
Teaching point P i
d ij Vector represents
隣り合う教示点間をロボットの最大能力 RMax= 100%
deviation from
closest point to
Nearest point
で動かすと仮定し,そのときの移動速度を vRMax,教示
点間の移動時間を tRMaxとする.また,画像入力を行う
ための処理に最低限必要な時間をTMinとする.このと
End point
P END
Start point
P START
き,最適ロボット速度 v を,
START
Simulate movement from
P START to P END
j = j +1
→
Max
(3)
保できるようロボット速度を制御することとした.な
d ij
dij <Threshold TH?
v = vR
として,隣り合う教示点間が近い場合でも,TMinを確
→
Calculate vector
Max
else
P’ij = P i
≥ Tmin
then
tR
Max
v = ──
・ vRMax
Tmin
tR
if
j=1
お,TMinは画像入力時間や4.2.2項で述べた検知エリア
No
の設定時間等により,60ms程度である.
→
P’ij+1 = P’ij +α・d ij
4.2.4
Yes
END
撮像テスト結果
今回開発した手法を用いてロボットを動作させた時
のテスト結果をFig. 8に示す.(a)は,PSTART から教示
Fig. 6 Procedure for calculating operation points
点 P を経て PEND へと動作させた時の,ロボットの軌
4.2.2
移動中のロボット位置と撮像の同期
跡を表している.経路生成をしない従来の方法では,
ロボットが教示点上を通っても,カメラとの同期が
教示点よりも手前を通過しているのに対し,今回開発
取れなければ,ティーチングしたときと同じ画像を得
した手法では,教示点上を通過していることが分かる.
ることはできない.本システムでは,Fig. 7に示すよ
(b)は,自動車用エアコンにおける検査箇所(45箇所)
うに,ロボットのエンコーダ情報を一定時間間隔で監
をロボット動作させた時の,教示点との誤差量を求め
視することによりロボット位置を取得し,検知エリア
たものである.誤差量は,画像処理上問題ないレベル
と呼ばれるあらかじめ設定しておいた領域に入ったと
(視野サイズ80mm×80mmの10%以内)にする必要が
きに,画像入力開始信号を出力するようにした.これ
あるが,従来の方法では,最大で34mmもの誤差があ
により,移動中のロボット位置と撮像の同期を取るこ
り,大部分の検査箇所は検査不可能である.これに対
とが可能となった.
し今回の方法では,最大でも8mm以内であり,すべ
ての検査箇所で検査可能なロボットの軌跡を実現して
Robot path
Sampling point
Teaching
point
Image input
start trigger
いる.この手法では,各検査箇所をノンストップで通
Robot
controller
Robot
control part
Encoder
Detection area detection part
Image
processing unit
Camera
Image input
start trigger
過するため,Fig. 9に示すように検査時間が従来比約
1/3と,大幅に高速検査が可能となった.
Image
processing part
Image
input part
4.3
ロボット・視覚の簡単ティーチング
ロボットとカメラを組み合わせたシステムでは,各
検査箇所における撮像位置の教示(ロボットティーチン
Fig. 7 The synchronous method between the robot
path and image input
グ)と,視覚ティーチングが必要である.現状これら
を簡単に行うことができないのは,検査対象ごとにプ
4.2.3
教示点間の最適速度制御技術
ログラミングを行っていることと,ロボットと視覚を
ロボット移動中に撮像する場合,隣り合う教示点間
別々の環境でティーチングしていることが問題だと考
が近いと,前の教示点での画像入力が完了する前にロ
えた.そこで,本システムでは,汎用性の高い標準プ
ボットが次の教示点を通過してしまい,画像入力でき
ログラムを開発し,プログラミングレスでティーチン
ないことになる.そこで,各教示点間のロボット移動
グ可能なシステムを目指すこととした.さらに,ロボ
−103−
デンソーテクニカルレビュー Vol.9 No.1 2004
Teaching point
400
ットと視覚のティーチングを同一の環境で行うことが
P
New method
できるユーザインターフェースを構築することとした.
ここで,ロボット及び視覚ティーチングの内,ロボ
Y (mm)
300
ットティーチングに関しては,基本的に教示した位置
200
へ移動する命令文の繰り返しであるため,標準プログ
Conventional method
ラムの開発は比較的容易であり,今回の報告では詳細
100
PEND
PSTART
を割愛する.一方,視覚ティーチングでは,異欠品検
0
0
200
400
X (mm)
600
800
(a)Effect on the new path planning method
査やキズ検査等,様々な検査が存在する上に,それぞ
れの検査の中でも様々な材質,形状が存在する.よっ
Frequency
Conventional
method
て,視覚の標準検査アルゴリズムの開発がプログラミ
60
N=45point ×5
査である異欠品検査の標準検査アルゴリズムの開発に
30
ついて説明する.
15
0
4
8
12
16 20
Frequency
24 28 32
4.3.1
34
汎用異欠品検査の基本アルゴリズム
異欠品検査における良品・不良品画像の例をFig.
200
New method
ングレス化へのポイントである.本項では代表的な検
45
N=45point ×5
150
10に示す.これらの画像からも明らかなように,検
100
査対象によって画像パターンの形状や明るさは様々で
50
ある.しかし,キズ検査等とは異なり,良品画像パタ
0
4
8
12
16 20
24 28
32
34
Error between teaching point and
nearest point (mm)
(b)Error between teaching point and closest point
ーンと不良画像パターンとの間には,比較的大きな差
があることが分かる.そこで,良品の画像パターンを
あらかじめ登録しておくことで,様々な検査対象に適
用することが可能な正規化相関マッチング法を採用す
Fig. 8 Result of moving robot test
ることにした.
Inspection time(s/point)
正規化相関マッチング法とは,Fig. 11に示すよう
1.5
1.3s
Example of air conditioner
for automobile
に,マスター画像と呼ばれる良品の画像をあらかじめ
登録しておき,検査時には入力された画像(被検画像)
の左上から右下へ順にサーチし,各位置における相関
1.0
値(マスター画像との一致度合いを表す評価尺度)を
0.5s
0.5
求めるものであり,相関値 S ( k, l ) は,
Non-stop
Stop
inspection inspection
Fig. 9 Comparison of inspection time
Good part
Defect
Good part
Pipe clamp
Missing part
inspection of
pipe cramp
Case
Incorrect part
inspection of
case
Bracket
Aspirator
Missing part
inspection of
aspirator
Incorrect part
inspection of
bracket
Fig. 10 Sample image of missing / incorrect part inspection
−104−
Defect
特 集
で表される.そして,求めた相関値の中で最大となる
マスター点は一定間隔以上離れた点とし,少ない画素
位置における相関値,
数で対象の形状全体を表現することとした.
U–M+1,V–N+1
SMAX =
Max {S (k,l)}
Resin molded part
(5)
k=1,l=1
Outline
がしきい値を超えるか否かにより,良否を判定する.
Master points
Master image x ( i, j )
1,1
→i
1,1
Test image y ( k + i , l + j )
U
k,l
M
↓
j
N
Fig. 12 New idea about master image
M,N
V
U,V
Fig. 11 Normalized correlation method
Fig. 13 Effect on shape change
しかし,本手法は一致度を求める計算式が複雑な上
に画面全体をサーチしなければならないため,計算量
実際に画素を抽出する処理の流れをFig. 14に示す.
が膨大になるという欠点がある.例えば,100×100画
素のマスター画像を512×512画素の画像上でサーチさ
まず,マスター画像全体を画像微分し,各画素におけ
せる場合,その計算量は乗算34億回,加算51億回とな
る微分強度 G( i, j ) と方向θ( i, j ) を求める.画像微分
り,Pentium4 2.5GHzでも65.3sを要してしまう.その
は,一般的なソーベル法と呼ばれる次式を用いて求め
ため,実用化するためには高速化手法の開発が必要で
る.
6)
ある.
4.3.2
G (i, j) = {(Δx x (i, j) }2 + {(Δy x (i, j) }2
計算量低減のためのアルゴリズム
–1
θ(i, j) = tan {(Δy x (i, j) /Δx x (i, j) }
そこで今回,輪郭線周辺の画素に着目した新しい正
(6)
(7)
規化相関マッチング手法を新たに開発した.本手法で
ただし,
は,マスター画像で用いる画素の数を減らすことを考
Δx x (i, j) = x (i – 1, j – 1) + 2x (i – 1, j) + x (i – 1, j + 1)
える.正規化相関マッチングは,最も相関値が高くな
– {x (i + 1, j – 1) + 2x (i + 1, j) + x (i+1, j +1)}
る位置におけるその値の大きさによって良否を判定す
Δy x (i, j) = x (i – 1, j – 1) + 2x (i, j – 1) + x (i + 1, j – 1)
る,すなわちマスター画像と同じ画像パターンの位置
– {x (i – 1, j + 1) + 2x (i, j + 1) + x (i+1, j +1)}
を決定する処理であることにほかならない.よって,
マスター画像の中から位置決めに有効な画素のみを抽
ここで,微分強度とは,各画素における輪郭線らし
出するという観点から,輪郭線の画素に着目した.た
さを表す値であり,方向とは,輪郭線に対して垂直の
だし,輪郭線の画素を用いる際には,考慮すべき重要
方向を表している.
次に,微分値の大きい順にソートする.
な問題がある.それは,対象の形状変動に対して弱い
ことである.例えば,当社製品で多く使われている樹
MN
{G (i, j)} → {G (i 1 , j1 ), G (i2 , j2 ), … G (iMN , jMN)}
Sort
i=1, j=1
脂成型部品やゴム部品などでは比較的形状変動が大き
いため,正しく認識することができない場合がある.
(Sort ( ) はソートを表す)
(8)
ただし,G (i 1 , j 1 ) ≥ G (i 2 , j 2 ) ≥ …… ≥ G (iMN , jMN)
そこで,本手法ではFig. 12に示すように輪郭線そ
のものは用いず,輪郭線の両側の画素(以下マスター
そして,Fig. 14(b)に示すように微分値の大きい
点と呼ぶ)を用いることとした.こうすることで,
Fig. 13に示すような対象の形状変動があった場合で
点から順に,その点から一定距離 d だけ離れた2点,
も,マスター点は影響を受けない.さらに,隣り合う
−105−
デンソーテクニカルレビュー Vol.9 No.1 2004
Ph = ( ih ± d cos {θ( ih , jh )}, jh ± d sin {θ( ih , jh )})
縮された.本手法により,実用的な汎用異欠品検査ア
(h = 0, 1, 2, ……, MN )
ルゴリズムが開発できた.
(9)
4.3.3
をマスター点候補として抽出する.マスター点候補は,
ロボットと視覚の統合ティーチング環境
従来では,ロボットと視覚は全く別々のユーザイン
Fig. 14(c)に示すように半径 d の領域に既に登録済
ターフェースを用いてティーチングをしなければなら
みのマスター点がないときに限り,マスター点として
ず,ティーチング工数増大の要因となっていた.そこ
登録する.この処理を,登録されたマスター点がn 点
で今回,新たなユーザインターフェースを整備した.
になるまで繰り返し,最終的にFig. 14(d)のような
具体的には,Fig. 16に示すように,ロボットと視覚
マスター点群を求める.なお,微分の方向からの距離
のティーチングを統合し,同じ環境下で扱えるように
d は,検査対象の形状変動量及び画像分解能によって
設計した.ロボットの操作も,6自由度を1つのキー
決定するパラメータであり,例えば当社の樹脂部品の
で操作可能なデバイス(3Dマウス)を用いて直感的
場合は d = 3程度である.また,マスター点の個数 n
な操作ができるようにした.
は,検査対象の形状の複雑さによって決定するパラメ
なお,ロボット・視覚のティーチングは,すべてグ
ータである.一般的には,n = 50∼200程度であり,テ
ラフィカルなユーザインターフェース上で行えるよう
ィーチング作業者が画面を見ながら容易に設定できる
になっている.実際の画面例をFig. 17に示す.これ
ようになっている.
により,ロボットと視覚は同一の環境からプログラミ
ングレスでティーチングができるようになった.Fig.
i
M
18に示すように,ティーチング時間は従来比約1/5と
θ(ih ,jh)
x(i,j)
d
d
j
N
なり,多機種の製品にも迅速に対応することが可能と
Ph
なった.
(ih ,jh)
Ph
(a)Master image
Image processing part
(b)Extraction of master
points candidate
Standard
Inspection program
Robot path
planning part
Missing part insp.
Part number insp.
Robot controller
Standard robot
program
Ph
d
Teaching part
d P
h
Teaching data
(c)Decision of master
points
(d)Result
Vision Robot
Part number A
Part number B
Part number C
G
Fig. 14 Procedure for extracting master points
今回開発した正規化相関マッチング法での検査例と
Mouse
U
I
Key board
3D mouse
その時の処理時間をFig. 15に示す.良品と不良品を
Fig. 16 Software structure
Master image
Good part
Defect
Master points
Processing time(s)
分離することができ,かつ処理時間は0.1sと大幅に短
10 2
65.3s
10 1
10 0
10 -1
0.1s
CPU : Pentium4 2.5GHz
(SMAX = 0.92)>(Threshold=0.8 )>(SMAX = 0.36)
Fig. 15 Result of test
−106−
Conventional New method
method
特 集
START
Window for operating the robot
Robot teaching
3D mouse
(Made by 3DConnexion)
①Operate the robot
by using the 3D mouse
Robot path planning
・・・・・・・
②Save the robot position
Calculate robot path for non-stop inspection.
Processing time is around 2s/40points.(Pentium4 2.5GHz )
Vision teaching
No
All inspection
points?
①Select inspection item
Yes
②Set for inspection area
③Input parameter
END
Teaching & image
processing unit
Teaching time(min./point)
Fig. 17 Teaching procedure
ロボットと視覚のそれぞれを個別にプログラミングし
ていた従来と比較して1/5程度に短縮された.
30
稼働後の製品改良や新機種の追加の際にも,従来の
25min.
ようにロボットや視覚の専門家でなくとも,現場の作
20
10
業者がティーチングができるようになったため,効率
5min.
も上がっている.ティーチングのユーザインターフェ
ースは,現場作業者の生の声(意見や要望)も反映し
Conventional New method
method
ながら,より使いやすいものへと進化させている.
Fig. 18 Teaching time
5.結果
今回開発した検査ロボットシステムを自動車用エア
コンに適用した.設備の外観をFig. 19に,結果を
Table 2に示す.35箇所の検査に対し,検査時間は17s
となり,各教示点で停止してから撮像する場合に比べ
て約3倍高速に検査を行うことができた.誤認識率は,
見逃し率(不良品を良品と誤る率)は0%,過剰検出
率(良品を不良品と誤る率)は1%と,従来の実用化
事例と同等以上の性能を有している.また,ティーチ
ング時間も5分/箇所で行うことができるようになり,
−107−
Fig. 19 Appearance of inspection systemfor
automobile air conditioner
デンソーテクニカルレビュー Vol.9 No.1 2004
Table 2 Result on automobile air conditioner
Sum of part
number
200part types
(Max.1000part types available)
Sum of
inspection point
Ave. 35 points/product
(Max. 200 point available)
Inspection time
Ave. 17s
(1/3 of conventional camera robot)
Error ratio
Teaching time
<参考文献>
1)横山良雄,市橋栄二:官能評価に対応した高速
画像処理,計測自動制御学会誌,36,4(1997),
pp.262-267.
2)横山良雄,川村成他:規則性評価による欠陥候
補検出技術を用いた外観検査自動化,第8回画像
センシングシンポジウム講演論文集(2002),
pp.149-152.
Undetected error ratio : 0%
Over-detect error ratio : Less than 1%
3)目視検査の自動化技術調査委員会編:画像処理
による目視検査の自動化事例集,新技術コミュ
5min./point
(1/5 of conventional method)
ニケーションズ(1991),pp.142-143.
4)江尻正員監修:画像処理産業応用総覧(応用技
6.おわりに
術編),フジテクノシステム(1994),pp.401-408.
多機種の製品に適用可能な外観検査システムを開発
5)Rob Spencer:Machine Vision Makes Already
し,その有効性を確認した.本システムは実際の製造
Flexible Robots Even More Versatile, ROBOTICS
現場に導入され,安定した製品品質の確保に貢献して
WORLD,DOUGLAS PUBLICATIONS(2002),
いる.今後は,コストダウンや,高精度寸法計測・官
pp.18-19.
能検査等の高度な検査技術の開発を行っていく予定で
6)高木,下田:画像解析ハンドブック,東京大学
出版会(1991)
ある.
<著 者>
木村 博志
松岡 博
(きむら ひろし)
(まつおか ひろし)
生産技術部
生産技術部
外観検査の自動化技術の研究・開発
外観検査の自動化技術の研究・開発
に従事
に従事
森 芳弘
近藤 禎樹
(もり よしひろ)
(こんどう よしき)
生産技術部
冷暖房製造2部
視覚自動化技術の研究・開発に従事
カーエアコン室内ユニットの組立工
程設計に従事
榊原 聡
(さかきばら さとし)
(株)
デンソーウェーブFA事業部技術部
産業用ロボットのシステムソフトウ
ェア開発、アプリケーション技術開
発に従事
−108−
ダウンロード

多機種の製品に適用可能な高速検査ロボットシステムの開発