IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社SCREENホールディングスの特許一覧

特開2024-171573作業支援方法および作業支援システム
<>
  • 特開-作業支援方法および作業支援システム 図1
  • 特開-作業支援方法および作業支援システム 図2
  • 特開-作業支援方法および作業支援システム 図3
  • 特開-作業支援方法および作業支援システム 図4
  • 特開-作業支援方法および作業支援システム 図5
  • 特開-作業支援方法および作業支援システム 図6
  • 特開-作業支援方法および作業支援システム 図7
  • 特開-作業支援方法および作業支援システム 図8
  • 特開-作業支援方法および作業支援システム 図9
  • 特開-作業支援方法および作業支援システム 図10
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024171573
(43)【公開日】2024-12-12
(54)【発明の名称】作業支援方法および作業支援システム
(51)【国際特許分類】
   G06F 3/16 20060101AFI20241205BHJP
   H01L 21/02 20060101ALI20241205BHJP
   G05B 23/02 20060101ALI20241205BHJP
   G10L 15/22 20060101ALI20241205BHJP
   G10L 17/00 20130101ALI20241205BHJP
   G06F 3/01 20060101ALI20241205BHJP
   H01L 21/304 20060101ALI20241205BHJP
【FI】
G06F3/16 650
H01L21/02 Z
G05B23/02 X
G10L15/22 460Z
G10L17/00 200C
G06F3/01 570
H01L21/304 648Z
【審査請求】未請求
【請求項の数】14
【出願形態】OL
(21)【出願番号】P 2023088650
(22)【出願日】2023-05-30
(71)【出願人】
【識別番号】000207551
【氏名又は名称】株式会社SCREENホールディングス
(74)【代理人】
【識別番号】100088672
【弁理士】
【氏名又は名称】吉竹 英俊
(74)【代理人】
【識別番号】100088845
【弁理士】
【氏名又は名称】有田 貴弘
(72)【発明者】
【氏名】清水 進二
【テーマコード(参考)】
3C223
5E555
5F157
【Fターム(参考)】
3C223AA12
3C223AA13
3C223BA02
3C223BB01
3C223BB02
3C223BB08
3C223BB09
3C223BB11
3C223CC02
3C223DD03
3C223EB01
3C223EB02
3C223EB07
3C223FF43
3C223FF52
3C223GG01
3C223HH01
3C223HH02
3C223HH22
3C223HH23
5E555AA46
5E555AA54
5E555BA02
5E555BB02
5E555BC14
5E555CA42
5E555CA47
5E555CB64
5E555CB65
5E555CB66
5E555DA08
5E555DA09
5E555EA22
5E555EA23
5E555FA00
5F157AB02
5F157AB16
5F157AB33
5F157AB45
5F157AB49
5F157AB51
5F157AB64
5F157AB75
5F157AB90
5F157BB23
5F157BB45
5F157CE28
5F157CF40
5F157CF42
5F157CF44
5F157CF52
5F157DA01
5F157DC21
(57)【要約】
【課題】誤った音声認識による誤動作を防止することができる作業支援方法および作業支援システムを提供する。
【解決手段】基板処理装置のメンテナンス作業を行う作業者はスマートグラスを装着して音声による操作指示を発出する。スマートグラスはその音声を受音して音声認識によってテキスト化して表示する。作業者は、表示されたテキストを目視で確認し、その内容が正しければ手のジェスチャーによって確認結果が可であることを表現する。スマートグラスは、作業者のジェスチャーを撮像して解析し、確認結果が可である場合のみ操作指示のコマンドを作成して基板処理装置に送信する。スマートグラスが音声認識によってテキスト化した内容を表示し、作業者がその内容を確認しているため、誤った音声認識による誤動作を防止することができる。
【選択図】図7
【特許請求の範囲】
【請求項1】
産業機器に対して所定の作業を行うときの作業支援方法であって、
受音部、表示部、撮像部および通信部を備えた携帯端末を装着した作業者から発出された音声による操作指示を前記受音部によって受音する受音工程と、
前記受音部によって受音された作業者の音声を解析して前記操作指示のテキストに変換する音声認識工程と、
前記表示部が前記操作指示のテキストを表示する表示工程と、
表示された前記操作指示のテキストを確認した作業者が身体の一部によって示した確認結果を検出して確認情報を取得する検出工程と、
前記確認情報を解析して前記確認結果が可である場合には、前記操作指示の指令情報を生成する動作解析工程と、
前記通信部が前記操作指示の指令情報を前記産業機器に送信する送信工程と、
を備える作業支援方法。
【請求項2】
請求項1記載の作業支援方法において、
前記検出工程では、前記撮像部が作業者のジェスチャーを撮像する作業支援方法。
【請求項3】
請求項1記載の作業支援方法において、
前記携帯端末は、前記携帯端末を装着した作業者の視線を追跡する視線追跡部をさらに備え、
前記検出工程では、作業者が視認している前記産業機器の部位を前記視線追跡部によって特定し、
前記動作解析工程では、前記操作指示のテキストの対象となる対象部位と作業者が視認している部位とが一致しているときには前記確認結果が可であると判定する作業支援方法。
【請求項4】
請求項1記載の作業支援方法において、
前記音声認識工程では、前記受音部によって受音された音声の声紋が予め登録された声紋と一致するときのみ音声解析を実行する作業支援方法。
【請求項5】
請求項1記載の作業支援方法において、
前記音声認識工程は、
前記受音部によって受音された作業者の音声に含まれる音素を音響モデルを用いて特定する音素特定工程と、
前記音素特定工程にて特定された音素の並びを言語モデルを用いて単語に変換する単語変換工程と、
を備え、
前記言語モデルには、前記産業機器に対する特定の作業に関連する用語のみが登録される作業支援方法。
【請求項6】
請求項1記載の作業支援方法において、
前記産業機器は、基板に所定の処理を行う基板処理装置である作業支援方法。
【請求項7】
請求項1から請求項6のいずれかに記載の作業支援方法において、
前記携帯端末は、スマートグラスである作業支援方法。
【請求項8】
産業機器に対して携帯端末を用いて所定の作業を行うときの作業支援システムであって、
前記携帯端末は、
前記携帯端末を装着した作業者から発出された音声による操作指示を受音する受音部と、
前記受音部によって受音された作業者の音声を解析して前記操作指示のテキストに変換する音声認識部と、
前記操作指示のテキストを表示する表示部と、
表示された前記操作指示のテキストを確認した作業者が身体の一部によって示した確認結果を検出して確認情報を取得する検出部と、
前記確認情報を解析して前記確認結果が可である場合には、前記操作指示の指令情報を生成する動作解析部と、
前記操作指示の指令情報を前記産業機器に送信する通信部と、
を備える作業支援システム。
【請求項9】
請求項8記載の作業支援システムにおいて、
前記検出部は、作業者のジェスチャーを撮像する撮像部を含む作業支援システム。
【請求項10】
請求項8記載の作業支援システムにおいて、
前記検出部は、前記携帯端末を装着した作業者の視線を追跡して作業者が視認している前記産業機器の部位を特定する視線追跡部を含み、
前記動作解析部は、前記操作指示のテキストの対象となる対象部位と作業者が視認している部位とが一致しているときには前記確認結果が可であると判定する作業支援システム。
【請求項11】
請求項8記載の作業支援システムにおいて、
前記音声認識部は、前記受音部によって受音された音声の声紋が予め登録された声紋と一致するときのみ音声解析を実行する作業支援システム。
【請求項12】
請求項8記載の作業支援システムにおいて、
前記音声認識部は、前記受音部によって受音された作業者の音声に含まれる音素を音響モデルを用いて特定するとともに、特定された音素の並びを言語モデルを用いて単語に変換し、
前記言語モデルには、前記産業機器に対する特定の作業に関連する用語のみが登録される作業支援システム。
【請求項13】
請求項8記載の作業支援システムにおいて、
前記産業機器は、基板に所定の処理を行う基板処理装置である作業支援システム。
【請求項14】
請求項8から請求項13のいずれかに記載の作業支援システムにおいて、
前記携帯端末は、スマートグラスである作業支援システム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、基板に所定の処理を行う基板処理装置等の産業機器に対してメンテナンス作業等の所定の作業を行うときの作業支援方法および作業支援システムに関する。基板処理装置によって処理対象となる基板には、例えば、半導体基板、液晶表示装置用基板、flat panel display(FPD)用基板、光ディスク用基板、磁気ディスク用基板、または、太陽電池用基板などが含まれる。
【背景技術】
【0002】
従来より、半導体デバイスの製造工程では、半導体基板等の基板に対して種々の処理を行う基板処理装置が用いられている。基板処理装置としては、例えば基板洗浄装置、熱処理装置、検査装置等が使用されている。典型的には、広いクリーンルームに多数の基板処理装置が整然と配置されることが多い。それらの基板処理装置に対しては適宜のタイミングでメンテナンスが行われる。特許文献1には、クリーンルーム内に比較的高い密度で多数の基板処理装置を並べるとともに、基板処理装置のメンテナンスを行うことが記載されている。
【0003】
また、特許文献1には、作業者が基板処理装置にメンテナンスの指示を与えると、基板処理装置がメンテナンス動作(例えば、処理液ノズルからの処理液の吐出動作)を行うことが記載されている。従来の典型的なメンテナンス作業では、作業者がリモコンを手に持って手動で基板処理装置の各部位に対する操作を行っていたのであるが、近年では作業者がリモコンを持たずにスマートグラスを装着してメンテナンス作業を行うことも試みられている。作業者は、スマートグラス内に表示した操作パネルを使用したり音声認識やアイトラッキングによって操作を行う形態が検討されている。特許文献2には、作業者の発話が音声認識されてテキスト情報として携帯端末に表示されることが記載されている。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2020-4866号公報
【特許文献2】特開2021-83079号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかしながら、音声認識においては、作業者の発話内容をスマートグラスが誤って解釈することがある。また、通常は1台の基板処理装置に複数の処理ユニットが搭載されており、複数人の作業者が1台の基板処理装置に対して同時にメンテナンス作業を行うことがある。このような場合に、スマートグラスを装着した作業者以外の別人の音声を認識するおそれがある。このように誤って認識された内容に従って基板処理装置が動作を行うと作業者が危険にさらされることがある。
【0006】
本発明は、上記課題に鑑みてなされたものであり、誤った音声認識による誤動作を防止することができる作業支援方法および作業支援システムを提供することを目的とする。
【課題を解決するための手段】
【0007】
上記課題を解決するため、この発明の第1の態様は、産業機器に対して所定の作業を行うときの作業支援方法において、受音部、表示部、撮像部および通信部を備えた携帯端末を装着した作業者から発出された音声による操作指示を前記受音部によって受音する受音工程と、前記受音部によって受音された作業者の音声を解析して前記操作指示のテキストに変換する音声認識工程と、前記表示部が前記操作指示のテキストを表示する表示工程と、表示された前記操作指示のテキストを確認した作業者が身体の一部によって示した確認結果を検出して確認情報を取得する検出工程と、前記確認情報を解析して前記確認結果が可である場合には、前記操作指示の指令情報を生成する動作解析工程と、前記通信部が前記操作指示の指令情報を前記産業機器に送信する送信工程と、を備える。
【0008】
また、第2の態様は、第1の態様に係る作業支援方法において、前記検出工程では、前記撮像部が作業者のジェスチャーを撮像する。
【0009】
また、第3の態様は、第1または第2の態様に係る作業支援方法において、前記携帯端末は、前記携帯端末を装着した作業者の視線を追跡する視線追跡部をさらに備え、前記検出工程では、作業者が視認している前記産業機器の部位を前記視線追跡部によって特定し、前記動作解析工程では、前記操作指示のテキストの対象となる対象部位と作業者が視認している部位とが一致しているときには前記確認結果が可であると判定する。
【0010】
また、第4の態様は、第1から第3のいずれかの態様に係る作業支援方法において、前記音声認識工程では、前記受音部によって受音された音声の声紋が予め登録された声紋と一致するときのみ音声解析を実行する。
【0011】
また、第5の態様は、第1から第4のいずれかの態様に係る作業支援方法において、前記音声認識工程は、前記受音部によって受音された作業者の音声に含まれる音素を音響モデルを用いて特定する音素特定工程と、前記音素特定工程にて特定された音素の並びを言語モデルを用いて単語に変換する単語変換工程と、を備え、前記言語モデルには、前記産業機器に対する特定の作業に関連する用語のみが登録される。
【0012】
また、第6の態様は、第1から第5のいずれかの態様に係る作業支援方法において、前記産業機器は、基板に所定の処理を行う基板処理装置である。
【0013】
また、第7の態様は、第1から第6のいずれかの態様に係る作業支援方法において、前記携帯端末は、スマートグラスである。
【0014】
また、第8の態様は、産業機器に対して携帯端末を用いて所定の作業を行うときの作業支援システムにおいて、前記携帯端末は、前記携帯端末を装着した作業者から発出された音声による操作指示を受音する受音部と、前記受音部によって受音された作業者の音声を解析して前記操作指示のテキストに変換する音声認識部と、前記操作指示のテキストを表示する表示部と、表示された前記操作指示のテキストを確認した作業者が身体の一部によって示した確認結果を検出して確認情報を取得する検出部と、前記確認情報を解析して前記確認結果が可である場合には、前記操作指示の指令情報を生成する動作解析部と、前記操作指示の指令情報を前記産業機器に送信する通信部と、を備える。
【0015】
また、第9の態様は、第8の態様に係る作業支援システムにおいて、前記検出部は、作業者のジェスチャーを撮像する撮像部を含む。
【0016】
また、第10の態様は、第8または第9の態様に係る作業支援システムにおいて、前記検出部は、前記携帯端末を装着した作業者の視線を追跡して作業者が視認している前記産業機器の部位を特定する視線追跡部を含み、前記動作解析部は、前記操作指示のテキストの対象となる対象部位と作業者が視認している部位とが一致しているときには前記確認結果が可であると判定する。
【0017】
また、第11の態様は、第8から第10のいずれかの態様に係る作業支援システムにおいて、前記音声認識部は、前記受音部によって受音された音声の声紋が予め登録された声紋と一致するときのみ音声解析を実行する。
【0018】
また、第12の態様は、第8から第11のいずれかの態様に係る作業支援システムにおいて、前記音声認識部は、前記受音部によって受音された作業者の音声に含まれる音素を音響モデルを用いて特定するとともに、特定された音素の並びを言語モデルを用いて単語に変換し、前記言語モデルには、前記産業機器に対する特定の作業に関連する用語のみが登録される。
【0019】
また、第13の態様は、第8から第12のいずれかの態様に係る作業支援システムにおいて、前記産業機器は、基板に所定の処理を行う基板処理装置である。
【0020】
また、第14の態様は、第8から第13のいずれかの態様に係る作業支援システムにおいて、前記携帯端末は、スマートグラスである。
【発明の効果】
【0021】
第1から第7の態様に係る作業支援方法によれば、携帯端末を装着した作業者から発出された音声による操作指示を受音してテキストに変換して表示し、そのテキストを確認した作業者の確認結果が可である場合には、操作指示の指令情報を産業機器に送信するため、音声認識が間違っている場合に操作指示が産業機器に与えられることはなく、誤った音声認識による誤動作を防止することができる。
【0022】
特に、第4の態様に係る作業支援方法によれば、受音された音声の声紋が予め登録された声紋と一致するときのみ音声解析を実行するため、登録された作業者とは別人による操作指示が実行されるのをより確実に防止することができる。
【0023】
特に、第5の態様に係る作業支援方法によれば、言語モデルには、産業機器に対する特定の作業に関連する用語のみが登録されるため、作業者から発出された音声による操作指示をより精度良くかつ的確にテキストに変換することが可能となる。
【0024】
第8から第14の態様に係る作業支援システムによれば、携帯端末を装着した作業者から発出された音声による操作指示を受音してテキストに変換して表示し、そのテキストを確認した作業者の確認結果が可である場合には、操作指示の指令情報を産業機器に送信するため、音声認識が間違っている場合に操作指示が産業機器に与えられることはなく、誤った音声認識による誤動作を防止することができる。
【0025】
特に、第11の態様に係る作業支援システムによれば、受音された音声の声紋が予め登録された声紋と一致するときのみ音声解析を実行するため、登録された作業者とは別人による操作指示が実行されるのをより確実に防止することができる。
【0026】
特に、第12の態様に係る作業支援システムによれば、言語モデルには、産業機器に対する特定の作業に関連する用語のみが登録されるため、作業者から発出された音声による操作指示をより精度良くかつ的確にテキストに変換することが可能となる。
【図面の簡単な説明】
【0027】
図1】本発明に係る作業支援システムの概略構成を模式的に示す図である。
図2】基板処理装置の内部のレイアウトを説明するための平面図である。
図3】処理ユニットの概略構成を示す平面図である。
図4】処理ユニットの概略構成を示す側面図である。
図5】スマートグラスの外観を示す斜視図である。
図6】スマートグラス、サーバ、作業支援端末および基板処理装置の制御部の機能的構成を示すブロック図である。
図7】本発明に係る作業支援方法の手順を示すフローチャートである。
図8】音声認識部による音声認識プロセスを模式的に示す図である。
図9】スマートグラスによるテキストの表示の一例を示す図である。
図10】撮像部によって撮像された作業者のジェスチャーの一例を示す図である。
【発明を実施するための形態】
【0028】
以下、図面を参照しつつ本発明の実施の形態について詳細に説明する。以下において、相対的または絶対的な位置関係を示す表現(例えば、「一方向に」、「一方向に沿って」、「平行」、「直交」、「中心」、「同心」、「同軸」、など)は、特に断らない限り、その位置関係を厳密に表すのみならず、公差もしくは同程度の機能が得られる範囲で相対的に角度または距離に関して変位された状態も表すものとする。また、等しい状態であることを示す表現(例えば、「同一」、「等しい」、「均質」、など)は、特に断らない限り、定量的に厳密に等しい状態を表すのみならず、公差もしくは同程度の機能が得られる差が存在する状態も表すものとする。また、形状を示す表現(例えば、「円形状」、「四角形状」、「円筒形状」、など)は、特に断らない限り、幾何学的に厳密にその形状を表すのみならず、同程度の効果が得られる範囲の形状を表すものとし、例えば凹凸または面取りなどを有していてもよい。また、構成要素を「備える」、「具える」、「具備する」、「含む」、「有する」、といった各表現は、他の構成要素の存在を除外する排他的表現ではない。また、「A、BおよびCのうちの少なくとも一つ」という表現には、「Aのみ」、「Bのみ」、「Cのみ」、「A、BおよびCのうち任意の2つ」、「A、BおよびCの全て」が含まれる。
【0029】
<第1実施形態>
図1は、本発明に係る作業支援システムの概略構成を模式的に示す図である。本発明に係る作業支援システムは、複数の基板処理装置40と、スマートグラス10と、サーバ70と、作業支援端末80と、を備える。スマートグラス10および基板処理装置40のコントローラは無線通信にて情報通信網5(例えば、インターネット)に接続されている。また、作業支援端末80およびサーバ70は有線にて情報通信網5に接続されている。情報通信網5に接続された機器間では相互に情報の送受信が可能であり、例えばスマートグラス10と作業支援端末80との間で情報の授受を行うことができる。なお、各機器と情報通信網5とを無線で接続するか有線で接続するかは上記の例に限定されるものではなく、適宜の形態とすることができる(例えば、作業支援端末80と情報通信網5とを無線で接続しても良い)。
【0030】
複数の基板処理装置40は、例えばクリーンルーム内に並べて配置されている。クリーンルームは、例えば半導体デバイスの製造工場内に設けられ、一定の空気清浄度が確保されるとともに温度および湿度が管理された部屋である。作業者は、クリーンルーム内にて基板処理装置40に対して作業を行う。
【0031】
図2は、基板処理装置40の内部のレイアウトを説明するための平面図である。基板処理装置40は、半導体ウェハーなどの円板形状のシリコン基板である基板Wを1枚ずつ処理する枚葉式の基板洗浄装置である。基板処理装置40は、インデクサ部43と、複数の処理ユニット50と、主搬送ロボット48と、制御部45と、を備える。
【0032】
インデクサ部43は、複数(本実施形態では3つ)のロードポートLPおよびインデクサロボット41を有する。各ロードポートLPには、処理ユニット50で処理される複数枚の基板Wを収容するキャリアCが載置される。キャリアCの形態としては、基板Wを密閉空間に収納するFOUP(front opening unified pod)の他に、SMIF(Standard Mechanical Inter Face)ポッドや収納した基板Wを外気に曝すOC(open cassette)であっても良い。
【0033】
インデクサロボット41は、キャリアCと主搬送ロボット48との間で基板Wを搬送する。インデクサロボット41は、例えば多関節ロボットであり、複数のロードポートLPに載置されたいずれのキャリアCに対しても基板Wの授受を行うことができる。
【0034】
また、主搬送ロボット48は、インデクサロボット41と処理ユニット50との間で基板Wを搬送する。主搬送ロボット48は、昇降動作、旋回動作および搬送アームの進退動作が可能に構成されている。インデクサロボット41がキャリアCから取り出した未処理の基板Wを主搬送ロボット48が受け取って処理ユニット50に搬入する。また、主搬送ロボット48が処理ユニット50から搬出した処理済みの基板Wをインデクサロボット41が受け取ってキャリアCに収納する。
【0035】
基板処理装置40においては、例えば、3個の処理ユニット50が積層されて1つの積層体(タワー)を構成する。そして、主搬送ロボット48の周囲に例えば4つの積層体が配置される。すなわち、1つの基板処理装置40は、例えば12個(=3×4)の処理ユニット50を含む。図2では、3段に重ねられた処理ユニット50の1段が概略的に示されている。なお、基板処理装置40における処理ユニット50の数量は、12個に限定されるものではなく、適宜変更されてもよい。
【0036】
主搬送ロボット48は、処理ユニット50が積層された4個の積層体の中央に設置されている。主搬送ロボット48は、インデクサロボット41から受け取った処理対象となる基板Wをいずれかの処理ユニット50の処理カップ55の内側に搬入する。また、主搬送ロボット48は、それぞれの処理ユニット50から処理済みの基板Wを搬出してインデクサロボット41に渡す。
【0037】
また、基板処理装置40は、制御部45を備える。制御部45は、一般的なコンピュータであり、装置内に設けられた上記のインデクサロボット41、主搬送ロボット48および各処理ユニット50に設けられた機構の動作を制御する。制御部45は、装置の壁面に設けられた入出力インターフェイスであるタッチパネルおよび装置外部と通信を行う通信部を有する。なお、図2では、図示の便宜上、制御部45をインデクサ部43内に記載しているが、これに限定されるものではなく、制御部45は基板処理装置40内の適宜の位置に設けられる。
【0038】
以下、基板処理装置40に搭載された12個の処理ユニット50のうちの1つについて説明するが、他の処理ユニット50についても、ノズルの配置位置関係が異なること以外は、同様の構成を有する。
【0039】
処理ユニット50は、1枚の基板Wに対して処理液を吐出して洗浄処理を行う。処理液とは、各種の薬液および純水を含む概念の用語である。薬液としては、例えば、エッチング処理を行うための液、または、パーティクルを除去するための液などが含まれ、具体的には、SC-1液(水酸化アンモニウムと過酸化水素水と純水との混合溶液)、SC-2液(塩酸と過酸化水素水と純水との混合溶液)、または、フッ酸などが用いられる。
【0040】
図3は、処理ユニット50の概略構成を示す平面図である。また、図4は、処理ユニット50の概略構成を示す側面図である。処理ユニット50は、処理チャンバー51、回転保持部56、処理液ノズル(第1ノズル)60、スプレーノズル(第2ノズル)65、および、カップ55を備える。処理チャンバー51は、中空の筐体である。処理チャンバー51の内側に、回転保持部56、処理液ノズル60、スプレーノズル65、および、カップ55等が設けられる。
【0041】
処理チャンバー51の側壁には、搬出入口52が設けられる。搬出入口52は、シャッター53によって開閉される。シャッター53が搬出入口52を開放している状態にて、主搬送ロボット48が搬出入口52から処理液チャンバー51に対して基板Wの搬入および搬出を行う。基板Wの処理中はシャッター53が搬出入口52を閉鎖する。シャッター53によって搬出入口52が閉鎖されると、処理チャンバー51内は半密閉空間となる。
【0042】
処理チャンバー51の天井部にはFFU(ファン・フィルタ・ユニット)54が設けられている。FFU54は、処理チャンバー51の天井から処理チャンバー51内に向けて清浄空気を供給する。これにより、処理チャンバー51内には、上方から下方へと向かう清浄空気のダウンフローが形成される。処理チャンバー51内に供給された気体は処理チャンバー51の底部に設けられた排気ダクト59から排出される。
【0043】
回転保持部56は、スピンチャック57およびスピンモータ58を備える。スピンチャック57は、基板Wを水平姿勢(基板Wの主面の法線が鉛直方向に沿う姿勢)にて保持する基板保持部である。スピンチャック57は、例えば真空吸着式のチャックである。スピンチャック57は、基板Wの下面の中央部を吸着保持する。なお、スピンチャック57は、基板Wの端縁部を把持する挟持式のメカニカルチャックなどの他の形態のチャックであってもよい。
【0044】
スピンチャック57は、基板Wの直径よりも小さな径の円板形状を有する。基板Wの下面がスピンチャック57に吸着保持された状態では、基板Wの周縁部が、スピンチャック57の外周端よりも外側にはみ出ている。
【0045】
スピンチャック57は、モータ軸を介してスピンモータ58と連結される。すなわち、スピンモータ58のモータ軸の上端がスピンチャック57の下面中央部に接続される。スピンチャック57に基板Wが吸着保持されている状態にてスピンモータ58がモータ軸を回転させると、鉛直方向に沿った回転軸まわりで水平面内にて基板Wおよびスピンチャック57が回転する。
【0046】
スピンチャック57の周囲を囲むようにカップ55が設けられる。カップ55は、図示省略の昇降機構によって昇降可能とされる。カップ55は概略円筒形状を有しており、カップ55の上部は上に向かうほどスピンチャック57に近付くように傾斜している。ただし、カップ55の上端部分の内径は基板Wの直径よりも大きい。基板Wの処理時には、カップ55の上端はスピンチャック57に保持された基板Wの高さ位置よりも高い。従って、処理中に回転保持部56によって回転される基板Wから遠心力によって飛散した液体はカップ55によって受け止められて回収される。カップ55によって回収された液体はカップ55の底部に設けられた図示省略の排液管から排出される。なお、カップ55は、回収口を目的別に複数設けた多段構造のものであっても良い。
【0047】
処理液ノズル60は、ノズル先端部61、スイングアーム62およびスイングモータ63を備える。処理液ノズル60は、例えば連続流の状態で処理液を吐出するストレートノズルである。ノズル先端部61は、ほぼ水平方向に延びるスイングアーム62の先端に取り付けられている。ノズル先端部61には、図外の処理液供給源から処理液が供給されるとともに、図示省略の吐出口が形成されており、その吐出口から処理液が吐出される。スイングアーム62はスイングモータ63によって、鉛直方向に沿った揺動軸A1の周りにて水平面内で揺動される。スイングモータ63は、例えばパルスモータである。
【0048】
スイングモータ63がスイングアーム62を揺動させることにより、ノズル先端部61は回転保持部56に保持された基板Wの上方の処理位置とカップ55よりも外側の待機位置との間で円弧状の軌跡を描いて移動する。ノズル先端部61が処理位置に位置しているときに、処理液ノズル60が回転保持部56に保持された基板Wに薬液を吐出することによって、例えば基板Wの洗浄処理が進行する。また、処理液ノズル60が基板Wに純水を吐出することによって、基板Wの純水リンス処理が進行する。なお、ノズル先端部61の位置を検知するためのエンコーダをスイングモータ63に付設するようにしても良い。
【0049】
一方、スプレーノズル65は、ノズル先端部66、スイングアーム67およびスイングモータ68を備える。スプレーノズル65は、例えば処理液と加圧した気体とを混合して液滴を生成し、その液滴と気体との混合流体を基板Wに噴射する二流体ノズルである。ノズル先端部66は、ほぼ水平方向に延びるスイングアーム67の先端に取り付けられている。ノズル先端部66には、図外の処理液供給源および気体供給源から処理液および加圧気体が供給され、それらはノズル先端部61の内部または外部にて混合されて混合流体を形成する。スイングアーム67はスイングモータ68によって、鉛直方向に沿った揺動軸A2の周りにて水平面内で揺動される。スイングモータ68は、例えばパルスモータである。
【0050】
スイングモータ68がスイングアーム67を揺動させることにより、ノズル先端部66は回転保持部56に保持された基板Wの上方の処理位置とカップ55よりも外側の待機位置との間で円弧状の軌跡を描いて移動する。ノズル先端部66が処理位置に位置しているときに、スプレーノズル65が回転保持部56に保持された基板Wに混合流体を吐出することによって、例えば基板Wの洗浄処理が進行する。なお、ノズル先端部66の位置を検知するためのエンコーダをスイングモータ68に付設するようにしても良い。
【0051】
図3に示すように、処理液ノズル60の回動動作とスプレーノズル65の回動動作とは相互に干渉するおそれがある。すなわち、処理液ノズル60が処理位置に位置しているときに、スプレーノズル65も基板Wの上方に移動すると双方が衝突するおそれがある。このため、処理液ノズル60またはスプレーノズル65のいずれか一方が処理位置に位置しているときには、他方が動作できなくなるようなインターロックが設けられている。
【0052】
基板処理装置40に対して操作等の作業を行う作業者はスマートグラス10を装着する。スマートグラス10は、ヘッドマウントディスプレイ(HMD)方式のウェアラブル端末の一種である。スマートグラス10は、AR(Augmented Reality:拡張現実)またはMR(Mixed Reality:複合現実)を実現するためのデバイスでもある。スマートグラス10としては、例えば、マイクロソフト社製の「HoloLens」(登録商標)を用いることができる。
【0053】
図5は、スマートグラス10の外観を示す斜視図である。スマートグラス10は、バイザー11およびヘッドバンド12を備える。作業者はヘッドバンド12を頭に付けることによってスマートグラス10を装着する。作業者は、自らの頭の大きさに合わせてヘッドバンド12の長さを調整することが可能とされている。また、ヘッドバンド12には、電源ボタン、明るさボタンおよびボリュームボタン等が設けられている。
【0054】
バイザー11は、各種センサーとディスプレイとを含む。そのディスプレイは、シースルーホログラフィックレンズである。すなわち、ディスプレイはホログラムによって立体映像を作業者の視野空間に表示することが可能であるとともに、通常の眼鏡レンズと同じように現実の物体からの光を透過する。従って、スマートグラス10を装着した作業者は、ディスプレイを通して現実の物体を視認しつつ表示された立体映像を見ることも可能である。
【0055】
バイザー11のセンサーには、例えば主にバイザー11の前方を撮像する複数の可視光カメラ、作業者の視線を追跡する赤外線カメラ、対象物までの距離を測定する深度センサー、および、慣性測定センサー等が含まれる。赤外線カメラは、スマートグラス10の装着者の眼球の動きを測定して視線を追跡する。深度センサーは、例えば、ToF(Time of Flight)方式によって対象物までの距離を測定する。慣性測定センサーは、加速度計、ジャイロスコープ、磁力計等によって構成される。
【0056】
また、スマートグラス10には、CPU、メモリおよび記憶部等を備えたコンピュータが内蔵されている。スマートグラス10には、無線通信機構も設けられており、スマートグラス10のコンピュータはその無線通信機構を使用して情報通信網5に接続する。さらに、スマートグラス10には、マイクロフォン、スピーカーおよびバッテリー等も設けられている。
【0057】
図6は、スマートグラス10、サーバ70、作業支援端末80および基板処理装置40の制御部45の機能的構成を示すブロック図である。スマートグラス10は、撮像部21、通信部22、表示部23、受音部24および視線追跡部25を備える。撮像部21は、上述したバイザー11に設けられた可視光カメラを含む。撮像部21は、例えば前方および斜め前方を撮像する4台の可視光カメラを含んでおり、スマートグラス10を装着した作業者の視野範囲を撮像することができる。
【0058】
通信部22は、上述したスマートグラス10の無線通信機構を含む。通信部22は、情報通信網5を介して作業支援端末80およびサーバ70とデータの送受信を行う。また、通信部22は、近距離であれば基板処理装置40の制御部45と直接にデータの送受信を行うことも可能である。すなわち、通信部22は、直接にまたは情報通信網5を介して基板処理装置40の制御部45にデータやコマンドを送信することができる。
【0059】
表示部23は、上述したバイザー11のディスプレイを含む。表示部23はホログラフィック処理装置を有しており、ホログラム技術によって所定の空間位置に立体映像を表示する。なお、表示部23が表示する立体映像は三次元形状のものに限定されず、ドキュメントのような二次元のものであっても良い。
【0060】
受音部24は、上述したスマートグラス10のマイクロフォンを含む。受音部24は、スマートグラス10に届いた音を電気信号に変換する。よって、受音部24は、スマートグラス10を装着した作業者から発出された音声を集音して電気信号に変換することができる。受音部24から出力され電気信号は、スマートグラス10の記憶部に格納されても良い(つまり、音声を録音するようにしても良い)。
【0061】
視線追跡部25は、作業者の眼球の動きを測定する2台の赤外線カメラを含む。視線追跡部25は、2台の赤外線カメラによって作業者の視線を追跡するアイトラッキング機能を有する。スマートグラス10を装着した作業者は、アイトラッキング機能によって視線による操作を行うこともできる。
【0062】
また、スマートグラス10は、音声認識部31および動作解析部36を備える。これらの音声認識部31および動作解析部36は、スマートグラス10のCPUが所定の処理プログラムを実行することによって実現される機能処理部である。音声認識部31および動作解析部36の処理内容についてはさらに後述する。
【0063】
基板処理装置40の制御部45は、スイングモータ63等の処理ユニット50に設けられた機構の動作を制御する。基板処理装置40の制御部45は、スマートグラス10の通信部22と通信可能であり、スマートグラス10から送信された操作指示のコマンドに従って処理ユニット50に設けられた各種機構の動作を制御することも可能である。
【0064】
作業支援端末80およびサーバ70は、例えば基板処理装置40を製造してその保守点検を請け負うベンダーの工場内に設置されている。作業支援端末80およびサーバ70は、情報通信網5を介してスマートグラス10と通信可能とされている。また、作業支援端末80とサーバ70とは情報通信網5を介して相互に通信可能とされている。
【0065】
作業支援端末80およびサーバ70は、一般的なコンピュータシステムである。すなわち、作業支援端末80およびサーバ70は、各種演算処理を行う回路であるCPU、基本プログラムを記憶する読み出し専用のメモリであるROM、各種情報を記憶する読み書き自在のメモリであるRAM、制御用ソフトウェアやデータなどを記憶しておく記憶部(例えば、磁気ディスクまたはSSD)および情報通信網5と通信を行う通信部を備えている。
【0066】
作業支援端末80は、例えばベンダー側の作業支援員がクリーンルーム内の作業者の作業を支援するためのコンピュータである。作業支援員は、作業支援端末80からクリーンルーム内の作業者が装着するスマートグラス10に種々の情報を送信することができる。
【0067】
サーバ70は、本発明に係る作業支援システムにおいて、スマートグラス10および作業支援端末80からのリクエストに応じて所定の処理を実行するコンピュータである。サーバ70は、比較的容量の大きな記憶部74を備えている。スマートグラス10および作業支援端末80によって作成された大きなサイズのデータは記憶部74に格納されても良い。なお、サーバ70および作業支援端末80は必須の要素ではない。
【0068】
次に、上述した構成を有する作業支援システムを用いた作業支援方法について説明する。図7は、本発明に係る作業支援方法の手順を示すフローチャートである。本実施形態においては、スマートグラス10を装着した作業者が基板処理装置40に対してメンテナンス作業を行う。具体的な基板処理装置40に対するメンテナンス作業の項目としては、例えば処理液ノズル60に対する処理位置の教示(ティーチング)、スピンチャック57の交換、主搬送ロボット48のアームに対するティーチング等が例示される。作業者は、従前のようにリモコンを手に持って操作を行うのではなく、スマートグラス10を用いて基板処理装置40の各部位に対する操作を行う。特に、本実施形態においては、作業者は音声によって操作を行う。
【0069】
まず、スマートグラス10を装着した作業者が音声による操作指示を発出する(ステップS1)。例えば、処理液ノズル60に対するティーチングを行う場合には、作業者は「インチング プラス 8ピクセル」のように発話する。また、例えば、スピンチャック57の交換後の調整を行う場合には、作業者は「チャック オープン」のような音声を発出する。
【0070】
作業者が発出した音声はスマートグラス10の受音部24によって受音される(ステップS2)。受音された音声は受音部24によって電気信号に変換される。
【0071】
次に、受音部24が受音した音声を音声認識部31が音声認識によってテキスト化する(ステップS3)。音声認識部31は、受音部24によって受音された作業者の音声を解析して操作指示のテキストに変換するのである。
【0072】
図8は、音声認識部31による音声認識プロセスを模式的に示す図である。作業者が発出した音声は受音部24によって受音されて電気信号に変換され、さらにその音声信号から特徴量が抽出されてコンピュータが認識しやすい音声データに変換される(音響分析)。人間は多少の雑音が混じった音声であっても聞き取ることができるが、コンピュータはそのままでは音声を認識することが困難な場合もあるため、コンピュータが認識しやすいように音声データを加工するのである。
【0073】
次に、音声認識部31は音声データから音素を特定する。音素とは、音韻の最小単位である。音声認識部31は、受音部24によって受音された作業者の音声に含まれる音素を音響モデルを用いて特定する。音響モデルは、上記の音響分析によって抽出された音声信号の特徴と事前に学習しておいたデータとを照らし合わせて、入力された音声に最も近い音素を抽出するモジュールである。例えば、図8に示すように、作業者が「オープン」という音声を発出したときには、音声認識部31は音響モデルを用いて作業者の音声に含まれる音素(音素列)を”o-p-u-n”のように特定する。
【0074】
音響モデルを用いて特定された音素列は単なる音素の羅列にすぎないため、音声認識部31はその特定された音素の並びを言語モデルを用いて意味のある単語に変換する。言語モデルは、予め蓄積された単語情報に基づいて、特定された音素から最も出現度合いの確立が高い単語を抽出して出力するモジュールである。例えば、図8に示すような音素の並びが特定されたときには、音声認識部31は言語モデルを用いて作業者が発出した音声は”OPEN”という単語であると特定する。なお、音素の並びを単語に変換するに際して、言語モデルに加えて予め蓄積された単語情報を登録した音声辞書を用いるようにしても良い。
【0075】
以上のような音声認識プロセスを経て作業者の音声がテキストに変換される。図7に戻り、スマートグラス10の表示部23が得られた操作指示のテキストを表示する(ステップS4)。図9は、スマートグラス10によるテキストの表示の一例を示す図である。スマートグラス10の表示部23は、音声認識によって得られた操作指示のテキストを立体映像として表示する。図9の例では、作業者の音声を解析して得られた”inching plus 8 pixels”が立体映像として表示されることとなる。
【0076】
スマートグラス10を装着した作業者は、表示された操作指示のテキストを目視で確認する。そして、第1実施形態では、作業者は確認結果の可否について、すなわち表示されたテキストが発話の通りであるか否かについて例えば手のジェスチャー(或いはフィンガーアクション)によって表現する。作業者によって示されたジェスチャーはスマートグラス10の撮像部21によって撮像されて検出される(ステップS5)。すなわち、第1実施形態においては、撮像部21が作業者によって示された確認結果を検出して確認情報(ジェスチャー)を取得する検出部として機能する。図10は、撮像部21によって撮像された作業者のジェスチャーの一例を示す図である。
【0077】
次に、スマートグラス10の動作解析部36が取得された確認情報を解析して確認結果の可否を判定する。第1実施形態においては、動作解析部36が撮像部21によって撮像された作業者のジェスチャーを解析して表示されたテキストの正否について判定する。具体的には、例えば、確認結果が可の場合と否の場合のそれぞれについて大量の手のジェスチャーを撮像した画像のデータを学習したモデルを構築しておき、そのモデルを用いて可否の判定を行うようにすれば良い。
【0078】
例えば、図10に示すような親指と人差し指で輪をつくるジェスチャーは確認結果が可の場合のジェスチャーである。動作解析部36は、図10に示すようなジェスチャーを解析したときには確認結果が可である、つまり作業者が表示されたテキストを承認したものと判定する。この場合、ステップS6からステップS7に進み、スマートグラス10が音声認識によって得られた操作指示のテキストに従った操作指示のコマンドを生成する。そして、スマートグラス10の通信部22が基板処理装置40の制御部45に当該操作指示のコマンドを送信する。上記の例であれば、”inching plus 8 pixels”という内容の操作指示のコマンドがスマートグラス10から基板処理装置40の制御部45に送信されることとなる。
【0079】
スマートグラス10から操作指示のコマンドを受信した制御部45はそのコマンドを実行する。例えば、上記の内容のコマンドを受信したときには、制御部45はスイングモータ63を8ピクセル分だけ動作させて処理液ノズル60を寸動させる。
【0080】
一方、例えば、両手の人差し指を交差させて×印をつくるジェスチャーは確認結果が否である場合のジェスチャーである。動作解析部36は、そのようなジェスチャーを解析したときには確認結果が否である、つまり作業者が表示されたテキストについて不承認であると判定する。この場合、ステップS6からステップS8に進み、スマートグラス10は操作をキャンセルする。具体的には、スマートグラス10は音声認識によって得られた操作指示のテキストを一旦削除し、スマートグラス10から基板処理装置40へのコマンド送信も実行されない。従って、基板処理装置40の部位が動作を行うこともない。
【0081】
第1実施形態においては、スマートグラス10を装着した作業者から発出された音声による操作指示をそのスマートグラス10が受音して音声認識によってテキスト化して表示している。作業者は、表示されたテキストを目視で確認し、その内容が正しければ手のジェスチャーによって確認結果が可であることを表現する。スマートグラス10は、作業者のジェスチャーを撮像して解析し、確認結果が可である場合のみ操作指示のコマンドを基板処理装置40に送信している。
【0082】
スマートグラス10が受音した音声を音声認識によってテキスト化した内容を表示し、作業者がその内容を確認しているため、間違って音声認識された操作指示が基板処理装置40に与えられることが防止される。このため、作業者が発出した音声による操作指示をスマートグラス10が誤って解釈したとしても、その誤った解釈内容に沿って基板処理装置40が誤動作するのを防止することができる。
【0083】
また、基板処理装置40に搭載された複数の処理ユニット50に対して複数人の作業者が同時にメンテナンス作業を行うこともある。このような場合、スマートグラス10を装着した作業者とは別人から発出された音声を当該スマートグラス10が受音してテキスト化するおそれがある。第1実施形態では、スマートグラス10がテキスト化した内容を表示して作業者がその内容を確認しているため、別人の音声をスマートグラス10が受音してテキスト化したような場合であっても、作業者は間違いに気づいて別人による操作指示が実行されるのを停止させることができる。よって、別人から発出された音声による基板処理装置40の誤動作を防止することができる。すなわち、第1実施形態のようにすれば、誤った音声認識による基板処理装置40の誤動作を防止することができ、その結果作業者の安全を確保することが可能となる。
【0084】
<第2実施形態>
次に、本発明の第2実施形態について説明する。第2実施形態における作業支援システムの全体構成、および、基板処理装置40の構成は第1実施形態と同じである。また、第2実施形態における作業支援方法の手順も概ね第1実施形態と同じである。第1実施形態では作業者が手のジェスチャーによってテキスト化された内容の確認結果を表現していたが、第2実施形態ではアイトラッキングによって確認結果の可否を判定している。
【0085】
第1実施形態と同様に、スマートグラス10を装着した作業者から発出された音声による操作指示をそのスマートグラス10が受音して音声認識によってテキスト化して表示する。例えば、作業者が「チャック オープン」と発話すると、それがスマートグラス10によってテキスト化されて”chuck open”と表示される。第2実施形態においては、作業者は、表示された操作指示のテキストを目視で確認し、その内容が正しければ操作対象となる部位に視線を移す。例えば、”chuck open”と表示されたテキストの内容が正しければ、作業者は操作対象となる部位であるスピンチャック57を視る。スマートグラス10の視線追跡部25は、作業者の視線を追跡してその視線がどこに向いているかを認識し、作業者が視認している基板処理装置40の部位を特定する。なお、スマートグラス10による部位の特定は、例えばスマートグラス10が備えるVPS(Visual Positioning System)機能を用いて予め基板処理装置40の各部位の位置情報を登録しておき、その位置情報を用いることにより実行することができる。第2実施形態においては、視線追跡部25が作業者によって示された確認結果を検出して確認情報(視線の向き)を取得する検出部として機能する。
【0086】
次に、第2実施形態においては、スマートグラス10の動作解析部36が作業者の視線の向きに基づいて確認結果の可否を判定する。具体的には、動作解析部36は、表示されている操作指示のテキストの対象となる対象部位と作業者が視認している部位とが一致しているか否かを解析し、双方が一致しているときには確認結果が可である(テキストは正しい)と判定する。例えば、”chuck open”という操作指示のテキストの対象部位はスピンチャック57であり、作業者が視認している部位もスピンチャック57であれば、双方が一致しているため、動作解析部36は確認結果が可であると判定する。この場合、スマートグラス10の通信部22が基板処理装置40の制御部45に操作指示のコマンドを送信し、制御部45はそのコマンドを実行する。
【0087】
一方、表示されている操作指示のテキストの対象部位と作業者が視認している部位とが一致していない場合には、動作解析部36は確認結果が否である(テキストは間違っている)と判定する。この場合、スマートグラス10は操作をキャンセルし、基板処理装置40の部位は動作しない。
【0088】
第2実施形態においては、スマートグラス10を装着した作業者から発出された音声による操作指示をそのスマートグラス10が受音して音声認識によってテキスト化して表示している。作業者は、表示されたテキストを目視で確認し、その内容が正しければ視線の向きによって確認結果が可であることを表現する。スマートグラス10は、作業者の視線の向きを追跡して解析し、確認結果が可である場合のみ操作指示のコマンドを基板処理装置40に送信している。
【0089】
第1実施形態と同様に、スマートグラス10が受音した音声を音声認識によってテキスト化した内容を表示し、作業者がその内容を確認しているため、間違って音声認識された操作指示が基板処理装置40に与えられることが防止される。このため、第2実施形態のようにしても、誤った音声認識による基板処理装置40の誤動作を防止することができる。
【0090】
<第3実施形態>
次に、本発明の第3実施形態について説明する。第3実施形態における作業支援システムの全体構成、および、基板処理装置40の構成は第1実施形態と同じである。また、第3実施形態における作業支援方法の手順も概ね第1実施形態と同じである。
【0091】
第3実施形態においては、作業者が発出した音声をスマートグラス10が受音して音声認識によりテキスト化するときに、受音した音声の声紋が予め登録された作業者の声紋と一致するときのみ音声認識プロセスを実行する。声紋とは、音声を周波数分析した結果をソナグラムで表したものである。具体的には、例えば、音声認識プロセスにて音素を特定するのに使用する音響モデル(図8)に予め作業者の声紋を登録しておく。音声認識部31は、受音した音声を周波数分析して得られる声紋と予め音響モデルに登録されている声紋とを比較する。そして、双方の差分が一定の閾値以下であるときのみ、音声認識部31は、音声を発した作業者が予め登録されている作業者と同一人物であると判定して受音した音声を音声認識によってテキスト化する。声紋によるチェックを行う点以外の残余の事項は第1実施形態と同じである。
【0092】
第3実施形態においては、受音部によって受音された音声の声紋が予め登録された声紋と一致するときのみ音声解析を実行している。これにより、作業者とは別人から発出された音声をスマートグラス10が受音してテキスト化する可能性を低減することができ、別人による操作指示が実行されるのをより確実に防止することができる。その結果、第3実施形態のようにすれば、誤った音声認識による基板処理装置40の誤動作をより確実に防止することができる。
【0093】
<第4実施形態>
次に、本発明の第4実施形態について説明する。第4実施形態における作業支援システムの全体構成、および、基板処理装置40の構成は第1実施形態と同じである。また、第4実施形態における作業支援方法の手順も概ね第1実施形態と同じである。
【0094】
第4実施形態においては、音声認識プロセスにて単語を抽出するときに使用する言語モデル(図8)に、基板処理装置40に対するメンテナンス作業に関連する用語のみを登録しておく。例えば、処理液ノズル60に対するティーチングに関連する「インチング」およびスピンチャック57の交換に関連する「チャック」等の用語のみを言語モデルに登録しておく。当該言語モデルを用いることにより、音声認識部31は、基板処理装置40に対するメンテナンス作業に関連する用語のみを単語として特定することとなる。その結果、基板処理装置40に対するメンテナンス時に作業者から発出される音声をより高い精度にて正確にテキスト化することが可能となる。言語モデルに特定の作業に関連する用語のみを登録しておく点以外の残余の事項は第1実施形態と同じである。
【0095】
典型的には、音声認識に使用する汎用的な言語モデルには、音声を様々な状況に最適な文章に変換できるように大量の単語を学習させている。第4実施形態においては、基板処理装置40に対する特定の作業に関連する用語のみを言語モデルに登録している。すなわち、本来であれば言語モデルには可能な限り大量の単語を登録しておくところ、第4実施形態では敢えて言語モデルに登録する単語を特定のものに特化して絞り込んでいるのである。これにより、基板処理装置40に対するメンテナンス作業時という限られた状況下においては、作業者から発出された音声による操作指示をより精度良くかつ的確にテキスト化することが可能となる。その結果、誤った音声認識による基板処理装置40の誤動作をより確実に防止することができる。また、言語モデルがコンパクト化されているため、音声認識の処理効率を高めてより短い時間でテキスト化することができる。
【0096】
<変形例>
以上、本発明の実施の形態について説明したが、この発明はその趣旨を逸脱しない限りにおいて上述したもの以外に種々の変更を行うことが可能である。例えば、第1実施形態では作業者のジェスチャーを解析し、第2実施形態ではアイトラッキングを用いていたが、これらの双方を用いてテキスト化された内容の確認結果の可否を判定するようにしても良い。すなわち、作業者のジェスチャーを解析するのに加えて、作業者の視線の向きを追跡して確認結果の可否を判定するようにしても良い。
【0097】
また、表示されたテキストの確認結果について、作業者は手のジェスチャーまたは視線以外の手法によって可否を表現するようにしても良い。例えば、作業者はスマートグラス10を装着した頭の動作によって確認結果を示すようにしても良い。すなわち、作業者が身体の一部によって確認結果を示す形態であれば良い。
【0098】
また、第4実施形態では、言語モデルに特定の作業に関連する用語のみを登録するようにしていたが、作業の項目毎に当該作業に特化した言語モデルを用意するようにしても良い。例えば、処理液ノズル60に対するティーチングに関連する用語のみを登録した第1言語モデル、スピンチャック57の交換に関連する用語のみを登録した第2言語モデル、および、主搬送ロボット48のアームに対するティーチングに関連する用語のみを登録した第3言語モデルを用意しておく。そして、作業者は、実行しようとしているメンテナンス作業の項目に応じて最適な言語モデルを選択する。例えば、スピンチャック57の交換を行おうとする作業者は上記の第2言語モデルを選択する。言語モデルの選択は例えばスマートグラス10から行うようにすれば良い。このようにすれば、言語モデルが作業者の実行しようとしている作業に特化したものとなっているため、作業者から発出された音声による操作指示をより精度良くかつ正確にテキスト化することができる。
【0099】
また、上記各実施形態においては、作業者はスマートグラス10を使用していたが、これに限定されるものではなく、スマートグラス10に代えてタブレット端末やスマートフォン等の携帯端末を用いるようにしても良い。すなわち、撮像部および通信部等を備えた携帯端末であれば良い。もっとも、タブレット端末等を使用するとそれを持つ作業者の手が塞がることになるため、スマートグラス10等のウェアラブル端末を用いるのが好ましい。
【0100】
また、基板処理装置40は基板洗浄装置に限定されるものではなく、熱処理装置、露光装置、塗布現像装置、計測装置または検査装置等の基板に所定の処理を行う装置であれば良い。基板処理装置40が基板洗浄装置である場合には、基板を1枚ずつ洗浄する枚葉式の洗浄装置であっても良いし、複数の基板を一括して洗浄するバッチ式の洗浄装置であっても良い。
【0101】
さらに、本発明に係る作業支援技術の対象となるのは、基板処理装置に限定されるものではなく、何らかの動作を行う作動部を備えた産業機器であれば良い。このような産業機器としては、例えば、印刷処理装置、成膜装置、医療用装置、および、外観検査装置等が例示される。
【符号の説明】
【0102】
5 情報通信網
10 スマートグラス
21 撮像部
22 通信部
23 表示部
24 受音部
25 視線追跡部
31 音声認識部
36 動作解析部
40 基板処理装置
45 制御部
48 主搬送ロボット
50 処理ユニット
56 回転保持部
57 スピンチャック
60 処理液ノズル
63 スイングモータ
65 スプレーノズル
70 サーバ
80 作業支援端末
W 基板
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10