4 検索エンジン 1 検索エンジンの概要  インターネット検索エンジンは、インターネット上に数限りなく存在する情報の中から利用者の目的とする情報を探し出すというインターネットを利用する上で必要不可欠なツールとなっている。インターネット検索エンジンのシステムの基本設計を大きく二分すると、ロボット型検索エンジンとディレクトリ型検索エンジンに分けられる。  ロボット型検索エンジンとは、「ロボット」、「クローラー」、「スパイダー」等と呼ばれる専用のソフトウェアがインターネット上のウェブサイトを巡回して各ソースデータ(HTMLファイル)を集め、利用者が検索した際に、その収集したデータから検索を行うというものである。各ウェブサイトの文書に含まれるすべての情報を対象に検索を行っているため、全文検索型エンジンとも呼ばれている。  ディレクトリ検索型エンジンでは、インターネット上に分散するウェブサイトのページ情報を大量に集め、基本的には人の手により分野別に分類されたリストを作成する。各分野は一般に階層構造を持ち、各階層にその分野のリンクが張られているだけでなく、各ウェブサイトの概要も掲載されている。  ロボット型検索エンジンの特徴は、専用のソフトが自動的に巡回するため、検索範囲が広く、かつ更新速度も速いが、ウェブサイトに書かれている内容の意味や各ウェブサイト間の関連性までは把握できない。このため、ディレクトリ型検索エンジンのようにウェブサイトを分野別に分類することが難しく、また、基本的に人の手が入らないことから、ウェブサイトの概要を生成することはできない。ただし、最近は巡回ソフトウェアの技術の進歩により、このようなロボット型検索エンジンの問題点は克服されつつある。  一方、ディレクトリ型検索エンジンは、基本的に人の手により各ウェブサイトを分類しているため、ウェブサイトの内容に沿った自然な整理ができており、不慣れな利用者でも比較的簡単に必要な情報にたどり着ける点に特色がある。ただし、人の手が入るためウェブサイトの更新を反映する速度が比較的遅くなってしまうという欠点がある。