SEOers希望更好地了解SEO,做好SEO,学习和理解搜索引擎的基本结构和原理,这是非常必要的,让我来谈谈搜索引擎的一些组成部分。通用搜索引擎通常包括以下功能模块:
1,蜘蛛,蜘蛛,类浏览器程序,专门用于下载网页
2,crawler,crawler,用于自动跟踪所有页面中的链接
3,索引Indexer用于分析蜘蛛和爬虫下载的网页。
4,数据库,存储下载的页面信息和处理的页面信息
5,结果引擎,从数据库中提取搜索结果
6,web服务器,用于处理用户的搜索交互请求的web服务器
不同的搜索引擎实现在某些地方可能存在某些差异。例如,spider + crawl + index的组合功能由单个程序实现,该程序下载页面,分析结果,并利用现有的链接发现新资源。当然,这些功能是所有搜索引擎固有的,SEO原则是相似的。
下面分别描述搜索引擎的功能模块。
蜘蛛。此功能模块用于下载页面,类似于浏览器功能。它们之间的区别在于浏览器向用户呈现各种形式的信息,包括文本信息,图像信息,视频信息等,并且对于蜘蛛,没有可视组件。它直接处理基本的html源代码。您可能知道,标准的Web浏览器都配备了html源文件查看功能。
爬虫。此功能模块允许用户发现每个页面中的所有链接。它的任务是通过评估找到的链接或定义的地址来确定蜘蛛的去向。抓取工具会跟踪这些已找到的链接,并尝试查找搜索引擎不知道的一些文档。
指数。此功能组件负责解析每个页面,然后分析各个页面的元素,例如文本内容,标题内容,结构化或自定义功能,特殊html标记等。
数据库。存储由搜索引擎下载和分析的一些数据。有时它也被称为搜索引擎的索引。
结果引擎。结果引擎用于对页面进行排名。它确定哪些页面最符合用户的搜索请求,并以有效和合理的顺序显示它们。这由搜索引擎的排名算法确定。它追求页面排名有价值和用户驱动的想法,因此这对SEO工作者来说是最有趣的。 SEOers的目标是有效地改善他们关心的网站的页面。排行。
Web服务器。搜索引擎网络服务器包含这样的基本网页,具有用于用户输入感兴趣关键字的文本框,并且当用户提交搜索动作时,搜索结果被合理地呈现给用户。
20181021_5bcc2a3686b4d.jpg