Hilltop算法是由 Krishna Baharat在2000年左右所研究的,于2001年申请了专利,并且把专利授权给 Google 1使用,后来 Krishna Baharat本人也加入了 Google。
Hilltop算法可以简单理解为与主题相关的PR值。传统PR值与特定关键词或主题没有关联,只计算链接关系。这就有可能出现某种漏洞。比如一个PR值极高的关于环保内容的大学页面,上面有一个链接连向一个儿童用品网站,这个链接出现的原因可能仅仅是因为这个大学页面维护人是个教授,他太太在那个卖儿童用品的公司工作。这种与主题无关、却有着极高PR值的链接,有可能使一些网站获得很好的排名,但其实相关性并不高。
Hilltop算法就尝试矫正这种可能出现的疏漏。 Hilltop算法同样是计算链接关系,不过它更关注来自主题相关页面的链接权重。在 Hilltop算法中把这种主题相关页面称为专家文件。显然,针对不同主题或搜索词有不同的专家文件.
根据 Hilltop算法,用户搜索关键词后, Google先按正常排名算法找到一系列相关页面并排名,然后计算这些页面有多少来自专家文件的、与主题相关的链接,来自专家文件的链接越多,页面的排名分值越高。按 Hilltop算法的最初构想,一个页面至少要有两个来自专家文件的链接,才能返回一定的 Hilltop值,不然返回的 Hilltop值将为零。
根据专家文件链接计算的分值被称为 Localrank。排名程序根据 Localrank值,对原本传统排名算法计算的排名做重新调整,给出最后排名。这就是前面讨论的搜索引擎排名阶段最后的过滤和调整步骤。
Hilltop算法最初写论文和申请专利时对专家文件的选择有不同描述。在最初的研究中, Krishna Baharat把专家文件定义为包含特定主题内容,并且有比较多导出链接到第三方网站的页面,这有点类似于HTs算法中的枢纽页面。专家文件链接指向的页面与专家文件本身应该没有关联,这种关联指的是来自同一个主域名下的子域名来自相同或相似IP地址的页面等。最常见的专家文件经常来自于学校、政府及行业组织网站.
在最初的Hiop算法中,专家文件是预先挑选的。搜索引擎可以根据最常见的搜索词,预先计算出一套专家文件,用户搜索时,排名算法从事先计算的专家文件集合中选出与搜索词相关的专家文件子集,再从这个子集中的链接计算 Locairank值。
不过在2001年所申请的专利中, Krishna Baharat描述了另外一个挑选专家文件的方法,专家文件并不预先选择,用户搜索特定查询词后,搜索引擎按传统算法挑出一系列初始相关页面,这些页面就是专家文件。Hilp算法在这个页面集合中再次计算哪些网页有来自于集合中其他页面的链接,赋予比较高的 Localrank值。由于传统算法得到的页面集合已经具备了相关性,这些页面再提供链接给某一个特定页面,这些链接的权重自然应该很高。这种挑选专家文件的方法是实时进行的。
通常认为Hilp算法对2003年年底的佛罗里达更新有重大影响,不过 Hilltop算法是否真的已经被融入进 Google排名算法中,没有人能够确定。 Google从来没有承认,也没有否认自己的排名算法中是否使用了某项专利。不过从排名结果观察及招揽 KrishnaBaharat至麾下等迹象看, Hilltop算法的思想得到了ogle的极大重视。
Hilltop算法提示SEO,建设外部链接时更应该关注主题相关的网站。最简单的方法是搜索某个关键词,目前排在前面的页面就是最好的链接来源,甚至可能一个来自竞争对手网站的链接效果是最好的。当然,获得这样的链接难度最大。