您现在的位置:主页 > www.kj138.com > 正文
www.kj138.com

SEO的工作原理?

发布时间:2019-11-06

  可选中1个或多个下面的关键词,搜索相关资料。也可直接点“搜索资料”搜索整个问题。

  搜索引擎优化的白帽法遵循搜索引擎的接受原则。他们的建议一般是为用户创造内容、让这些内容易于被搜索引擎机器人索引、并且不会对搜寻引擎系统耍花招

  。一些网站的员工在设计或构建他们的网站时出现失误以致该网站排名靠后时,白帽法可以发现并纠正错误,譬如机器无法读取的选单、无效链接、临时改变导向、效率低下的索引结构等。

  黑帽方法通过欺骗技术和滥用搜索算法来推销毫不相关、主要以商业为着眼的网页。黑帽SEO的主要目的是让网站得到他们所希望的排名进而获得更多的曝光率,这可能导致令普通用户不满的搜索结果。

  因此搜索引擎一旦发现使用“黑帽”技术的网站,轻则降低其排名,重则从搜索结果中永远剔除该网站。选择黑帽SEO服务的商家,一部分是因为不懂技术,在没有明白SEO价值所在的情况下被服务商欺骗;另一部分则只注重短期利益,存在赚一笔就走人的心态。

  长期看来,相比于关键词推广来说,搜索引擎优化需要做的只是维护网站,保证网站具有关键词优势的过程,并不需要为用户的每一次点击付费,因此比竞价排名要便宜许多。

  另外,搜索引擎优化可以忽略搜索引擎之间的独立性,即使只针对某一个搜索引擎进行优化,网站在其他搜索引擎中排名也会相应提高,达到了企业在关键词推广中重复付费才能达到的效果。

  如果企业将网站搜索引擎优化的任务交给专业服务商,那么企业在网站管理上基本不需要再投入人力,只需不定期观察企业在搜索引擎中的排名是否稳定即可。、而且,这种通过修改自身达到的自然排名效果,让企业不需担心恶意点击的问题。

  企业网站进行搜索引擎优化之后,只要网站维护得当,那么在搜索引擎中排名的稳定性也非常强,很长时间都不会变动。

  展开全部搜索引擎工作原理一共包括三个过程:网页搜索,预处理信息,建立索引。

  被动等待:设置好Robots.txt文件,放在服务器等待爬虫自己过来爬取。(谷歌几周,百度一个月至几个月不等。)

  主动引爬虫:写带有链接的软文花钱放在高质量高权重的网站中、利用权重高的博客、在质量高的论坛里发外链。

  Banner图片不如幻灯片,幻灯片不如文字。(总结:文字优先,图片写alt属性)2、爬虫分析:

  查看:网站日志分析。Log文件里可查看站长工具:查看抓取频次。太高时会造成服务器崩溃问题及解决:网站访问突然为

  深度优先:一层栏目走到底(1百万-1千万个页面)广度优先:同行栏目分别收集(1百万个页面)混合:两者的混合使用(5千万-1亿个页面)

  txt文件设置错误服务器本身的问题(动态IP频繁出现、服务器不稳定)URL超长,搜索引擎爬虫懒得直接不抓。爬虫陷阱

  页头信息:状态码:200(正常访问)、404(死链)、301(永久性重定向)、302(临时重定向慎用)、403(禁止访问)、5xx(数据库的问题)编码:建议使用utf-8. gb2312在国外打开是乱码TDK关键词:Title:尽量靠前,我们想让爬虫进入到某个页面就看到我们的主旨内容。

  Keyword: 首页5-7个、一级栏目5-6个、二级栏目4-5个、列表页3-4个、专题2-3个。Deion: (栏目必须围绕关键词写)

  搜索引擎不会抓取重复部分(爬虫比较喜欢新鲜原创性的东西,重复出现的内容不利于抓取)

  4、导航:主导航、次导航、左导航、SEO导航(标签)、面包屑导航(不要用JS实现)、

  Banner图片不如幻灯片,幻灯片不如文字(总结:文字优先,图片写alt属性)。文字有利于爬虫抓取。

  关键词:次数合适、密度适中3-8%、位置靠前(金花站长工具可以查出来)H1标签:唯一性,整个页面第一重要。含关键词,关键词尽量靠前H2标签:不唯一性,第二重要性。H2中可加其它的属性alt属性:只能用于img,意在告诉蜘蛛图片的解释title属性:为链接添加描述性文字,可为用户提供更清楚表达的意思锚文本:(一切讲究相关性)锚文本得有相关的关键词,且面面相关

  相关性:因为百度算法语境分析+语义分析的原因,所以网站不要出现不相关的内容出现,否则搜索引擎也会撇掉的权威性:各种评奖、网络评比、申请百度客服增加信任度。

  注:不权威造成的影响:同一篇文章,由于信任度高低,有可能自己被转载发布的文章自己的反倒在别人网站后面。

  去重:一个链接不能有多个页面、同一个关键词不能指向不同链接、同一页面下不要出现不同链接相同关键词、

  b、抓取的方式:一种是深度抓取:例如,抓取首页之后,碰到第一个栏目页,就去抓这个栏目页,抓完第一个栏目页之后再去抓它下面的详细页,抓完这个之后,返回去首页再去抓第二个栏目页,以此类推。一种是广度抓取:抓完首页抓栏目页之后在抓详细页。抓取方式取决于搜索引擎蜘蛛。无论哪种,关键是抓到网站。

  c、不利于蜘蛛抓取的内容:js、图片、Flash、iframe框架、嵌套table、需要登录信息之后的页面。网站上使用图片一定要用alt标签。

  a、采集、价格低。采集就是直接从网站复制粘贴,采集的内容是非常的垃圾的,收录也是非常的低的。采集的内容被过滤的可能性是非常大的,因为蜘蛛已经有这样的页面,为什么还要来收录你的呢?最好还是原创,原创是百度最喜欢的。

  b、文不对题。挂羊头卖狗肉,也就是垃圾内容。或者是写了一个标题,没有内容,是空内容,是垃圾内容。[2019-10-17]发生UFO不明飞行物已经发生在中国和美国之间为什么美国人就不承

  [3]、储存索引库。对数据信息进行有质量的提取和组织建立的索引库。至于怎么索引是根据百度算法。

  a、检索器根据用户输入的查询关键字,在索引中快速检出文档,进行与查询的相关程度。

  b、当我们在搜索引擎看到的只有一种结果,搜索根据各种算法,把某个关键词的展示在首页的第一位。