代码优化
1.Title 标签
Title 标签就是告诉用户和搜索引擎网页页面的主题思想是什么,一直是搜索引擎(蜘蛛)抓取重点。通常,蜘蛛抓取Title标签出于两个目的:作为影响网页排名的重要因素和作为搜索结果页面的显示信息。不管是哪一个目的,对我们做SEO来说都非常重要。
一般来说,Title标签中的单词保持在3~4个左右。但Title标签中的单词不要全部都是关键字,因为这样可能会造成页面关键字堆砌,导致过度优化。所选单词应简洁明了、具有描述性,要与网页内容具有很大的相关性,并且每个不同的页面都应该包含Title标签。
2.Meta Description标签
对Title标签优化之后,接下来就是对Meta Description标签的优化。Meta Description标签可以说是对Title标签的进一步解释,可以是一句话或者是包含十几个单词的短语。每个页面都该有其自己的Meta Description标签,并且Meta Description标签还可包含一些与网站内容相关但Title标签中未提及的信息。与Title标签要求相似,该部分内容也应具有描述性,与网页内容具有相关性,可包含关键字,但不可过多。
3.Heading标签
Heading标签包含了H1、H2、H3等等,是搜索引擎识别页面信息的重要标记。合理使用H1、H2、H3等不同级别的标签能够使得页面结构更加清晰,有利于搜索引擎的抓取。H1、H2、H3等标签是按照重要程度来排名的。一般一个页面按照需求程度来适当添加该标签:从H1开始,依次往下添加。但不可添加太多Heading标签,否则会适得其反。
4.Strong和B标签
相信大多数朋友都知道Strong和B标签都有加粗的意思,但是很多人并不清楚两者具体有什么区别。其实B标签就是单纯地将文字加粗,而Strong标签不仅是对文字加粗,并且这种形式的加粗会告诉搜索引擎该部分文字比较重要。所以两者从搜索引擎优化的角度来看,是有很大的区别的。

5.ALT标签
ALT标签是一种图片标签,它将图片的信息以文本的形式展现。对ALT标签的使用没有太多要求,只要在网页中出现图片的部分添加上该属性即可,但其标签内容应与相应页面内容具有相关性,长度不得过长,一般单词或短语描述即可。
以上介绍了HTML代码中的五种重要标签,相信会对做SEO工作的人员特别是SEO新手具有很大帮助。对HTML代码的优化一直是我们做搜索引擎优化工作的非常基础并且重要的一部分,只有做好了这部分优化工作,我们才能开展更加深层的优化。
网址优化
1、URL静态化
在动态网页中,网址中常常出现“?”这样的特殊符号,无论是对搜索引擎还是对其他页面的引用来说,都是不友好的,在排名上也有一定的影响。静态化网站打开速度快,因为它不用进行运算;另外网址结构比较友好,利于记忆也更有利于搜索引擎抓取,
2、301和404
301主要用于域名重定向用,比如将不带www的域名重定向到带www的域名,这样定向后你输入不带www的域名就会自动转向带www的,这样做的好处是集中域名权重!另外就是如果网站换了新域名,想让新域名继承老域名的权重也可以做301定向!
404是错误页面,当文件找不到的时候提示出错的页面。点击或者自动返回上个页面提升用户体验度。网站优化的时候可以把两个都做好,这样对优化是比较好的!
3、管理好文件扩展
不要用.exe之类搜索引擎无法识别的文件类型来结尾,这种会导致搜索引擎无法收录。
4、URL的长度
在URL里不要超过3-5个关键词,Google Matt Cutts 说如果超过5个关键词,该URL的权重就会被相应的降低。当然这个是相对的,并不是超过5个关键词的URL就不会取得好的排名,毕竟URL只是其中的一个部分而已,而对于一个优秀的SEO人员可能是寸步必争,不会轻易放弃每一个可能超越对手的地方。并且研究显示,在排名较好的位置里面,较短的URL获得的点击率是长的2倍,所以为了你的排名和点击率,还是用较短的URL。

首选域名能很好地把权重集结到某个域名上,试想,一个首页,有动静态、www、不带www的域名等四条路径,这对SEO的工作及搜索引擎的抓取压力是很大的,把首选域名做好,规划好首页路径,默认首选路径为www.baidu.com/index.html这样对以后的工作是非常有效的,特别是新的网站,一定要做首选域
文件优化
Robots.txt对于任何一个从事SEO研究工作的人都是至关重要的,因为透过 Robots.txt 我们可以直接与搜索引擎蜘蛛进行对话,告诉他们哪些可以抓取,哪些不可以抓取。
1、为什么设置Robots.txt?
在进行SEO操作的时候,我们需要告诉搜索引擎哪些页面重要哪 些页面不重要,重要的页面让蜘蛛进行抓取,不重要的页面进行屏蔽可以减少网站服务器的负担。
2、一些常见的问题和知识点
1)、蜘蛛在发现一个网站的时候,第一步是抓取网站的Robots.txt文件
2)、建议所有的网站都要设置Robots.txt文件,如果你认为网站上所有内容都是重要的,你可以建立一个空的robots.txt文件。
3、在robots.txt文件中设置网站地图
你可以在robots.txt中添加网站的地图,告诉蜘蛛网站地图所在的地址。
4、Robots.txt的顺序
在蜘蛛协议中,Disallow 与 Allow是有顺序的,会根据第一个匹配成功的 Allow 或 Disallow 行确定是否访问某个URL。
Allow代表允许抓取的URL或URL集,Disallow代表禁止搜索引擎抓取的URL或URL集。
内容优化
1.每一个页面的标题和描述要有所不同
有很多网站为了增加网站页面的数量而对网站的文章做分页处理。这种想法非常好,但是在处理文章的时候一定要注意,文章的每一个分页对应的是一个页面,这些分页的标题不能相同,搜索引擎不喜欢重复的标题,如果整个网站重复的标题太多,不但没有给网站带来益处,反而会给网站带来不良影响。
2.文章内页巧用“上一篇”“下一篇”等内部链接
有很多人都意识到在文章内容的底部加上“上一篇”“下一篇”等字样可以增加用户的黏性,让用户点击继续阅读。
3.文章发布的频率
若想增加网站发布的数量,也要循序渐进,不能在短时间内从一篇文章猛增为几百篇文章,这样搜索引擎会觉得网站不正常,认为网站在采集,会观察网站一段时间,在短期内,网站排名、快照更新、网站收录均会受到影响。
4.字数多的文章分成几篇来用
有的文章非常长,多达几万字,如果当成一篇文章来发布,占用的页面会非常长,用户阅读的时候也会感觉非常累,没有耐心的用户会直接关闭网页。对于这种情况,可以将篇文章分成几篇发布到网站上,做成一个连载的形势,用户也愿意阅读。
5.网站内容的可靠性
网站内容的可靠性是网站内容优化的第一原则,如果网站的内容都是虚假的,这样的网站肯定不会得到搜索引擎的青睐。所以在写原创文章的时候,文章的内容一定要具有可靠性。
6.内容发布时要遵守规则
在发布内容的时候必须要遵守一些常规,一些规则不能违反。通过网站内容的建设,特别是高质量原创内容的建设,结果就是提升网站的用户体验,增加网站对用户的黏度,能让访问过几次网站的用户喜欢上这个网站。
内容中的链接优化
在网站发布文章时,内容是比较重要的,不过锚文本链接即文章内容中的超链接同样也不容忽视。相比纯文本链接及其他链接来说,锚文本链接对SEO排名的帮助是比较大的。
SEO优化是一个长期的工作,不要通过非正规的方法去优化你的站,这样查出来容易被K。还有你每天坚持的花点时间按照上面的这些流程,去对自己的网站进行一个检测,我相信你会发现你哪些地方做的不足,哪些地方做的好,应该加强哪些方面的优化力度,完全掌握了自己网站的状况对于做西安网站优化来说就是很轻松的了。
