防止SEO作弊
2015-12-11 11:51:00 文章来源: 责任编辑:admin
对于负责进行网络编辑的朋友来说,不一定所有的SEO细节都要全部熟悉,但在SEO中可能引起作弊的,要彻底避免。
对于负责进行网络编辑的朋友来说,不一定所有的SEO细节都要全部熟悉,但在SEO中可能引起作弊的,要彻底避免。
1、避免关键字堆砌。
相信对SEO感兴趣的朋友都了解,搜索引擎会判断关键词在页面中的重要程度以及判断在页面中的出现密度。对于搜索引擎来说,初期的时候关键词堆砌很起效,但很快搜索引擎就会发现并有了对策。关键词密度最好保持在2%-7%之间,具体的合适密度,要根据页面中关键词被修饰及重点强调的程度来决定。
2、页面中不要出现隐形文本或链接;避免出现指向作弊网站的链接。
有的时候一些朋友会认为,将文字的字体颜色和背景颜色设置成一样,然后在内容里增加关键词出现的次数以及在内部链接的建设上做隐藏处理,以使即不影响用户使用而又起到优化的作用。但其实这种方法早已被搜索引擎所识破,是一种欺骗搜索引擎的作弊行为。所以大家在进行页面编辑的时候不能心存侥幸,其实,对搜索引擎友好就是对用户友好。类似作弊方法还包括超小号文字、文字隐藏层等手段。
避免出现指向作弊网站的链接是指,除了网站的友情链接外,文章引用的外部链接网站是否是搜索引擎认为的作弊网站,如果是,那么就有可能引起搜索引擎对你的惩罚。如何判断该网站是否被搜索引擎惩罚呢?一般我们可以使用“site:域名”指令来查看这个网站的在搜索引擎的收录情况,这个收录量不是一个绝对数,而是要和该网站自身的页面数来比较,如果一个大而全的资讯网站,自身页面有几十万页而搜索引擎只收录千余页或几百页,那这个网站在搜索引擎肯定是被惩罚了。当然,site不到一页那肯定就是被K了或是网站几天打不开被取消索引了。
3、避免出现重复页面。
重复页面包括站内页面重复和站外页面重复。引起站内页面重复的原因很多:同一网站拥有多个域名;同一页面动态地址静态地址同时存在;不同子站中引用大量相同内容等,解决站内页面重复,第一要保证网站只拥有一个允许搜索引擎抓取的域名,如业务需要必须启用多个域名的话,最好可以对其余域名用301转向到主域名,如果实际情况不允许多个域名做跳转,那可以将多个域名使用不同的目录,但是必须调用同一个同步数据库,这样对外来说这几个域名下的站是完全一样的,但对于搜索引擎来说,我们不想哪个域名让蜘蛛的爬取就在相应的目录下设置ROBOTS.TXT拒绝搜索引擎抓取就可以。
对于站外的页面重复,我们不能完全避免,但要从我们这里尽量减少页面重复对我们的影响。首先,我们在网上筛选信息的时候,不要完全复制内容直接放到我们的栏目里,有的时候需要考虑大家的工作量,可以自己设置一种模式,来对筛选来的内容进行伪原创处理。比如文章的标题我们是必须要另取的,在文章的开头可以加百字左右的内容简介,删除内容中不影响文章整体思想的段落或句子。如果文章页面我们有字数限制,那么我们也可以保留前某某字,而将之后的文章内容自动放入阿贾克斯中(需要技术配合)。
4、偷换网页、隐形页面及桥页/门页等作弊方式。
偷换网页这个比较容易理解,就是一个网页在搜索引擎获得较好排名之后,将这个页面用另外一个无关页面来代替。一般这种做法带有很大的侥幸成分,但很多不了解搜索引擎的人还是愿意试一试。对于一个在搜索引擎更新比较正常的网站来说,这种做法的效果只是一次搜索引擎的更新时间,非常短。但也有其他情况,例如一个页面获得好排名后并长时间保持稳定,搜索引擎对该页的更新变慢,这个时候这样做就有可能占据一段时间不错的排名,不过最终还是会掉,只是时间问题。
至于桥页,就是专门针对某一关键词制作一个优化了的页面,一般会用链接或转向代码指向目标页面。这种页面本身没有实际内容,只针对搜索引擎做了一堆罗列关键词的链接而已。隐形页面则是同一个网址下对不同的用户选择性返回不同的页面,将高度优化过的网页返回给搜索引擎,,而返回给用户则是一个看不到的页面。对于这两种方式,搜索引擎是十分憎恶的,因为它们对于用户来说没有丝毫作用。