分类: SEO推广

  • 浅谈strong标签在SEO中的作用

    浅谈strong标签在SEO中的作用

    在我们刚接触SEO的时候,一定经常能听到别人说,发布文章时给关键词加粗这句话。其实,加粗是给字体添加<b>标签,虽然样式上一般都和<strong>相同,但对于SEO来说,<strong>的作用更大些。

    seo细节

    strong标签

    <strong> 标签,用于强调文本,相比较于?<em>标签,<strong> 标签强调的程度就强上很多了。这就好比告诉搜索引擎,标签中的内容是非常重要的!

    那到底对于搜索引擎来说,能给关键词“加权”多少呢?

    这是一个无法量化的问题,很多站长认为,strong标签给予关键词的“加权”是相当于H3标签的作用。但长江认为,strong标签的作用要大于H3标签,因为H3标签之上还有H1和H2,而strong标签,虽然不会像H1那样说一定只能有一个,我们建议尽可能少用,一对strong标签标签为佳,不推荐滥用strong标签标签

    strong标签和b标签的区别

    我们知道,b标签是加粗的意思,一般情况下,strong和b标签的显示样式是一样的。但对于搜索引擎来说,strong的作用明显更大一些,至于b标签是否对关键词的排名提升有帮助,思享就不得而知了。反正思享是建议使用strong标签强调,而不是b标签加粗。

  • 怎么设置网站的404页面

    怎么设置网站的404页面

    搞定一个404页面对于网站建设者来说并不是一件很难道时候,但是想要设计出来一款自然且十分有用的404页面,还是需要下一番功夫。

    404页面

    如何理解404页面

    网站常见HTTP错误,包括502,404等。404对于我们来说特常见,当我们访问某一网站的时候,被网站告知你所访问的页面不存在的时候,服务器就会返回404代码,或者网站出现改版,链接地址改变也会出现404代码。对于404代码很容易造成用户留存率降低,直接影响到用户访问网站,结果就是影响用户体验,造成网站排名下降和用户流失。因此,我们使用404页面降低这种损失和增加用户体验,设计出优秀的404页面,对于抓住用户的真实需求,会给网站带来明显的提升。

    千万不要使用服务器自带的404页面

    对于网站优化和网站运营来说,由于对404页面很不重视,就采用服务器自带的44页面,虽然这种一劳永逸,而且也是不叫省事,但是对于网站本身来说却没有任何的好处。因此,我们在设置404的时候,就需要重新设计出来一个属于网站本身的404页面。而且,在优化和保持页面功能上将用户引导到必要的地方,解决用户的困惑和问题,这是一个现代404页面的使命。

    增加404页面用户体验

    404页面设计出来,目的就是引导用户到网站其他地方,查找用户感兴趣的内容。因此,再设计404页面中添加内容链接,最好是相关内容的链接。这种方式就是挽回因死链接造成的用户损失。

    404页面设计技巧

    在设计404页面尽量使用专业术语,应该采用让保持轻松、幽默的氛围吧,毕竟在用户看不到想要看的内容情况下,我们就应该让用户告别紧张情绪,使用使用幽默的文案和图片内容,可以让访客保持愉悦的心情和好奇心,这样用户才有好的心情继续查看网站。

    长江之前也分享过简约干净网站引导页,可以作为404页面。

  • 网站robots规则应该怎么写-robots文件写法解析

    网站robots规则应该怎么写-robots文件写法解析

    一般来说,网站或多或少都存在一些对排名没意义甚至有害的页面。对于站长来说是不希望被搜索引擎检索的,而robots.txt文件则承担了这项功能。当蜘蛛访问网站会优先抓取robots.txt,遵循站长配置的规则不再抓取不利于SEO的内容。

    网站robots规则

    robots.txt文件位置

    robots文件往往放置于根目录下

    robots.txt文件格式

    Disallow:该项的值用于描述不希望被访问的一组URL

    Allow:该项的值用于描述希望被访问的一组URL

    User-agent:该项的值用于描述搜索引擎robot的名字

    例如:

    User-Agent:YisouSpider // 配置YisouSpider

    Disallow: / // 不允许YisouSpider抓取网站任何内容

    User-Agent:* // 配置所有搜索引擎

    Allow: / // 允许抓取网站任何内容

    更多

    Disallow: /abc //禁止抓取含abc目录及子目录的所有页面

    注意:有些地方注释为“禁止抓取abc目录及子目录中的内容”百度官方有举例,\”Disallow:/help\”禁止robot访问/help.html、/helpabc.html、/help/index.html

    Disallow: /abc/ //禁止抓取含abc目录的所有页面

    百度官方有举例,\”Disallow:/help/\”则允许robot访问/help.html、/helpabc.html,不能访问/help/index.html。

    robots.txt通配符的使用

    \”*\” 匹配0或多个任意字符

    \”$\” 匹配行结束符。

    举例:

    Disallow: /*?* //禁止抓取网站中所有的动态页面

    Disallow: /*.htm$ // 禁止抓取所有以.htm为后缀的URL页面 /abc.htm/index 不匹配

    区别于Disallow: /*.htm // /abc.htm/index 也匹配

    更多robots.txt,可以参照百度站长站长平台关于robots.txt

    网站哪些内容不建议被抓取

    对于这个思想这个小白也懂的不多,一般取决于内容是否利于SEO的原则。

    例如,博客的搜索结果页,没做好优化的tags页都禁止抓取了。

    而对于企业站来说,如果不打算可以优化公司名称的关键词,关于、联系、企业新闻等一些内容都可以考虑禁止。

    还有一点值得注意的事,有很多站长反馈说百度不遵循robots.txt协议,抓取不该抓取的内容。长江也感觉不是很靠谱,所以也可以考虑在一些页面设置meta name=\”robots\”

    百度的解释理解起来或许有所偏差,如果有不对,大家可以指正、交流。

  • SEO经常碰到的名词解释大全

    SEO经常碰到的名词解释大全

    对于刚刚接触seo的朋友来说,可能对于一些名词不是很清楚,在交流的时候往往不能够很好的理解,下面是站长平台好心人整理的seo名词大家,大家可以学习一下

    SEO名词解释大全

    SEO名词解释

    1、SEO

    SEO是英文Search Engine Optimization的缩写, 中文意译为“搜索引擎优化”。 简单地说, SEO是指从自然搜索结果获得网站流量的技术和过程。

    2、Site命令

    site命令语法格式有两种:

    1. site:网址 关键词
    2. 关键词 site:网址

    把搜索范围限定在特定站点中,如site:某某.com。“site:”后面跟的站点域名,不要带“http://”;site:后面带不带www结果可能是不一样的,因为有些域名还包括二级域名,如:site:www.某某.com和site:某某.com,搜索结果就不一样;另外,site:和站点名之间,不要带空格。

    3、DNS

    DNS(Domain Name System,域名系统),因特网上作为域名和IP地址相互映射的一个分布式数据库,能够使用户更方便的访问互联网,而不用去记住能够被机器直接读取的IP数串。

    4、IP

    网络之间互连的协议也就是为计算机网络相互连接进行通信而设计的协议。在因特网中,它是能使连接到网上的所有计算机网络实现相互通信的一套规则,规定了计算机在因特网上进行通信时应当遵守的规则。

    5、PV

    PV(page view)即页面浏览量,通常是衡量一个网络新闻频道或网站甚至一条网络新闻的主要指标。网页浏览数是评价网站流量最常用的指标之一,简称为PV。

    6、UV

    UV是unique visitor的简写,是指不同的、通过互联网访问、浏览这个网页的自然人。

    7、robots

    Robots协议(也称为爬虫协议、机器人协议等)的全称是“网络爬虫排除标准”(Robots Exclusion Protocol),网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。

    8、外链

    外链就是指从别的网站导入到自己网站的链接。导入链接对于网站优化来说是非常重要的一个过程。导入链接的质量(即导入链接所在页面的权重)直接决定了我们的网站在搜索引擎中的权重。

    9、死链

    死链就是服务器的地址已经改变了.无法找到当前地址位置。

    10、HTTP返回码

    HTTP协议状态码表示的意思主要分为五类 ,大体是 :

    • 1××   保留
    • 2××   表示请求成功地接收
    • 3××   为完成请求客户需进一步细化请求
    • 4××   客户错误
    • 5××   服务器错误

    11、权重

    权重对于站长来说,一般都是指百度权重。是百度对一个网站的重要性指标概念。但是因为站长工具这个第三方的工具平台开发有百度权重的参考数据,导致很多的新手,都误认为那个就是真正的百度权重。其实那个只是一个参考数据,并不能代表百度对一个网站的真正权重指标

    12、百度抓取流程

    1. 第一步:爬行到你的网站并筛选合适的有效资源。
    2. 第二步:通过各种算法抓取你的网页。
    3. 第三步:蜘蛛很喜欢优质的文章,它们将这些文章视为抓取的首要原则。
    4. 第四步:放出页面。

    13、抓取策略

    • 1)抓取友好性:抓取压力调配降低对网站的访问压力
    • 2)常用抓取返回码示意
    • 3)多种url重定向的识别
    • 4)抓取优先级调配
    • 5)重复url的过滤
    • 6)暗网数据的获取
    • 7)抓取反作弊
    • 8)提高抓取效率,高效利用带宽

    14、spider抓取过程中涉及的网络协议

    https协议:实际是加密版http,一种更加安全的数据传输协议。

    UA属性:UA即user-agent,是http协议中的一个属性,代表了终端的身份,向服务器端表明我是谁来干嘛,进而服务器端可以根据不同的身份来做出不同的反馈结果。

    robots协议:robots.txt是搜索引擎访问一个网站时要访问的第一个文件,用以来确定哪些是被允许抓取的哪些是被禁止抓取的。 robots.txt必须放在网站根目录下,且文件名要小写。百度严格按照robots协议执行,另外,同样支持网页内容中添加的名为robots的meta标 签,index、follow、nofollow等指令。

    15、石榴算法

    对低质量页面将进行一系列调整:含有大量妨碍用户正常浏览的恶劣广告的页面,尤其以弹出大量低质弹窗广告、混淆页面主体内容的垃圾广告页面为代表。

    16、冰桶算法

    百度移动搜索质量控制团队:百度移动搜索将针对低质站点及页面进行一系列调整,我们称之为冰桶算法。

    对低质站点及页面:强行弹窗app下载、用户登录、大面积广告等影响用户正常浏览体验的页面,尤其以必须下载app才能正常使用的站点为代表。

    17、绿萝算法

    百度绿萝算法是百度于2013年2月19日上线的一种搜索引擎反作弊的算法。该算法主要打击超链中介、出卖链接、购买链接等超链作弊行为。该算法的推出有效制止恶意交换链接,发布外链的行为,有效净化互联网生态圈。

    18、黑帽SEO

    笼统的说,所有使用作弊手段或可疑手段的,都可以称为黑帽SEO。比如说垃圾链接,隐藏网页,桥页,关键词堆砌等等。近一两年,最典型的黑帽搜索引擎优化是,用程序从其他分类目录或搜索引擎抓取大量搜索结果做成网页,然后在这些网页上放上Google Adsense。这些网页的数目不是几百几千,而是几万几十万。所以即使大部分网页排名都不高,但是因为网页数目巨大,还是会有用户进入网站,并点击Google Adsense广告。

    19、白帽SEO

    不用说就是黑帽SEO相反的,那就是用百度喜欢的,正规的方法去做seo,百度百科的解释是:白帽SEO是一种公正的手法,是使用符合主流搜索引擎发行方针规定的seo优化方法。它是与黑帽seo相反的。白帽SEO一直被业内认为是最佳的SEO手法,它是在避免一切风险的情况下进行操作的,同时也避免了与搜索引擎发行方针发生任何的冲突,它也是SEOer从业者的最高职业道德标准。

    20、灰帽SEO

    所谓SEO灰帽即是指介于白帽与黑帽之间的中间地带,相对于白帽而言,会采取一些取巧的方式来操作,这些行为因为不算违规,但同样也不遵守规则,是为灰色地带。

    英文名词

    1) 301重定向 网址重定向最为可行的一种办法。当用户或搜索引擎向网站服务器发出浏览请求时,服务器返回的HTTP数据流中头信息(header)中的状态码的一种,表示本网页永久性转移到另一个地址。

    2) alt 是展示给终端用户的图片的描述.加入 ALT Tag 后,如果图片没有显示,浏览器就 会在本来图片的位子用文字的方式显示 ALT Tag 的内容,来帮助浏览者浏览网页。详细图

    3) B2B:Business to Business.

    4) B2C:Business to Consumer

    5) C2C:Consumer to Consumer

    6) back link 即反向链接.常规链接在源文档内部进行声明和显示,而反向链接则在目的文档内部进行声明.如果B网站指向 A 网站,那么B网站就是都属于A 网站的反向链接.

    7) black hat:黑帽,简单的讲就是 SEO作弊

    8) bounce rate 就是一个跳出率,当一个用户进入一个网页,接着在一个会话时间内没有看过该站其他的页面就分开了该网站,就被称作Bounce。请注 意这里有两个参数,一个是是否点击浏览其他的页面,第二个就是哪个会话时间段。 这个Bounce Rate越低越好,说明用户访问了更多的页面。而且这个Bounce Rate已经是网站流量统计的一个通用标准,一般及格的流量统计都有。

    9) bread crumbs “面包屑型”架构让用户对他们所访问的此页与彼页在层次结构上的关系一目了然。这种网站结构的其中一个最明显的特性体现莫过于返回导览功能。

    10) Canonical Issues (内容重复的一种) 所谓 Canonical Issues,主要指网站的主访问路径,如果网站存在多种访问方式,搜索引擎会取舍一种其认为最佳的方式确定为“权威地址”,比如说,对大多数网站而言,其主页可以用以下三种 URL访问:

    11) click fraud 欺骗点击是发布者或者他的同伴对PPC广告进行恶意点击,因而来得到相关广告费用.欺骗点击降低了客户对广告商的信任.

    12) cloak 隐藏作弊 为了让你的网页被索引而采用一些专门针对搜索引擎的伎俩而不是着眼你的用户。比如隐藏一些不相关的关键词在你的页面,虽然访问者看不见但搜索引擎可以发现。Cloak 实际上是这么一个程序或者脚本:它查看 HTTP 头的内容,比如 IP 地址,User-Agent,URL 来决定显示不同内容给访问者。

    13) CMS Content Management System 内容管理系统,主要用于文章发布的系统.

    14) CPC Cost Per Click 即 以每点击一次计费。这样的办法加上点击率限制可以〖WX)〗加强EMU 的难度,而且是宣传网站站点的最优方式。

    15) CPM Cost Per Thousand impressions (每千人成本)广告显示 1000次所应付的费用。
    16) crawler (同bot, spider) \”蜘蛛\”是通过链接结构在互联网中爬行来收集数据.

    17) duplicate content \”重复内容\”是一个页面的内容和互联网中另一个页面相同或非常相似.

    18) Feed 本意是“饲料、饲养、(新闻的)广播等”,RSS 订阅的过程中会用到的“Feed”,便是在这个意义上进行引申,表示这是用来接收该信息来源更新的接口.可以理解为,你的Blog页面是给人读的,而Feed 是给程序读的。

    19) frames \”框架\” 当我 们在浏览一个应用 Frames设计的网页,我们其实是在浏览至少三个文件。这些文件被编译到一 起,使它们看起来是一个文件。

    20) HTML 超文本标记语言(Hyper Text Markup Language)很简单,它就是编写网页的语言之一.

    21) in bound link (inlink, incoming link) 可直译为“来自外部网站的链接”,也就是我们通常所说的一个网站“被其他网站链接的数量”,

    22) indexed Pages \”索引页\”就是被搜索引擎索引的页面.

    23) inlink (incoming link, inbound link) 导入链接 指其他网站连到本网站的链接。

    24) keyword 关键字 是指您要作搜索引擎排名的词.

    25) keyword cannibalization 关键字拆解 就是在一个站点许多页面过度应用同一关键字,导致用户和搜索引擎难以分辩那个是这个关键字相关的页面.

    26) keyword spam (keyword stuffing) 关键字堆砌 为了晋升,目的关键字排名增加关键字的密度.

    27) keyword stuffing (keyword spam) 关键字堆砌 为了提升,目的关键字排名增加关键字的密度

    28) landing page 登陆页面 是指用户在搜索引擎结果页里点击进入的页面.

    29) latent semantic indexing (LSI) 潜在语义索引 是指搜索引擎排除一些匹配的搜索引擎字符,依据语义来把网页列出在搜索引擎结果中,

    30) link 链接 是网页的一个元素,点击它能在浏览器中跳转到另一个网页.

    31) link bait 链接诱饵 是指一个网页通过特殊定位和布局来吸引反向链接.

    32) link exchange 交换链接 是指互惠链接的树立,通常把它说为\”友情链接\”.

    33) link spam (Comment Spam) 链接垃圾 通常的博客评论就是典型的例子.

    34) link text (Anchor text) 链接文本,瞄文本 是指用户能看见的一个链接.搜索引擎通过链接文本来判断被链接的站点是什么内容.一般都将关键字设为瞄文本.

    35) META tags meta标签是指在html和head 的一个陈述,它反映整个页面的信息.它在搜索引擎结果中可见,但是在它呈现给客户的页面是不可见的.最主要的有 keyword和description两个功能.作SEO.meta标签的不可缺少的.

    36) nofollow 是一个属性,它能使搜索引擎蜘蛛忽略这些页面的一部分链接,很像链接避孕套,一般博客评论下都有个Nofollow属性.

    37) noindex 禁止索引是指在一个网页的head部分有一个禁止索引的命令,它能告诉搜索引擎不要索引当前这个页面.

    38) pagerank (PR) 网页级别是 Google 衡量网页重要性的工具,测量值范围为从1至 10 分别表示某网页的重要性.新网站的pr为0.一般 pr3个月更新一次

    39) PPA (Pay Per Action )按行为付费是指广告是只有当用户点击了特定的广告,进入指定的网站完成指定的动作后,广告商才须要付费。

    40) PPC (Pay Per Click) 是依据点击广告或者电子邮件信息的用户数量来付费的一种网络广告定价模式.常见的有google广告

    41)reciprocal link (link exchange, link partner) 同上,就是友情链接

    42) redirect 重定向是指当你打开一个页面,它自动跳转到另外一个域名或地址.

    43) robots.txt 机器人文件是指在网站根目录下的一个文件,通过书写的一些代码,能控制搜索引擎蜘蛛的抓取行为.通过它我们能让搜索引擎禁止或者疾速抓取我们的网站.

    44) sandbox 沙盒是指google会把所有的新站放入沙盒,并且不给于好的排名,直到这个网站通过google的考察期.

    45) search engine (SE) 搜索引擎,常见的有百度和google

    46) SEM (search engine marketing) 搜索引擎营销只要包括两点,一个是SEO 搜索引擎优化服务,另一个是付费SEM 搜索引擎营销,比如 PPC,竞价等

    47) SEO (search engine optimization) 搜索引擎优化就是通过对网站的结构,标签,排版等各方面的优化,使搜索引擎更容易搜索网站的内容,并且让网站的各个网页在GOOGLE等搜索引擎中获得较高的评分,从而获得较好的排名。

    48) SERP (Search Engine Results Page) 搜索引擎结果页是指用户在搜索引擎上搜索某一关键字而出现的结果页面.

    49) sitemap 网站地图是一个拥有网站所有或部分重要链接的页面,xml 类型的网站地图是提交给 google的.它能帮助网站更快的被搜索引擎收录.

    50) spider (bot, crawler) 搜索引擎蜘蛛是搜索引擎用来增加网页数据库的一个特殊机器人

    51) spider trap 蜘蛛程序陷阱是阻止蜘蛛程序爬行网站的妨碍物,通常源于那些网页显示的技术方法,这些手段能很好地配合浏览器,但对蜘蛛程序就构
    了妨碍。蜘蛛陷阱包括 JavaScript下拉菜单以及有些种类的重定向。

    52) static page 静态页面是指在网址URL 中没有任何变量和参数,静态页面往往对搜索引擎蜘蛛是最友好的.

    53) stickiness 黏度是指网站通过对内容的不断更新和功能的增强,让用户一直浏览这个网站,就好像把他黏住一样.

    54) text link 文字链接是指以文本形式的连接,它不包括图片或 java script等

    55) time on page 页面停留时间是指用户在一个网页上停留的时间,直至他点击分开.

    56) trust rank 信任级别是用来区别有价值的页面和spam 页面,页面的价值越高,它的信任价值也就越高.

    57) URL 简单的讲就是网址103) user generated content (UGC) 是指“用户生产内容”,即网友将自己 DIY的内容通过互联网平台进行展示或者提供给其他用户。

    58) web2.0 是指具有用户互动的网站.

    59) white hat 白帽是SEO的正规技术,它于黑帽正好相反.

  • 通过nslookup辨别百度蜘蛛真假

    通过nslookup辨别百度蜘蛛真假

    通常情况下,模拟百度蜘蛛是比较少见的,但是当我们分享百度蜘蛛必须要在一个前提下,那就是必须是真的百度蜘蛛。所以在日志中获得一个IP后首先就是排除假蜘蛛这种情况。下面说一下通过nslookup反解IP来实现辨别真假蜘蛛

    nslookup查询

    运行——CMD——输入nslookup IP(例如nslookup 111.206.221.22)然后按一下enter键

    nslookup反查

    这个时候,就能查询到IP的hostname,如果是以 *.baidu.com的格式命名,则为百度蜘蛛,如果不是。表示为伪装的假蜘蛛

    其他操作系统查询

    linux

    在linux平台下,您可以使用host ip命令反解ip来判断是否来自Baiduspider的抓取。Baiduspider的hostname以 *.baidu.com *.baidu.jp 的格式命名,非 *.baidu.com 或 *.baidu.jp 即为冒充。

    MAC

    在mac os平台下,您可以使用dig 命令反解ip来 判断是否来自Baiduspider的抓取。打开命令处理器 输入dig xxx.xxx.xxx.xxx(IP地 址)就能解析ip, 来判断是否来自Baiduspider的抓取,Baiduspider的hostname以 *.baidu.com*.baidu.jp 的格式命名,非 *.baidu.com 或 *.baidu.jp 即为冒充。

  • 如何禁止搜索引擎保存网页快照

    如何禁止搜索引擎保存网页快照

    很多站点出于隐私的考虑不希望百度保留快照,网上也在讨论如何禁止百度保留快照的方法。其实百度早已对此有过说明,但藏在一篇不起眼的文章中不引人注目,导致依然非常多的人不清楚该如何操作。

    百度快照

    要防止所有搜索引擎显示您网站的快照,请将此元标记置入网页的<HEAD>部分:

    <meta name=\"robots\" content=\"noarchive\">

    要允许其他搜索引擎显示快照,但仅防止百度显示,请使用以下标记:

    <meta name=\"Baiduspider\" content=\"noarchive\">

    注:此标记只是禁止百度显示该网页的快照,并不会影响网页建入索引,同时垃圾网页也不可能依靠此手段逃避百度的判罚。

  • 百度XML地图规范的格式是怎样的

    百度XML地图规范的格式是怎样的

    百度Sitemap支持哪些格式

    站点地图sitemap

    百度Sitemap协议支持三种格式:文本格式、xml格式、Sitemap索引格式,可以根据自己情况来选择任意一种格式组织sitemap。具体格式说明及示例如下:

    txt文本格式

    在一个txt文本列明需要向百度提交的链接地址,将txt文本文件通过站长平台进行提交

    • http://www.example.com/repaste/101562698_5230191316.html
    • http://www.example.com/repaste/101586283_5230215075.html
    • http://www.example.com/repaste/101639435_5230310576.html

    此文本文件需要遵循以下指南:

    1. 文本文件每行都必须有一个网址。网址中不能有换行。
    2. 不应包含网址列表以外的任何信息。
    3. 您必须书写完整的网址,包括 http。
    4. 每个文本文件最多可包含 50,000 个网址,并且应小于10MB(10,485,760字节)。如果网站所包含的网址超过 50,000 个,则可将列表分割成多个文本文件,然后分别添加每个文件。
    5. 文本文件需使用 UTF-8 编码或GBK编码。

    xml格式

    单个xml数据格式如下:

    <?xml version=\”1.0\” encoding=\”utf-8\”?>
    <!– XML文件需以utf-8编码–>
    <urlset>
    <!–必填标签–>
        <url>
            <!–必填标签,这是具体某一个链接的定义入口,每一条数据都要用<url>和</url>包含在里面,这是必须的 –>
            <loc>http://https://www.73bk.com/sitemap.html</loc>
            <!–必填,URL链接地址,长度不得超过256字节–>
            <lastmod>2009–12–14</lastmod>
            <!–可以不提交该标签,用来指定该链接的最后更新时间–>
            <changefreq>daily</changefreq>
            <!–可以不提交该标签,用这个标签告诉此链接可能会出现的更新频率 –>
            <priority>0.8</priority>
            <!–可以不提交该标签,用来指定此链接相对于其他链接的优先权比值,此值定于0.0–1.0之间–>
        </url>
        <url>
            <loc>http://https://www.73bk.com/blog/476/</loc>
            <lastmod>2010–05–01</lastmod>
            <changefreq>daily</changefreq>
            <priority>0.8</priority>
        </url>
    </urlset>​

    上述Sitemap向百度提交了一个url:https://www.73bk.com/sitemap.html

    若有多条url,按照上述格式重复之间的片断,列明所有url地址,打包到一个xml文件,向站长平台进行提交。

    Sitemap索引格式

    如需提交大量sitemap文件,则可将其列在sitemap索引文件中,然后将该索引文件提交。您无需分别提交每个文件。

    <?xml version=\”1.0\” encoding=\”utf-8\”?>
    <!– XML文件需以utf-8编码–>
    <sitemapindex>
    <!–必填,以 <sitemapindex> 开始标记作为开始,以 </sitemapindex> 结束标记作为结束–>
        <sitemap>
            <!–必填,以<sitemap>标签提交一个子sitemap文件–>
                        <loc>http://example.com/ext/xmlsitemap/add/201201/index_20120106.xml</loc>
            <!–必填,识别sitemap的位置–>
            <lastmod>2009–12–14</lastmod>
            <!–选填,识别相对sitemap文件的修改时间–>
        </sitemap>
        <!–必填,标签闭合–>
    </sitemapindex>
    <!–必填,标签闭合–>

    有多个Sitemap,按上述格式重复之间的片断,列明所有Sitemap地址,向站长平台进行提交。

    创建Sitemap时有哪些注意事项?

    第一,一个Sitemap文件包含的网址不得超过 5 万个,且文件大小不得超过 10 MB。如果您的Sitemap超过了这些限值,请将其拆分为几个小的Sitemap。这些限制条件有助于确保您的网络服务器不会因提供大文件而超载。

    第二,一个站点支持提交的sitemap文件个数必须小于5万个,多于5万个后会不再处理,并显示“链接数超”的提示。

    第三,如果验证了网站的主域,那么Sitemap文件中可包含该网站主域下的所有网址。

    如何提交Sitemap

    第一步,将需提交的网页列表制作成一个Sitemap文件,文件格式请阅读百度Sitemap协议都支持哪些格式。

    第二步,将Sitemap文件放置在网站目录下。比如您的网站为example.com,您已制作了一个sitemap_example.xml的Sitemap文件,将sitemap_example.xml上传至网站根目录即example.com/sitemap_example.xml

    第三步,登录百度站长平台,确保提交Sitemap数据的网站已验证归属。

    第四步,进入Sitemap工具,点击“添加新数据”,文件类型选择“URL列表”,填写抓取周期和Sitemap文件地址

    最后,提交完之后,可在Sitemap列表里看到提交的Sitemap文件,如果Sitemap文件里面有新的网站链接,可以选择文件后,点击更新所选,即对更新的网站链接进行了提交。

    什么是移动Sitemap协议,如何提交移动Sitemap协议

    百度推出了移动Sitemap协议,用于将网址提交给移动搜索收录。百度移动Sitemap协议是在标准Sitemap协议基础上制定的,增加了标签,它有四种取值:

    1. <mobile:mobile/> :移动网页
    2. <mobile:mobile type=\”mobile\”/> :移动网页
    3. <mobile:mobile type=\”pc,mobile\”/>:自适应网页
    4. <mobile:mobile type=\”htmladapt\”/>:代码适配​

    无该上述标签表示为PC网页

    下方样例相当于向百度移动搜索提交了一个移动网页:http://m.example.com/index.html,向PC搜索提交了一个传统网页:http://www.example.com/index.html,同时向移动搜索和PC搜索提交了一个自适配网页http://www.example.com/autoadapt.html:

    <?xml version=\”1.0\” encoding=\”UTF-8\” ?>
    <urlset xmlns=\”http://www.sitemaps.org/schemas/sitemap/0.9\”
    xmlns:mobile=\”http://www.baidu.com/schemas/sitemap-mobile/1/\”>
    <url>
    <loc>http://m.example.com/index.html</loc>
    <mobile:mobile type=\”mobile\”/>
    <lastmod>2009–12–14</lastmod>
    <changefreq>daily</changefreq>
    <priority>0.8</priority>
    </url>
    <url>
    <loc>http://www.example.com/index.html</loc>
    <lastmod>2009–12–14</lastmod>
    <changefreq>daily</changefreq>
    <priority>0.8</priority>
    </url>
    <url>
    <loc>http://www.example.com/autoadapt.html</loc>
    <mobile:mobile type=\”pc,mobile\”/>
    <lastmod>2009–12–14</lastmod>
    <changefreq>daily</changefreq>
    <priority>0.8</priority>
    </url>
    <url>
    <loc>http://www.example.com/htmladapt.html</loc>
    <mobile:mobile type=\”htmladapt\”/>
    <lastmod>2009–12–14</lastmod>
    <changefreq>daily</changefreq>
    <priority>0.8</priority>
    </url>
    </urlset>​

    按照移动Sitemap协议做好Sitemap后,在Sitemap工具点击添加新数据提交,与提交普通Sitemap方式一致。

    我提交时填写的周期是什么含义?

    百度Spider会参考设置周期抓取Sitemap文件,因此请根据Sitemap文件内容的更新(比如增加新url)来设置。请注意若url不变而仅是url对应的页面内容更新(比如论坛帖子页有新回复内容),不在此更新范围内。Sitemap工具不能解决页面更新问题。

    Sitemap提交后,多久能被百度处理?

    Sitemap数据提交后,一般在1小时内百度会开始处理。在以后的调度抓取中,如果您的sitemap支持etag,我们会更频繁抓取sitemap文件,从而及时发现内容更新;否则抓取的周期会比较长。

    提交的Sitemap都会被百度抓取并收录吗?

    百度对已提交的数据,不保证一定会抓取及收录所有网址。是否收录与页面质量相关。

    我可以压缩我的 Sitemap 吗?它们是否需要用 gzip 压缩?

    可以。请使用 gzip 压缩 Sitemap。无论压缩与否,Sitemap 应该小于 10MB(10,485,759字节)。

    XML格式的 Sitemap 中,“priority”提示会影响我的网页在搜索结果中的排名吗?

    不会。Sitemap 中的“priority”提示只是说明该网址相对于您自己网站上其他网址的重要性,并不会影响网页在搜索结果中的排名。

    网址在 Sitemap 中的位置是否会影响它的使用?

    不会。网址在 Sitemap 中的位置并不会影响百度对它的识别或使用方式。

    Sitemap中提交的url能否包含中文?

    因为转码问题建议最好不要包含中文。

    URL列表—XML格式及规范说明:

    标签名称标签说明标签类型标签限制可选/必选举例
    urlset
    urlurl标记每条信息的开始和结束//可选
    最多出现50000次
    url
    loc该条数据的存放地址任意URL最小长度1个字符
    最大长度256个字符
    符合正则表达式(http://)(.+)
    必选http://www.baidu.com/
    lastmod指该条数据的最新一次更新时间日期或日期时间格式为:YYYY-MM-DD[Thh:mm:ss],
    日期与时间之间使用T分隔,可以仅提供年月日部分
    可选2013-01-01
    changefreq指该条数据的更新频率字符串有效值为:
    always、hourly、daily、weekly、monthly、yearly、never
    可选always
    priority用来指定此链接相对于其他链接的优先权比值,此值定于0.0-1.0之间小数大于等于0.0
    小于等于1.0
    可选1.0

    XML格式举例

    <?xml version=\”1.0\” encoding=\”UTF-8\”?>
    <urlset>
    <!– urlset,urlset用来标记整个文档的开头,最少出现1次 最多出现1次 –>
        <url>
        <!– url,url标记每条信息的开始和结束,最少出现0次 最多出现50000次 –>
            <loc>http://www.baidu.com/</loc>
            <!– loc,该条数据的存放地址,最少出现1次 最多出现1次,类型为URL地址,最小长度1个字符 最大长度256个字符 必须符合正则表达式(http://)(.+) –>
            <lastmod>2013–01–01</lastmod>
            <!– lastmod,指该条数据的最新一次更新时间,最少出现0次 最多出现1次,类型为日期或日期时间,格式为YYYY-MM-DD的日期或者格式为YYYY-MM-DDThh:mm:ss的日期时间(请注意日期与时间之间以“T”分隔) –>
            <changefreq>always</changefreq>
            <!– changefreq,指该条数据的更新频率,最少出现0次 最多出现1次,类型为字符串,有效值为:always、hourly、daily、weekly、monthly、yearly、never –>
            <priority>1.0</priority>
            <!– priority,用来指定此链接相对于其他链接的优先权比值,此值定于0.0–1.0之间,最少出现0次 最多出现1次,类型为小数,最小值为(包含)0.0 最大值为(包含)1.0 –>
        </url>
    </urlset>

    全文转载自:《百度地图XML格式及规范说明全攻略》

  • 网站如何快速收录、获得排名[网站收录排名技巧]

    网站如何快速收录、获得排名[网站收录排名技巧]

    百度收录排名网站怎样才能加快?这个问题是不少朋友想了解的,下面就为大家整理分享。

    收录

    何为秒收

    秒收:通俗点讲就是网站在更新了新的网站内容后,百度或360等搜索引擎在短时间内快速收录内容的这么一个概念。而目前大部分网站站长都面临一个问题,就是在发布内容很久后搜索引擎却迟迟不收录,今天长江就针对这个问题来分享几点我做到秒收的技巧,希望对大家有用。

    如何实现秒收

    1、切勿采集内容

    很多做SEO的都觉得更新文章内容很耗时间,懒不愿意花时间去为用户创造内容,大量采集各种SEO博客网站的内容,据目前百度2017年推出的飓风算法就是重点打击采集站点的内容,2017年刚出算法的时候有关注的朋友应该是知道有很多采集的站点的关键词排名和流量大幅度下滑。

    具体算法详情参考百度站长平台:https://ziyuan.baidu.com/wiki/1050

    2、切勿做标题党

    不管是做SEO的还是做自媒体营销的都知道一个好的标题是可以吸引用户点击的,从而巩固网站的排名,自媒体方面从而可以获取收益。

    因此很多做SEO的站长就打着挂羊头卖狗肉的旗帜子,肆无忌惮的做着标题党来吸引用户点击,果不其然好景不长,百度于2017年推出清风算法就是打击标题党的网站,故此2018年再次推出细雨算法重点打击标题党和网站内容掺杂广告成分。

    具体算法详情参考百度站长平台:https://ziyuan.baidu.com/wiki/2359和https://ziyuan.baidu.com/wiki/1090

    3、验证百度站长平台

    不管是新站还是老站都要验证百度站长平台,验证百度站长平台有很多有用的东西。

    例如你的网站死链接多会在站长平台消息通知你,同时百度站长平台可以监控你的网站服务器是否稳定,会不会造成抓取超现象,同时有logo权限你还可以提交自己制作的logo。

    尤其是站点更新内容的时候可以将这篇内容提交给百度,同时也可以用百度站长平台里面的抓取诊断测试一下。看看dns是否正常,抓取正常。

    4、建立网站地图

    建立网站地图可以加快网站的收录率但不是100%,凡事都是相对性的没有绝对性的,就这样这世界有好人就有坏人,提交了网站只需要监控一下爬虫日志,看看搜索引擎是否抓取到你提交的页面,如果抓取了5天之内没有收录的话,那就要考虑你的内容质量了。

    5、加推送代码

    推送代码分为:主动推送和自动推送

    主动推送:主动推送要自己写代码在文章发布的时候就推送给百度,有很多程序现在有插件可以安装,如果自己使用的网站代码没有插件,就只能自己写代码,难度有点高。如果是php程序的可以调用百度的api接口推送

    自动推送:自动推送是在用户访问文章的时候自动向百度推送,只要在网页加载了站长平台提供的JS代码就能推送,JS代码的使用就跟放百度统计代码是一样的,很简单,现在百度统计代码也有自动推送。(补充:百度已经取消自动推送功能了)

    网站响应速度快

    网站响应速度快这个是最重要的,不管是搜索引擎和用户,只要访问你的站点长时间在加载中或者打不开,搜索引擎和用户都会选择下一个站点,搜索引擎每天都是千万级别的爬取页面信息,用户也是一样,耐心都是有限度的,整个网页不止你一个网站我能看这个需求东西,可以选择其他站点找到需求东西。

    何为秒排

    秒排:从字面意思上面通俗来讲就是网站上线,能在短时间内马上收录而且还放出排名。一般12小时内能收录和放出排名即为秒排。

    如何实现秒排

    1、域名的选择

    这里可以选择老域名和新域名都是可以的,老域名注册之前最好去查一下网站之前历史数据有灰色产业不要注册,新域名一般建议自己把域名想长点,这样的域名90%的机率有没有被注册过和做过网站,在注册新域名之前千万不要去百度查询改域名的相关数据。

    2、稳定响应快的空间

    一个稳定响应快空间对于搜索引擎而言可以减轻自己服务器的压力,搜索引擎也会根据服务器情况来自动调整网站的抓取频率。

    3、模板选择

    模板尽量选择多内容,图文并茂的、flash、特效少、弹窗少的模板,最好是一个丰富的模板。

    4、上线前完善网站

    完善可以说是网站秒排的核心,如果是你网站只是一个空架子上传到服务器上面,搜索引擎访问了你的站点,抓取了你的数据,顶多是收录不可能实现秒排。为啥呢?很简单的道理:搜索引擎的本质是要把用户想要的东西展现给用户,你网站空架子,你绝对搜索引擎会推荐给你的用户吗。

  • 新手应该按照什么步骤学seo

    新手应该按照什么步骤学seo

    学习SEO应该从哪里开始,每一个SEO都应该掌握这一学习SEO的方法:定位网站、需求分析选择好的内容、站内优化、站外优化、推广、数据分析、体验分析。

    seo新手入门

    学习步骤

    1. 定位好网站内容以后把你所想做排名的关键词定位好,关键词里包括了主关键词和长尾关键词。这里重点强调了不可以忽略长尾关键词的作用。
    2. 对于一个好的网站结构可以让搜索引擎蜘蛛顺利的抓取我网站的内容,进而达到被收录的目的。比较有利于蜘蛛抓取的网站结构,一般来说,收录数量相对来说会比较多。只有让搜索引擎收录你网站页面那搜索引擎才会释放出来,这样网站关键词才可能有排名。
    3. 这里重点要注意一下网站提交以后,短时间内网站不宜有大的改动,有些改动将会至使网站有被K的危险。所以在提交网站之前一定要彻底检查一遍网站。另外没必要每个搜索引擎都去提交,提交下面目前主流的几大搜索引擎也就够了:雅虎、谷歌(现在大陆不容易打开)、百度、好搜、搜狗、有道,当然你有时间多提交点搜索引擎,也只有好处没有坏处。
    4. 其中包括网站被搜索引擎的收录和更新情况,网站的流量情况,网站外链的情况等等,这些可以通过站长工具去查看和分析。
    5. SEO其实主要两点也就是:站内优化、站外优化。

    站内优化:就是做对用户有价值的内容或产品。站内优化的部分,无论是做原创内容、做用户体验,还是优化网站结构,其目的只有一个:为了吸引用户,留住用户。只有留住了用户,网站的pv、ip、uv、搜索跳出率等各项数据才能有大的提升,有利于关键词的排名。

    站外优化(外链建设):让用户知道你网站有价值的信息。网站有了一定有价值的信息以后,那就需要让用户知道你的那些有价值的内容。以前老说“酒香不怕巷子深”现在是“酒香也怕巷子深”因为现在酒香的太多,那你就需要让你的酒香让外界知道。这个和外链建设是一样的道理,这也是为什么要站外优化外链建设的原因。

    6、seo工具:俗话说的好:工欲善其事,必先利其器。seo的实践必需以数据为依托,你只有手上拥有了准确实在及时的信息反馈,才能了解你的方向是否真正的正确。

    注意事项

    最后再告诉大家一个怎么判断哪种SEO方法是正确的小窍门,现在SEO教程是泛滥成灾,各种各样的SEO方法也应运而生,让很多才开始学习SEO入门教程的新手无从下手,不知道运用哪种SEO方法可行。其实这个问题很简单,只要换位思考一下就可以了,你换作网站的用户,感觉这个网站的种种做法是否对用户有价值,如果有价值,那这个做法就是正确的,如果没有那就放弃,用户体验是搜索引擎优化永不淘汰的法则,就这么简单。

    seo学习方法毕竟是一门实践性非常强的学科!光学不练肯定是不行的,只有把理论和实践结合起来,达到的学习效果远远比只在网上看看文章攻略效果要好得多!

  • 新手做网站优化应该从什么地方开始

    新手做网站优化应该从什么地方开始

    作为新手,应该从什么地方着手SEO工作呢

    seo排名优化

    优化内容

    一、域名的选择

    选择域名非常重要,因为他是网站优化第一步。注册域名的时候我们首先找与主题相关域名,首选中文全拼音,其次选择英文,如果没有,请选择域名长度较短的 域名是衡量SEO效果的必要因素、虽然对SEO的效果的影响并不是很大,但是我们还是必须遵循,一定程度会利于后期的优化传播。

    二、空间(服务器)的选择

    空间对于网站优化关键词排名至关重要,因为空间能直接影响蜘蛛的抓取和用户体验质量。在选取空间时需要考虑的因素有安全性、空间打开速度、空间的稳定性、功能和可扩展性。空间稳定性影响蜘蛛抓取进而影响收录,而打开速度和稳定性又会影响用户的信用度。

    三、网站的完整搭建

    在网站搭建初期就完成所有便于优化的框架和内容能够缩短整个网站优化时间,一个完整的便于优化的网站包含:满足用户需求的程序和内容、便于优化的路径、优先层次的布局、附加价值的内容、长尾关键词布局、合理的内链设置。

    四、合理寻找内容源

    网站在制作完成后接下来要做的是填充网站内容 ,内容的寻找包括自己原创内容、网上资料整合、专业资料整理、用户自发的投稿。首选的是网上资料整合,但必须有附加价值的增加。如果是专业人员可以花一部分时间编写原创文章,最高级形式是用户自发的投稿。

    五、把内容进行分类利于优化

    内容分类的作用是让用户在浏览网站寻找资料时更加容易,而不是应接不暇。但凡用户的寻找时间超过5s以上跳出率会增加一倍以上。内容分类名称要直接易懂,分类多少按照网站的内容多少来,内容越多分类明显。内容多于一个栏目用二级栏目分类,多于一个站用二级域名分类。

    六、长尾关键词的布局

    长尾关键词布局非常重要,因为涉及到网站后期优化效果。布局长尾词的第一点是挖掘和筛选长尾词,然后根据长尾词的竞争度以及相关性布局在网站的栏目页和内页。内页的长尾词围绕栏目页的竞争度大一点的短词来布局,不同栏目的长尾词不能互相交叉以及重叠。

    七、内链系统的布局

    内链是整个网站的脉络,内链的布局直接影响到网站的收录、关键词排名以及跳出率。首页内链布局的好能带动内页长尾词排名,而内页的内链布局好能传递权重给首页,并且能降低网站的跳出率。内链布局需要注意需求、数据分析、文案、锚文本。

    八、学习如何推广网站

    推广的作用绝不低于内链系统的建设,在网站还不被大众知道之前推广能缩短关键词排名周期。一般新站正常排名周期是3个月以上,在前期有推广的网站排名周期能缩短到2个月。推广包括QQ群推广、软文推广、信息平台推广、微信微博推广、资源圈分享等。

    九、新手必须学会做数据分析

    数据分析是网站排名后一项非常重要的工作,数据分析是以现有网站的内容为基础,分析那些内容是用户点击比较多以及哪些内容用户更加受欢迎。从而更多展示用户喜欢的内容,降低网站的跳出率增加网站黏性。数据分析能从很大程度上促进网站关键词排名。

    十、如何给网站合理的做外链

    外链在网站排名的前中期起到非常重要的角色,在网站还处于前中期时外链能传递给网站权重。而网站只有在具有一定权重以后才能被收录首页和内页,并且传递的权重能有助于排名的提升。外链还具有推广作用,能引导用户进入网站,所以网站前期一定要做外链。

    十一、需求分析新手必须要会的

    需求分析是网站优化至关重要的部分,需求分析的好处便是能找到并且展示用户想要的东西,而这些东西可能用户自己都不知道。但是它能帮助你将网站展示在用户跟前,并且用户还非常喜欢到你的网站寻找资料,需求分析能笼络一个行业的大部分用户。

    十二、内页长尾词排名

    长尾词带来的流量占据整个网站流量的80%,并且长尾词带来的是精准用户。长尾词排名首先要选择有用户搜索的关键词,做好内容和内链的布局。通常SEO宣传的是网站的首页,但如果稍微宣传内页内容会促进长尾词更快的排名。

    十三、如何对网站进行微调稳定排名

    用户的需求不断变化,网站不可能一直保持不变不跟随需求改变而改变。微调就是不断发现用户新的需求然后修改网站布局以及内容让网站更符合当下用户的需求,从而促进关键词排名。搜索引擎总是会给那些更随用户使用趋势的网站更好的排名。

    十四、建立生态圈稳定排名

    生态圈有别有站群的原因是生态圈是白帽的方法,它会产生一些有价值的内容,而站群不会。生态圈是网站发展中后期高质量权重外链的来源,并且有助于稳定长尾关键词排名。生态圈重点在于长尾词的分配以及内容的编辑,作用是提供主站外链和圈住用户。