如何提升CSDN博客的访问量

        开设CSDN博客也有几天时间了,博客的访问量已逐步逼近7000。虽然不是不少,但小菌已经很是知足了,毕竟在CSDN上开源分享,总结经验才是最重要的,访问量,点赞数,评论数等附加数据则是用来评判博客内容质量好坏以及其自己受欢迎程度。最近小菌去浏览了一下博客周排行榜以及总排行榜的那些博客专家,IT大佬们的博客,不只粉丝数,获赞数,浏览量让小菌可望不可即,其博客内容的深度更是让本菌自叹不如(大佬就是大佬(T_T))。同时我也在思考如何向排行榜这个"福地"看齐,首当其冲即是提升博客访问量。因而我在通过仔细的研究以后,总结出了如下方案,决定晒出来与小伙伴们一块儿分享~
在这里插入图片描述html

正面例子

多写经常使用知识点的博客

        这一点仍是很是的好理解,毕竟经常使用知识无论在哪一个领域受用人群每每都是最多的,并且经常使用知识通常都偏向于基础化,使用频率高。只要你总结的到位,靠谱,无论发布在哪都是很容易受到大量用户的"追捧"!python

想办法提升百度排名,注意标题不要写的太复杂

        百度做为全球最大的中文搜索引擎及最大的中文网站,每日的搜索量,浏览量是至关大的。只要你能在百度上搜索到本身的文章,而且还有一个不错的位置,而且自带一个好的标题,那么访问量日过万(短时间)不是问题。(下面附上百度连接提交入口,须要审核)百度搜索资源平台
在这里插入图片描述
        对了,这种状况下,一个好的标题就显得很是重要!那什么样的标题才算的上好的标题呢?注意标题必定要精炼,精炼,精炼!(重要的事总要说三遍)像有的文章内容质量不错,结果标题起的不清不楚,平淡无奇,这样作就很容易使博客埋没在"贫民区"。精炼的标题可让人理解起来更方便,而且小菌还建议你们能够在标题后面适当的增长一些诱人词汇吸引你们的关注,无形之中增长了在同类文章,博客中的竞争力。像写篇介绍Java基础的博客,你就能够用《Java零基础入门学习(小白也能看懂!)》相似的你们能够自行发挥!web

写国内比较新的技术

        这个就对自身学识有必定的要求了。在IT圈,新的技术无论在哪就像娱乐新闻同样走到哪里都自带流量。像近几年比较火的"区块链",“大数据”,“云计算”,“AI”…若是你有幸在这些领域工做,写出"高访问量"的文章应该不是很难!尤为是中短时间,效果很好!正则表达式

区块链
在这里插入图片描述
云计算
在这里插入图片描述cookie

大数据多线程

在这里插入图片描述

人工智能app

在这里插入图片描述

成系列的写技术文章,有利于增长评论,粉丝,中长期可以大幅度提升平常访问量

        像下面几位大佬学习!(仅举出几个例子,还有不少!)
在这里插入图片描述
dom

成系列的专栏,利于增长粉丝,亦能提升平常访问量

        这里以博客专家二师兄-公众号-程序新视界为例
在这里插入图片描述
在这里插入图片描述ide

"硬核"外挂–脚本刷CSDN访问量

        这里小菌不提倡你们这么作,但做为一个新用户名的话,前期刷点访问量美化数据仍是有点用的(真香,哈哈٩(๑❛ᴗ❛๑)۶)。直接上脚本吧,一样仍是用python写的。svg

脚本1:循环刷一个用户下的全部博文

import requests
import re
import time
payload = ""
# 请求头
headers = { 
 
   
    "Accept": "*/*",
    "Accept-Encoding": "gzip, deflate, br",
    "Accept-Language": "zh-CN,zh;q=0.8,en-US;q=0.5,en;q=0.3",
    "Cookie": "l=AurqcPuigwQdnQv7WvAfCoR1OlrRQW7h; isg=BHp6mNB79CHqYXpVEiRteXyyyKNcg8YEwjgLqoRvCI3ddxqxbLtOFUBGwwOrZ3ad; thw=cn; cna=VsJQERAypn0CATrXFEIahcz8; t=0eed37629fe7ef5ec0b8ecb6cd3a3577; tracknick=tb830309_22; _cc_=UtASsssmfA%3D%3D; tg=0; ubn=p; ucn=unzbyun; x=e%3D1%26p%3D*%26s%3D0%26c%3D0%26f%3D0%26g%3D0%26t%3D0%26__ll%3D-1%26_ato%3D0; miid=981798063989731689; hng=CN%7Czh-CN%7CCNY%7C156; um=0712F33290AB8A6D01951C8161A2DF2CDC7C5278664EE3E02F8F6195B27229B88A7470FD7B89F7FACD43AD3E795C914CC2A8BEB1FA88729A3A74257D8EE4FBBC; enc=1UeyOeN0l7Fkx0yPu7l6BuiPkT%2BdSxE0EqUM26jcSMdi1LtYaZbjQCMj5dKU3P0qfGwJn8QqYXc6oJugH%2FhFRA%3D%3D; ali_ab=58.215.20.66.1516409089271.6; mt=ci%3D-1_1; cookie2=104f8fc9c13eb24c296768a50cabdd6e; _tb_token_=ee7e1e1e7dbe7; v=0",
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64;` rv:47.0) Gecko/20100101 Firefox/47.0"
}
# 得到文章列表urls
def getUrls(url):

    # 发送请求
    resp = requests.request("GET", url, data=payload, headers=headers)
    #设置解码方式
    resp.encoding=resp.apparent_encoding
    #这里会用设置的解码方式解码
    html_source = resp.text
    # 正则表达式,取出网页中的url连接(一些寻找注入点的工具也是这么作出来的)
    urls = re.findall("https://[^>\";\']*\d",html_source)
    new_urls=[]
    for url in urls:
        if 'details' in url:
            if url not in new_urls:
                new_urls.append(url)
    return new_urls

# 这里替换成你要刷访问量博客的首页 
urls = getUrls("你的博客首页地址")
while True:
    for url in urls:
        requests.request("GET", url, data=payload, headers=headers)
        print(url, "Ok")
        time.sleep(5)
    time.sleep(5)

脚本2:定时刷指定url的博文

# -*- coding: utf-8 -*-
 
import urllib2 
import random
import time
import requests
 
proxy_list=[]
 
def get_proxy_list():
    global proxy_list
    print "导入proxy_list...".decode('utf-8')
    #ip文件能够浏览我上文连接文章“多线程爬虫——抓取代理ip”
    f=open("ip.txt")
    #从文件中读取的line会有回车,要把\n去掉
    line=f.readline().strip('\n')
    while line:
        proxy_list.append(line)
        line=f.readline().strip('\n')
    f.close()
 
def start():
    #总次数和有效次数
    times=0
    finished_times=0
    #无限刷
    while 1:
        user_agent_list=[
            { 
 
   'Mozilla/5.0(compatible;MSIE9.0;WindowsNT6.1;Trident/5.0)'},
            { 
 
   'Mozilla/4.0(compatible;MSIE8.0;WindowsNT6.0;Trident/4.0)'},
            { 
 
   'Mozilla/4.0(compatible;MSIE7.0;WindowsNT6.0)'},
            { 
 
   'Opera/9.80(WindowsNT6.1;U;en)Presto/2.8.131Version/11.11'},
            { 
 
   'Mozilla/5.0(WindowsNT6.1;rv:2.0.1)Gecko/20100101Firefox/4.0.1'},
            { 
 
   'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/21.0.1180.71 Safari/537.1 LBBROWSER'},
            { 
 
   'Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; QQDownload 732; .NET4.0C; .NET4.0E)'},
            { 
 
   'Mozilla/5.0 (Windows NT 5.1) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.84 Safari/535.11 SE 2.X MetaSr 1.0'},
            { 
 
   'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Maxthon/4.4.3.4000 Chrome/30.0.1599.101 Safari/537.36'},  
            { 
 
   'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/38.0.2125.122 UBrowser/4.0.3214.0 Safari/537.36'} 
        ]
 
        referer_list=[
            { 
 
   'http://blog.csdn.net/dala_da/article/details/79401163'},
            { 
 
   'http://blog.csdn.net/'},
            { 
 
   'https://www.sogou.com/tx?query=%E4%BD%BF%E7%94%A8%E7%88%AC%E8%99%AB%E5%88%B7csdn%E8%AE%BF%E9%97%AE%E9%87%8F&hdq=sogou-site-706608cfdbcc1886-0001&ekv=2&ie=utf8&cid=qb7.zhuye&'},
            { 
 
   'https://www.baidu.com/s?tn=98074231_1_hao_pg&word=%E4%BD%BF%E7%94%A8%E7%88%AC%E8%99%AB%E5%88%B7csdn%E8%AE%BF%E9%97%AE%E9%87%8F'}
        ]
        #想要刷的blog的url
        url='http://blog.csdn.net/dala_da/article/details/79401163'
        #随机user_agent和Referer
        header={ 
 
   'User-Agent':random.choice(user_agent_list), 
                'Referer':random.choice(referer_list)
        }
        #依次从proxy_list中取
        ip=proxy_list[times%len(proxy_list)]
        #设置代理,格式以下
        proxy_ip = 'http://' + ip
        proxy_ips = 'https://' + ip
        proxy = { 
 
   'https': proxy_ips, 'http': proxy_ip}
    
        try:
            response=requests.get(url, headers=header, proxies=proxy)
        except:
            #无响应则print出该代理ip
            print '代理出问题啦:'.decode('utf-8')+proxy["https"]
            time.sleep(0.1)
        else:
            print ('已刷%d次,%s')%(finished_times+1,proxy["https"])
            time.sleep(random.random())
            finished_times+=1
 
        times+=1
        #每当全部的代理ip刷过一轮,延时15秒
        if not times%len(proxy_list):
            time.sleep(15)
 
if __name__=="__main__":
    get_proxy_list()
    start()

        上述的两个脚本是小菌在网上搜索到的,并亲自测试过,短时间内是没问题。但貌似目前已经被CSDN的服务端修复了,毕竟如今爬虫这么猖狂,反爬虫的技术也一直在升级!感兴趣的小伙伴们能够自行去测试,研究一下反爬机制哦~

反面教材

        说了那么多正面例子,让咱们来看看反面教材(小菌表示懒得打码了(▼ヘ▼#))。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
        虽然不是什么"正义人士",但本菌坚定抵制"标题党"们的这种行为,好好的CSDN口碑就是被这些人士给弄得乌烟瘴气的!

总结

        关于如何快速提升CSDN的访问量,本次的分享就到这里了,小伙伴们不妨去试试看啦(反面例子就不要去试了)~有什么疑惑或者好的建议欢迎评论区积极留言,小菌都会积极回复哒(๑╹◡╹)ノ"""喜欢的小伙伴们记得点赞关注小菌吖。点赞加关注,小白不迷路…
在这里插入图片描述

在这里插入图片描述

本文同步分享在 博客“Alice菌”(CSDN)。
若有侵权,请联系 support@oschina.cn 删除。
本文参与“OSC源创计划”,欢迎正在阅读的你也加入,一块儿分享。

相关文章
相关标签/搜索