想要提高网站访问流量 文笔没有那么好 那么怎么办呢?
作为一个站长,在网站日常运营的时候,经常需要写一些软文,以提高网站访问流量,可是作为一个屌丝,文笔肯定没有那么好,想写点文章,可惜肚子里面没有墨水,这个时候,我们肯定想到转载抄袭他人的文章,这样做其实对seo的优化不好,因为不是原创,所以对seo并没有太大的用处,那么怎么办呢?
当然办法还是有的,网上有很多工具关于软文伪原创的工具,我也看了几个,貌似都要收费的,哎,屌丝程序员,没钱.......不过,屌丝的我会编程啊,会python啊...........然后就开始了.........
设计思路
首先,我想做的东西是:本地版的工具,读取txt文件,通过词性分析(动词,名词,代词等),然后提出一类多或多类词性,把他们转化成近义词,根据近义词的相似度,进行选取,然后在组合成新文章。
程序整体运行:扫描txt文件夹——>读取文件夹中所有txt的内容——>词性筛选近义词分析——>保存数据到新txt
这里呢,我准备选用jieba分词模块和synonyms近义词模块,当然在写程序前,我们应该安装一下这两个模块,jieba这个模块比较容易安装,synonyms这个模块比较大,在cmd中直接安装可能比较费劲,我是在pycharm中完成安装的。
模块的安装
第一步:文件夹扫描及txt读取模块编写
文件夹的扫描,非常容易就利用os模块对文件夹内所有文件扫描一遍,返回list,传递给读取模块进行文章读取,文章读取模块做的事情,就是把txt的中文章标题与内容进行返回,传递给下一个模块;
我这边每个txt的文件都是一样的格式,所以我文章读取模块这边的规则就是采用正则提取,如果你们有需要,可以根据txt内容进行规则改变就可以了;
txt文件的格式
扫描模块和读取模块
第二步:文章词性分析,近义词分析,语句重组模块编写
关于这一部分开发,需要用到两个模块,就是一开始安装的那两个模块,我先直接上代码:
首先是传入句子,通过结巴分词对他进行分词,返回分词信息和词性,然后我们按照一定规则过滤词性,对特定词性进行近义词的筛选,把他们的返回值加入到一个列表,最后把列表通过join()方法进行组合成一句话,后期我们只需要调用这个模块将每句话传入就可以了生成变形后的语句
第三步:txt写入模块编写
这一部分没有什么难点,就是直接将txt的写入到另一个文件
txt写入模块
第四步:逻辑运行入口编写
这个模块是整个程序的逻辑入口,我们首先使用扫描模块,遍历其返回值,依次读取txt文件,将txt文件内容传入到文章变形模块,最后调用txt写入模块,生成一个新的文件,当然新的文件中的内容是经过改变的。
总结
总的来说,效果还是很明显的,一个小工具也就是完成了
以上就是软文发稿网给大家分享的全部内容了。