博客
关于我
使用Travis+github+hexo持续部署博客项目
阅读量:124 次
发布时间:2019-02-26

本文共 1372 字,大约阅读时间需要 4 分钟。

一、github基本操作

  • 1、创建一个hexo_blog的项目

  • 2、生成一个个人账户的token(注意这个地方生成的token必须立刻复制,刷新页面就看不到了)

    点击右上角的头像settings—>Developer settings —> Personal access tokens—>genderate new token

二、使用hexo建站

  • 1、根据官网的步骤一步一步来
  • 2、生成一个项目提交到刚刚的github仓库中

三、使用travis持续部署项目

  • 1、Travis CI 提供的是持续集成服务(Continuous Integration,简称 CI)。它绑定 Github 上面的项目,只要有新的代码,就会自动抓取。然后,提供一个运行环境,执行测试,完成构建,还能部署到服务器
  • 2、持续集成指的是只要代码有变更,就自动运行构建和测试,反馈运行结果。确保符合预期以后,再将新代码集成到主干
  • 3、持续集成的好处在于,每次代码的小幅变更,就能看到运行结果,从而不断累积小的变更,而不是在开发周期结束时,一下子合并一大块代码
  • 4、Travis CI 只支持 Github,所以你要拥有GitHub帐号
  • 5、点击Sign in with GitHub按钮,使用github账户登录

  • 6、同步github上的项目

  • 7、同步设置刚刚github上生成的tokon

四、.travis.yml文件编写

  • 1、Travis 要求项目的根目录下面,必须有一个.travis.yml文件。这是配置文件,指定了 Travis 的行为

  • 2、该文件必须保存在 Github仓库里面,一旦代码仓库有新的 Commit,Travis就会去找这个文件,执行里面的命令

  • 3、这个文件采用 YAML 格式。下面是一个最简单的 Node 项目的.travis.yml文件

  • 4、language 字段指定了默认运行环境,

  • 5、node_js: “11” 表示不执行任何脚本,状态直接设为成功

  • 6、具体配置()

    language: node_jsnode_js:  - '11'install:  - npm installscript:  - hexo gafter_script:  - cd ./public  - git init  - git config user.name ${     USERNAME}  - git config user.email ${     UESREMAIL}  - git add -A  - git commit -m 'init'  - git push -u -f "https://${TOKEN}@github.com/${USERNAME}/hexo_blog" master:gh-pagesbranches:  only:    - master

五、修改hexo的配置文件

上面直接提交代码虽然可以自动发布,但是样式加载不出来

  • 1、修改_config.yml文件

    url: https://kuangshp.github.io/hexo_blog/root: /hexo_blog/

六、这样每次git提交代码travis就会自动帮你发布项目

七、查看静态站点地址(在github上打开项目的设置,往下翻)

转载地址:http://zevf.baihongyu.com/

你可能感兴趣的文章
NIFI大数据进阶_FlowFile拓扑_对FlowFile内容和属性的修改删除添加_介绍和描述_以及实际操作---大数据之Nifi工作笔记0023
查看>>
NIFI大数据进阶_Json内容转换为Hive支持的文本格式_操作方法说明_01_EvaluteJsonPath处理器---大数据之Nifi工作笔记0031
查看>>
NIFI大数据进阶_Kafka使用相关说明_实际操作Kafka消费者处理器_来消费kafka数据---大数据之Nifi工作笔记0037
查看>>
NIFI大数据进阶_Kafka使用相关说明_实际操作Kafka生产者---大数据之Nifi工作笔记0036
查看>>
NIFI大数据进阶_NIFI的模板和组的使用-介绍和实际操作_创建组_嵌套组_模板创建下载_导入---大数据之Nifi工作笔记0022
查看>>
NIFI大数据进阶_NIFI监控的强大功能介绍_处理器面板_进程组面板_summary监控_data_provenance事件源---大数据之Nifi工作笔记0025
查看>>
NIFI大数据进阶_NIFI集群知识点_认识NIFI集群以及集群的组成部分---大数据之Nifi工作笔记0014
查看>>
NIFI大数据进阶_NIFI集群知识点_集群的断开_重连_退役_卸载_总结---大数据之Nifi工作笔记0018
查看>>
NIFI大数据进阶_内嵌ZK模式集群1_搭建过程说明---大数据之Nifi工作笔记0015
查看>>
NIFI大数据进阶_外部ZK模式集群1_实际操作搭建NIFI外部ZK模式集群---大数据之Nifi工作笔记0017
查看>>
NIFI大数据进阶_实时同步MySql的数据到Hive中去_可增量同步_实时监控MySql数据库变化_操作方法说明_01---大数据之Nifi工作笔记0033
查看>>
NIFI大数据进阶_离线同步MySql数据到HDFS_01_实际操作---大数据之Nifi工作笔记0029
查看>>
NIFI大数据进阶_离线同步MySql数据到HDFS_02_实际操作_splitjson处理器_puthdfs处理器_querydatabasetable处理器---大数据之Nifi工作笔记0030
查看>>
NIFI大数据进阶_离线同步MySql数据到HDFS_说明操作步骤---大数据之Nifi工作笔记0028
查看>>
NIFI大数据进阶_连接与关系_设置数据流负载均衡_设置背压_设置展现弯曲_介绍以及实际操作---大数据之Nifi工作笔记0027
查看>>
NIFI数据库同步_多表_特定表同时同步_实际操作_MySqlToMysql_可推广到其他数据库_Postgresql_Hbase_SqlServer等----大数据之Nifi工作笔记0053
查看>>
NIFI汉化_替换logo_二次开发_Idea编译NIFI最新源码_详细过程记录_全解析_Maven编译NIFI避坑指南001---大数据之Nifi工作笔记0068
查看>>
NIFI汉化_替换logo_二次开发_Idea编译NIFI最新源码_详细过程记录_全解析_Maven编译NIFI避坑指南002---大数据之Nifi工作笔记0069
查看>>
NIFI集群_内存溢出_CPU占用100%修复_GC overhead limit exceeded_NIFI: out of memory error ---大数据之Nifi工作笔记0017
查看>>
NIFI集群_队列Queue中数据无法清空_清除队列数据报错_无法删除queue_解决_集群中机器交替重启删除---大数据之Nifi工作笔记0061
查看>>