在日常运维工作中,收集服务器日志几乎是每个运维人都绕不开的事。每次系统上线、排查故障、分析性能问题时,我们总要重复做这些操作:
- 上传日志收集脚本到目标服务器 
- 登录远程主机执行脚本 
- 查找并打包日志文件 
- 再将日志下载回本地分析 
这些操作虽然简单,却重复而琐碎。面对几十台甚至上百台服务器时,手动操作不仅效率低下,还容易出错。有没有一种方式,让我们一条命令就能搞定这一切?
答案就是 —— Ansible自动化剧本!

✅ 日志收集的自动化诉求
设想这样一个场景:
你需要批量收集多台服务器上的日志,用于故障排查或审计分析。手动操作不仅繁琐,而且不具备可重复性,还浪费大量时间。
那么,我们的目标就非常明确了:
用一条 Ansible 剧本命令,实现日志收集全流程:上传脚本、远程解压、执行脚本、拉取日志到本地。
? 环境准备
- 一台已配置好的 Ansible 控制节点; 
- 能通过SSH无密码访问的目标主机清单; 
- 一个日志收集脚本(比如打包 nginx、systemd 等日志); 
- Ansible剧本文件。 
? 项目目录结构
ansible-log-collector/
├── collect_logs.yml # 主剧本
├── files/
│ └── collect_logs.tar.gz # 日志收集脚本压缩包
├── hosts.ini # 目标主机清单
? 主剧本内容详解
以下是核心剧本 collect_logs.yml 的示例内容,一步步实现我们的目标:
-name: 一键收集服务器日志
hosts: all
become: yes
become
vars:
remote_dir: /tmp/logs_collect
archive_name: logs_output.tar.gz
tasks:
-name: 创建远程日志目录
file:
path:"{{ remote_dir }}"
state: directory
mode:'0755'
-name: 上传日志收集脚本包
copy:
src: files/collect_logs.tar.gz
dest:"{{ remote_dir }}/collect_logs.tar.gz"
-name: 解压收集脚本
unarchive:
src:"{{ remote_dir }}/collect_logs.tar.gz"
dest:"{{ remote_dir }}"
remote_src: yes
-name: 执行日志收集脚本
shell:"bash {{ remote_dir }}/collect_logs.sh {{ remote_dir }}/{{ archive_name }}"
args:
executable: /bin/bash
-name: 下载日志压缩包到本地
fetch:
src:"{{ remote_dir }}/{{ archive_name }}"
dest: ./downloaded_logs/
flat: yes
? 日志收集脚本示例
脚本逻辑可以根据你实际需要自定义,下面是一个示例,打包了 nginx 日志和系统日志:
#!/bin/bash
output_file=$1
# 收集常用日志目录
tar-czf"$output_file" /var/log/nginx /var/log/syslog 2>/dev/null
echo"日志收集完成,输出文件:$output_file"
您可以根据实际需要, 将上面提到的/var/log/syslog替换为/var/log/messages或/var/log/journal,或者选择其他符合您需求的日志文件路径。
? 一条命令搞定收集
准备好剧本和脚本后,只需在控制节点上执行:
ansible-playbook -i hosts.ini collect_logs.yml
执行完毕后,所有目标主机的日志压缩包就会被自动拉取到你本地的./downloaded_logs/目录下。是不是很丝滑!
? 自动化带来的优势
? 进阶玩法建议
- 支持按业务分组收集不同类型日志; 
- 脚本中加入日志切割、按日期命名; 
- 结合 Jenkins 定时执行,打造一套定期自动归档系统; 
- 增加校验机制,确保日志传输完整性(如 MD5 校验)。 
? 写在最后
别再把宝贵的时间浪费在重复搬砖上了!只要简单几步,就能把日志收集这件麻烦事彻底自动化,解放双手、提升效率才是运维该有的样子。
希望这套Ansible自动化日志收集方案对你有所启发。
本文链接:https://kinber.cn/post/5176.html 转载需授权!
推荐本站淘宝优惠价购买喜欢的宝贝:

 支付宝微信扫一扫,打赏作者吧~
支付宝微信扫一扫,打赏作者吧~

 
        