首先解释一下数据库的版本是SQL Server 2012。清除的数据库800多G,磁盘空间就剩10多G,数据量最多的表有2亿。目的就是清楚去年的数据(2017年之前),遇到了一些问题,总结起来就是三方面问题: 1.如何清理日志文件。 2.删除千万级别的数据。 3.数据库的收缩操作。 一、清除日志文件 刚开始直接用delete语句删除给报了两次错误:“The transaction log for database 'DB' is full due t
Zabbix监控自身时告警“Zabbix value cache working in low memory mode”,出现这个问题是因为Zabbix Server的参数ValueCacheSize大小设置不合理。一般默认值为8M。 ### Option: ValueCacheSize# Size of history value cache, in bytes.# &
TCP/IP提供了通过IP地址来连接到设备的功能,但对用户来讲,记住某台设备的IP地址是相当困难的,因此专门设计了一种字符串形式的主机命名机制,这些主机名与IP地址相对应。在IP地址与主机名之间需要有一种转换和查询机制,提供这种机制的系统就是域名系统DNS(Domain Name System)。DNS使用一种有层次的命名方式,为网上的设备指定一个有意义的名字,并且在网络上设置域名解析服务器,建立域名与IP地址的对应关系。这样用户就可以使用便于记忆的、有意义的域名,而不必去记忆复杂的IP地址。D
如果出现以下报错[sda] Assuming drive cache: write throughInternal error xfs XFS_WANT_CORRUPTED_GOTO at line 1662 of file fs/xfs/libxfs/xfs_alloc.c Caller xfs_free_extent+0x130 [xfs]Internal error xfs_trans_cancel at line 990 of file fs/xfs/xfs_trans.c.Caller
net use \\共享IP地址\ipc$ 密码 /user:用户号码xcopy /e /H "E:\backup\nas" "\\共享IP地址\backupsql\"有时候,我们会遇到需要将本地文件定时复制到远程主机的情况。解决这个问题的思路是: 1、编写复制文件脚本 2、利用Windows计划任务定时执行脚本逻辑是简单的清楚的,但是在实际操作过程中,却可能有很多细节。脚本内容:net use \\net_ho