lean的openwrt编译

源码地址:https://github.com/coolsnowwolf/lede

二次编译

cd lede                             进入LEDE目录
git pull                             同步更新大雕源码
./scripts/feeds update -a && ./scripts/feeds install -a     更新FEEDS
rm -rf ./tmp && rm -rf .config                  清除编译配置和缓存
make menuconfig                         进入编译配置菜单
make -jn V=s                           n=线程数+1,例如4线程的I5填-j5,开始编译

编译完成后固件输出在/lede/bin/targets

ADD

  • luci-app-advanced-reboot

  • luci-app-softethervpn

  • luci-app-hd-idle

  • Network ---> File Transfer ---> curl

  • Utilities ---> smartmontools

  • Base system --->busybox ----> Customize busybox options ---> Miscellaneous Utilities ---> hdparm :Support obtaining detailed information directly from drives & Get/set using_dma flag

  • Extra packages --->ipv6helper

DEL

  • luci-app-xlnetacc

  • luci-app-zerotier

  • luci-app-wifischedule

  • luci-app-vsftpd

  • luci-app-vlmcsd

  • luci-app-usb-printer

  • luci-app-unblockmusic

  • luci-app-transmission

  • luci-app-ddns

  • luci-app-sqm

  • Extra packages --->autocore

  • Utilities ---> coremark

  • Network ---> IP Addresses and Names ---> ddns-scripts_aliyun

群晖实时同步照片到google photos

由于目前linux系统同步到google photos的方案没有官方的API,唯一可用的gphotos-uploader-cli却不能通过“高质量”无限空间的方式上传,那可怜的15G空间肯定是不够用的,所以目前群晖同步到google photos还是通过VMM虚拟windows来实现。

虽然windows的google photos客户端能够通过网络驱动器smb读取群晖上的照片,但是这种方式文件量一大,新文件经常几天都不能上传成功,于是我想到一个折中的方案:
在win里面划分一个临时本地空间,20G,群晖通过inotify实时同步新照片到这个临时本地空间,google photos的客户端只监控这个临时本地空间,这样速度几乎是同时的。
临时本地空间通过win的定时任务删除30天之前的文件即可。

-- 阅读剩余部分 --

Windows下用canddy快速搭建webdav

一、 官网下载canddy

去官网下载canddy,插件选择http.webdav即可。

二、 编辑Caddyfile

新建文本文件Caddyfile:

192.168.1.100:8080 {
basicauth / username password
webdav / {
    scope D:/googlephoto   #需要显示的目录,绝对路径
    modify true  #修改为true表示有权编辑/修改文件
}

最后启动caddy,访问192.168.1.100:8080即可。

dd命令清除磁盘数据

1.先查看扇区数量和大小

root@ds3617xs:~# fdisk -l /dev/sda
Disk /dev/sda: 10 GiB, 10737418240 bytes, 20971520 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes

2.用DD写入数据0或随机值

root@ds3617xs:~# dd if=/dev/urandom of=/dev/sda bs=512 count=20971520
20971520+0 records in
20971520+0 records out
10737418240 bytes (11 GB) copied, 1793.47 s, 6.0 MB/s
root@ds3617xs:~#

/dev/urandom随机很慢,/dev/zero快一点。