1、juicessh
安卓端排名第一个免费SSH客户端(高级功能要收费)。
2、flutter_server_box
简约轻量,还带 webDAV 备份,还有探针功能,查看 docker 容器等等
https://github.com/lollipopkit/flutter_server_box?tab=readme-ov-file
1、juicessh
安卓端排名第一个免费SSH客户端(高级功能要收费)。
2、flutter_server_box
简约轻量,还带 webDAV 备份,还有探针功能,查看 docker 容器等等
https://github.com/lollipopkit/flutter_server_box?tab=readme-ov-file
MAS团队发布TSforge,一种强大的激活漏洞,可激活自Windows 7以来的所有版本,以及Office 2013以来的所有Office版本和Windows插件。该漏洞利用SPP(软件保护平台)的内部机制,绕过传统的激活验证,实现永久激活,甚至支持离线KMS激活数千年。
通过对Windows早期版本的逆向工程,研究团队发现了SPP的加密存储机制,并成功导出了用于加密和解密激活数据的私钥。利用这些私钥,他们可以修改和伪造激活信息,从而绕过SPP的保护。
TSforge激活无需联网,离线激活,激活范围广,所有windows版本都支持。
1、打开 PowerShell(不是 CMD)。为此,请右键单击 Windows 开始菜单,然后选择 PowerShell 或终端。
2、复制并粘贴以下代码,然后按 Enter
irm https://get.activated.win | iex
注意:杀毒软件可能会拦截,记得关闭杀毒软件才行(风险自担)。
以上文章仅做学习参考使用,谋利者后果自负!
项目地址:https://github.com/massgravel/Microsoft-Activation-Scripts
4、另一个中文汉化版:https://github.com/RipplePiam/MobaXterm-Chinese-Simplified
HAProxy端口转发优缺点
优点:工作在应用层,能用BBR,适合跨境和延迟高的网络。
缺点:仅支持TCP,无法转发UDP流量,高流量或复杂规则可能消耗较多CPU和内存,容易被DDoS攻击
安装默认版本
sudo apt-get update
sudo apt-get install haproxy -y
/etc/haproxy/haproxy.cfg
编辑配置文件:
sudo nano /etc/haproxy/haproxy.cfg
配置文件内容(简单设置,测试可用性):
global
log /dev/log local0
log /dev/log local1 notice
maxconn 10000 #最大并发连接数为10000
tune.bufsize 131072 #设置128KB缓存
tune.maxrewrite 2048 #每个缓冲区最大重写空间为2048字节
daemon
defaults
log global
option tcplog
timeout connect 3000ms #连接后端服务器的超时时间为 3 秒
timeout client 30000ms #客户端超时时间为 30 秒
timeout server 30000ms #服务器超时时间为 30 秒
frontend https_in
bind :543 transparent tfo # 支持透明代理获取真实IP,支持tfo快速连接
mode tcp
default_backend ocv_backend
backend ocv_backend
mode tcp
server ocv_local 127.0.0.1:443 check #目标服务器地址和端口
option splice-auto # 内核级零拷贝(Linux 4.5+)
加载配置文件,测试配置是否正确。
haproxy -c -f /etc/haproxy/haproxy.cfg
输出:Configuration file is valid
加载配置,启动服务:
sudo systemctl reload haproxy
systemctl status haproxy.service
重启以后会自动生效,同时内核只要开启了BBR,也会起作用。
高级设置 /etc/haproxy/haproxy.cfg:
global
log /dev/log local0
log /dev/log local1 notice # 日志输出到本地 syslog,local0/local1 为日志设施,notice 为日志级别
tune.bufsize 5376000 # 5.125M 全局缓冲区,计算公式BDP=带宽(Mbps)×RTT(s)/8
tune.rcvbuf.client 5376000 # 客户端接收缓冲区 5.125M(需内核支持)
tune.sndbuf.client 5376000 # 客户端发送缓冲区 5.125M(需内核支持)
tune.idle-pool.shared on # 启用共享空闲连接池(仅 HAProxy 2.4+ 有效,低版本需删除此行)
maxconn 10000 # 全局最大并发连接数(需配合 ulimit -n 调整)
tune.maxrewrite 2048 # 保留 2KB 缓冲区用于协议重写(默认值,无需修改)
ulimit-n 200000 # 设置 HAProxy 进程的文件描述符限制(需系统 systemd 配置支持)
stats socket /run/haproxy/admin.sock mode 660 level admin # 管理统计接口
defaults
mode tcp # 纯 TCP 服务
timeout connect 10s # 连接后端超时设为 10 秒(适应跨国高延迟)
timeout client 1h # 客户端空闲超时 1 小时(适合长连接)
timeout server 1h # 服务端空闲超时 1 小时(与客户端对称)
option tcplog # 记录 TCP 层日志(基础必需)
option tcpka # 启用 TCP Keep-Alive 保活(防中间设备断开)
option srvtcpka # 后端服务器也启用 Keep-Alive(必需与 tcpka 配合)
frontend oc_front
bind :543 transparent tfo # 透明代理+TFO(需配合 nftables TPROXY 和策略路由)
tcp-request content accept # 跳过内容检查,直接接受连接(适用于纯转发场景)
log /dev/log local2 # 独立日志标识符(方便过滤)
default_backend oc_back # 指向后端配置
backend oc_back
balance leastconn # 最少连接算法(适合 ocserv 长连接场景)
server oc1 127.0.0.1:443 check inter 3s fastinter 1s fall 2 rise 2 # 健康检查更敏感(快速剔除故障节点)
option splice-auto # 内核零拷贝(需 Linux 4.5+ 和 CONFIG_HAPROXY_SPLICE 编译支持)
在应用场景需要处理大量的流量和复杂的规则集,nftables完全运行在内核空间,减少了上下文切换的开销,性能和灵活性方面都优于iptables。
nftables端口转发的:
优点:基于内核,工作在传输层,转发效率高,适合内网和延迟低的网络。
缺点:不支持BBR拥堵算法(因为BBR工作在应用层)
流量走向:
客户端 -- A服务器 -- B服务器(落地) -- 目标 -- 返回B服务器(落地)
中转服务器IP:2.2.2.2 端口:2222
目标服务器IP:6.6.6.6 端口:6666
实现目的:把本机A服务器IP 2.2.2.2 上的 2222 端口流量转发到B服务器IP 6.6.6.6 的 6666 端口上
以下都在A服务器上操作,也就是转发服务器,白话就是线路好的服务器
首先在服务器上开启内核转发:
echo "net.ipv4.ip_forward=1" >> /etc/sysctl.conf
使其生效:
sysctl -p
1. 安装 nftables
确保系统已经安装 nftables。在大多数 Linux 发行版中可以通过以下命令安装(Debian12 已默认自带,不用额外安装):
apt install nftables # 对于 Debian/Ubuntu
yum install nftables # 对于 CentOS/RHEL
2. 启用并启动 nftables
确保 nftables 服务已启用并运行:
systemctl enable nftables
systemctl start nftables
3. 创建或编辑配置文件
编辑 nftables 配置文件,通常位于 sudo nano /etc/nftables.conf,或者创建一个新的配置文件。
以下是一个端口转发的配置示例:
#!/usr/sbin/nft -f
flush ruleset
table inet filter {
chain input {
type filter hook input priority 0;
ct state { established, related } accept
ct state invalid drop
# 按需添加其他输入规则(如允许 SSH)
}
chain forward {
type filter hook forward priority 0;
ct state { established, related } accept
ct state new accept # 允许新转发连接
ct state invalid drop
}
chain output {
type filter hook output priority 0;
ct state { established, related } accept
}
}
table ip forwardaws { # 修正表名拼写
chain prerouting {
type nat hook prerouting priority -100;
# 仅对新连接执行 DNAT
tcp dport 2222 ct state new dnat to 6.6.6.6:6666
udp dport 2222 ct state new dnat to 6.6.6.6:6666
} # 正确闭合 prerouting 链
chain postrouting {
type nat hook postrouting priority 100;
ip daddr 6.6.6.6 masquerade
}
}
4. 加载配置
保存文件后,通过以下命令加载配置:
nft -f /etc/nftables.conf
5. 验证规则
使用以下命令查看当前 nftables 规则是否正确加载:
nft list ruleset
prerouting 链:用于修改进入主机的数据包,适合端口转发。
postrouting 链:用于修改发出主机的数据包,通常用于地址伪装 (SNAT)。
B服务器(落地)
B服务器也就是落地服务器
转发多个端口代码如下:
中转服务器IP:2.2.2.2 端口:2222
目标服务器IP:6.6.6.6 端口:2222
目标服务器IP:8.8.8.8 端口:3333
#!/usr/sbin/nft -f
flush ruleset
table inet filter {
chain input {
type filter hook input priority 0;
ct state { established, related } accept;
ct state invalid drop;
# Allow SSH (example)
# tcp dport 22 accept;
}
chain forward {
type filter hook forward priority 0;
ct state { established, related } accept;
ct state new accept; # Allow new forwarded connections
ct state invalid drop;
}
chain output {
type filter hook output priority 0;
ct state { established, related } accept;
}
}
table ip forwardaws { # Corrected table name
chain prerouting {
type nat hook prerouting priority -100;
# DNAT rules (separate per port)
tcp dport 2222 ct state new dnat to 6.6.6.6:2222;
tcp dport 3333 ct state new dnat to 8.8.8.8:3333;
}
chain postrouting {
type nat hook postrouting priority 100;
ip daddr { 6.6.6.6, 8.8.8.8 } masquerade;
}
}
原始配置:
#!/usr/sbin/nft -f
flush ruleset
# 创建一个名为 "fowardaws" 的表,用于转发流量
table ip fowardaws {
# 在 prerouting 链中配置 DNAT(目的地址转换)
chain prerouting {
# 设置该链的类型为 NAT(网络地址转换),并在 prerouting 阶段生效
type nat hook prerouting priority -100; # priority -100 表示较早匹配规则
# 将本机也就是中转机2222端口流量转发到落地机IP(6.6.6.6)的6666端口上
tcp dport 2222 dnat to 6.6.6.6:6666
udp dport 2222 dnat to 6.6.6.6:6666
# 上述两行规则会将访问本机 2222 端口的 TCP/UDP 流量重定向到指定的远程服务器端口
}
# 在 postrouting 链中配置 SNAT(源地址转换)
chain postrouting {
# 设置该链的类型为 NAT,并在 postrouting 阶段生效
type nat hook postrouting priority 100; # priority 100 表示在路由后生效
# 使用 masquerade(伪装)机制,将流向(目的机器的ip) 的流量的源地址转换为本机的出站 IP 地址
ip daddr 6.6.6.6 masquerade
# masquerade 的效果是隐藏本地 IP,使目标服务器看到的是中转机的外网 IP,而非局域网 IP
}
}
宝塔(aapanel)-SSL重要BUG提醒
宝塔面板在没有测试所有BUG的情况下,更新了面板,导致SSL文件无法更新,所以建议不要 用官方的最新版。
破解版推荐如下:
宝塔国际版去广告永久免费开心(破解版)非实名制安装
##安装宝塔面板##
Centos全新安装命令:根据系统执行框内命令开始安装(大约2分钟完成面板安装)升级后可能需要重启面板
yum install -y wget && wget -O install.sh http://v7.hostcli.com/install/install_6.0.sh && sh install.sh
Ubuntu/Deepin全新安装命令:
wget -O install.sh http://v7.hostcli.com/install/install-ubuntu_6.0.sh && sudo bash install.sh
Debian全新安装命令:
wget -O install.sh http://v7.hostcli.com/install/install-ubuntu_6.0.sh && bash install.sh
建议大家使用Centos全新安装命令安装
只要系统不更新,就没那么多BUG
大小包?就是小包走优化路由,大包走垃圾路由。
比如一些亚太线路,经常是小包走的cmi,大包走lumen,一般测试回程脚本走的都是小包,结果就是小包路由走优化线路,大包路由走垃圾线路。
测试开始:
首先安装NextTrace,项目如下:
https://github.com/nxtrace/NTrace-V1
安装NextTrace:
curl nxtrace.org/nt |bash
广州联通
大包测试,发送1024k数据(也可以直接做更大测试,比如1024K数据):
nexttrace --tcp --psize 1024 157.148.58.29 -p 80
小包测试,发送12k数据:
nexttrace --tcp --psize 12 157.148.58.29 -p 80
广州电信
大包测试,发送1024k数据(也可以直接做更大测试,比如10240K数据):
nexttrace --tcp --psize 1024 14.116.225.60 -p 80
小包测试,发送12k数据:
nexttrace --tcp --psize 12 14.116.225.60 -p 80
深圳移动
大包测试,发送1024k数据(也可以直接做更大测试,比如1024K数据):
nexttrace --tcp --psize 1024 120.233.18.250 -p 80
小包测试,发送12k数据:
nexttrace --tcp --psize 12 120.233.18.250 -p 80
注意:包大小可以修改,测试ip也可以修改。
注意:必须是root用户,请使用sudo -i或在命令前添加sudo提权
查看当前的 net.ipv4.tcp_wmem 参数值(最好记录一下)
sysctl net.ipv4.tcp_wmem
查询当前使用的 TCP 拥塞控制算法
sysctl net.ipv4.tcp_congestion_control
查看当前的队列管理算法
tc qdisc show
如未启用bbr+fq,请使用以下命令开启
echo "net.ipv4.tcp_congestion_control=bbr" >> /etc/sysctl.conf
echo "net.core.default_qdisc=fq" >> /etc/sysctl.conf
sysctl -p
服务端Linux安装iperf3
在Debian/Ubuntu系统上安装
apt update
apt install iperf3
在CentOS/RHEL系统上安装
yum install epel-release
yum install iperf3
在Fedora系统上安装
dnf install iperf3
防火墙放行端口 (这里以ufw为例,如果你没有开启防火墙可略过这一步)
ufw allow 5201
服务端启动iperf3
iperf3 -s
你本地Windows机器安装iperf3(下载链接)
在windows打开CMD运行:
iperf3 -c 服务端IP -R -t 30
测试开始:
初次测试观察重传丢包情况:
计算新的参数: BDP = 客户机与服务器两边的最低带宽Mpbps * 1000 * 1000 * 客户机到服务器的延迟(单位:秒) / 8
举例:客户机器200M,服务器1000M,两者延迟180ms,那么计算值就是:200*1000*1000*0.18/8 = 4500000
带宽BDP值计算器1
带宽BDP值计算器2
带宽BDP值计算器3
延迟=你本地到服务器的延迟,或者你的目标客户到服务器的平均延迟
sysctl -w net.ipv4.tcp_wmem="4096 16384 计算出来地BDP值"
sysctl -w net.ipv4.tcp_rmem="4096 87380 同上"
应用新的值之后,再进行测试。
调整逻辑:
如果测试结果0重传或者个位数重传,可适当调大TCP缓冲区的最大值,比如上调2~4MiB;
如果测得的重传数较高,则需下调1~2MiB再进行测试;
0重传则上调,高重传则下调,如此反复,直到测速刚刚好能实现0重传或低重传 (100以内),在此基础上再下调0.5MiB或1MiB追求稳定,防止因网络高峰期而再度出现高重传。
优化目的:Retr为0,同时带宽能够跑到最大
注意:如果手动调整的wmem和rmem值无法减少Retr,就直接调整为自动自动调整值,代码如下。
echo "net.ipv4.tcp_moderate_rcvbuf = 1" | sudo tee -a /etc/sysctl.conf
sudo sysctl -p
大致流程:
调整为理论值后用iperf3测速发现0重传,执行下列命令(上调2~5MiB)
sysctl -w net.ipv4.tcp_wmem="4096 16384 理论值+3MiB"
sysctl -w net.ipv4.tcp_rmem="4096 87380 理论值+3MiB"
再次用iperf3测速发现高重传,执行下列命令(下调1~2MiB)
sysctl -w net.ipv4.tcp_wmem="4096 16384 理论值+2MiB"
sysctl -w net.ipv4.tcp_rmem="4096 87380 理论值+2MiB"
用iperf3测速发现0重传,这次可上调0.5MiB测试,发现恰好0重传,写入sysctl.conf
编辑系统内核文件
nano /etc/sysctl.conf
在文件中添加如下
net.ipv4.tcp_wmem = 4096 16384 你所测得的值
net.ipv4.tcp_rmem = 4096 87380 同上
保存并退出
Ctrl+o+Enter(回车)
Ctrl+x
使更改生效
sysctl -p
优化前:
优化后:
PPT 模板下载站,还有 Keynote 模板、Google Slides 模板、WordPress 主题、名片模板和图标,可按类别查看和搜索,模板质量非常高大上,免费下载,无需注册。
这个质量是真的好啊朋友们,经常做 PPT 的一定要收藏一下。
#压缩
在线文件压缩工具,适用于图片、音频、视频、PDF 和代码文件,可调整压缩等级,支持批量压缩,免费使用与下载,无需注册。
https://freecompress.com/zh-cn