TSforge:颠覆Windows激活机制

MAS团队发布TSforge,一种强大的激活漏洞,可激活自Windows 7以来的所有版本,以及Office 2013以来的所有Office版本和Windows插件。该漏洞利用SPP(软件保护平台)的内部机制,绕过传统的激活验证,实现永久激活,甚至支持离线KMS激活数千年。

通过对Windows早期版本的逆向工程,研究团队发现了SPP的加密存储机制,并成功导出了用于加密和解密激活数据的私钥。利用这些私钥,他们可以修改和伪造激活信息,从而绕过SPP的保护。

TSforge激活无需联网,离线激活,激活范围广,所有windows版本都支持。
1、打开 PowerShell(不是 CMD)。为此,请右键单击 Windows 开始菜单,然后选择 PowerShell 或终端。
2、复制并粘贴以下代码,然后按 Enter

irm https://get.activated.win | iex

注意:杀毒软件可能会拦截,记得关闭杀毒软件才行(风险自担)。

以上文章仅做学习参考使用,谋利者后果自负!

项目地址:https://github.com/massgravel/Microsoft-Activation-Scripts

博客地址:https://massgrave.dev/blog/tsforge

使用HAProxy端口转发TCP流量(支持BBR)

HAProxy端口转发优缺点
优点:工作在应用层,能用BBR,适合跨境和延迟高的网络。
缺点:仅支持TCP,无法转发UDP流量,高流量或复杂规则可能消耗较多CPU和内存,容易被DDoS攻击

安装默认版本

sudo apt-get update
sudo apt-get install haproxy -y

/etc/haproxy/haproxy.cfg

编辑配置文件:

sudo nano /etc/haproxy/haproxy.cfg

配置文件内容(简单设置,测试可用性):


global
    log /dev/log local0
    log /dev/log local1 notice
    maxconn 10000                #最大并发连接数为10000
    tune.bufsize 131072          #设置128KB缓存
    tune.maxrewrite 2048         #每个缓冲区最大重写空间为2048字节
    daemon

defaults
    log     global
    option  tcplog
    timeout connect 3000ms      #连接后端服务器的超时时间为 3 秒
    timeout client  30000ms     #客户端超时时间为 30 秒
    timeout server  30000ms     #服务器超时时间为 30 秒

frontend https_in
    bind :543 transparent tfo   # 支持透明代理获取真实IP,支持tfo快速连接
    mode tcp
    default_backend ocv_backend

backend ocv_backend
    mode tcp
    server ocv_local 127.0.0.1:443 check    #目标服务器地址和端口
    option splice-auto          # 内核级零拷贝(Linux 4.5+)

加载配置文件,测试配置是否正确。

haproxy -c -f /etc/haproxy/haproxy.cfg 

输出:Configuration file is valid

加载配置,启动服务:


sudo systemctl reload haproxy
systemctl status haproxy.service 

重启以后会自动生效,同时内核只要开启了BBR,也会起作用。

高级设置 /etc/haproxy/haproxy.cfg:


global
    log /dev/log local0
    log /dev/log local1 notice   # 日志输出到本地 syslog,local0/local1 为日志设施,notice 为日志级别
    tune.bufsize 5376000          # 5.125M 全局缓冲区,计算公式BDP=带宽(Mbps)×RTT(s)/8
    tune.rcvbuf.client 5376000    # 客户端接收缓冲区 5.125M(需内核支持)
    tune.sndbuf.client 5376000    # 客户端发送缓冲区 5.125M(需内核支持)
    tune.idle-pool.shared on     # 启用共享空闲连接池(仅 HAProxy 2.4+ 有效,低版本需删除此行)
    maxconn 10000                # 全局最大并发连接数(需配合 ulimit -n 调整)
    tune.maxrewrite 2048         # 保留 2KB 缓冲区用于协议重写(默认值,无需修改)
    ulimit-n 200000              # 设置 HAProxy 进程的文件描述符限制(需系统 systemd 配置支持)
    stats socket /run/haproxy/admin.sock mode 660 level admin  # 管理统计接口

defaults
    mode tcp                     # 纯 TCP 服务
    timeout connect 10s          # 连接后端超时设为 10 秒(适应跨国高延迟)
    timeout client 1h            # 客户端空闲超时 1 小时(适合长连接)
    timeout server 1h            # 服务端空闲超时 1 小时(与客户端对称)
    option tcplog                # 记录 TCP 层日志(基础必需)
    option tcpka                 # 启用 TCP Keep-Alive 保活(防中间设备断开)
    option srvtcpka              # 后端服务器也启用 Keep-Alive(必需与 tcpka 配合)


frontend oc_front
    bind :543 transparent tfo    # 透明代理+TFO(需配合 nftables TPROXY 和策略路由)
    tcp-request content accept   # 跳过内容检查,直接接受连接(适用于纯转发场景)
    log /dev/log local2          # 独立日志标识符(方便过滤)
    default_backend oc_back      # 指向后端配置

backend oc_back
    balance leastconn            # 最少连接算法(适合 ocserv 长连接场景)
    server oc1 127.0.0.1:443 check inter 3s fastinter 1s fall 2 rise 2  # 健康检查更敏感(快速剔除故障节点)
    option splice-auto           # 内核零拷贝(需 Linux 4.5+ 和 CONFIG_HAPROXY_SPLICE 编译支持)

 

使用nftables配置端口转发

在应用场景需要处理大量的流量和复杂的规则集,nftables完全运行在内核空间,减少了上下文切换的开销,性能和灵活性方面都优于iptables。
nftables端口转发的:
优点:基于内核,工作在传输层,转发效率高,适合内网和延迟低的网络。
缺点:不支持BBR拥堵算法(因为BBR工作在应用层)

流量走向:

客户端 -- A服务器 -- B服务器(落地) -- 目标 -- 返回B服务器(落地)

中转服务器IP:2.2.2.2 端口:2222
目标服务器IP:6.6.6.6 端口:6666

实现目的:把本机A服务器IP 2.2.2.2 上的 2222 端口流量转发到B服务器IP 6.6.6.6 的 6666 端口上

A服务器

以下都在A服务器上操作,也就是转发服务器,白话就是线路好的服务器

首先在服务器上开启内核转发:

 echo "net.ipv4.ip_forward=1" >> /etc/sysctl.conf 

使其生效:

 sysctl -p 

1. 安装 nftables
确保系统已经安装 nftables。在大多数 Linux 发行版中可以通过以下命令安装(Debian12 已默认自带,不用额外安装):

 apt install nftables  # 对于 Debian/Ubuntu 
 yum install nftables  # 对于 CentOS/RHEL 

2. 启用并启动 nftables
确保 nftables 服务已启用并运行:

 systemctl enable nftables
systemctl start nftables 

3. 创建或编辑配置文件
编辑 nftables 配置文件,通常位于 sudo nano /etc/nftables.conf,或者创建一个新的配置文件。

以下是一个端口转发的配置示例:

 
#!/usr/sbin/nft -f

flush ruleset

table inet filter {
    chain input {
        type filter hook input priority 0;
        ct state { established, related } accept
        ct state invalid drop
        # 按需添加其他输入规则(如允许 SSH)
    }

    chain forward {
        type filter hook forward priority 0;
        ct state { established, related } accept
        ct state new accept  # 允许新转发连接
        ct state invalid drop
    }

    chain output {
        type filter hook output priority 0;
        ct state { established, related } accept
    }
}

table ip forwardaws {  # 修正表名拼写
    chain prerouting {
        type nat hook prerouting priority -100;

        # 仅对新连接执行 DNAT
        tcp dport 2222 ct state new dnat to 6.6.6.6:6666
        udp dport 2222 ct state new dnat to 6.6.6.6:6666
    }  # 正确闭合 prerouting 链

    chain postrouting {
        type nat hook postrouting priority 100;
        ip daddr 6.6.6.6 masquerade
    }
}

4. 加载配置
保存文件后,通过以下命令加载配置:

 nft -f /etc/nftables.conf 

5. 验证规则
使用以下命令查看当前 nftables 规则是否正确加载:

 nft list ruleset 

prerouting 链:用于修改进入主机的数据包,适合端口转发。
postrouting 链:用于修改发出主机的数据包,通常用于地址伪装 (SNAT)。
B服务器(落地)
B服务器也就是落地服务器

转发多个端口代码如下:
中转服务器IP:2.2.2.2 端口:2222
目标服务器IP:6.6.6.6 端口:2222
目标服务器IP:8.8.8.8 端口:3333


#!/usr/sbin/nft -f

flush ruleset

table inet filter {
    chain input {
        type filter hook input priority 0;
        ct state { established, related } accept;
        ct state invalid drop;
        # Allow SSH (example)
        # tcp dport 22 accept;
    }

    chain forward {
        type filter hook forward priority 0;
        ct state { established, related } accept;
        ct state new accept;  # Allow new forwarded connections
        ct state invalid drop;
    }

    chain output {
        type filter hook output priority 0;
        ct state { established, related } accept;
    }
}

table ip forwardaws {  # Corrected table name
    chain prerouting {
        type nat hook prerouting priority -100;

        # DNAT rules (separate per port)
        tcp dport 2222 ct state new dnat to 6.6.6.6:2222;
        tcp dport 3333 ct state new dnat to 8.8.8.8:3333;
    }

    chain postrouting {
        type nat hook postrouting priority 100;
        ip daddr { 6.6.6.6, 8.8.8.8 } masquerade;
    }
}

原始配置:

#!/usr/sbin/nft -f

flush ruleset

# 创建一个名为 "fowardaws" 的表,用于转发流量
table ip fowardaws {

    # 在 prerouting 链中配置 DNAT(目的地址转换)
    chain prerouting {
        # 设置该链的类型为 NAT(网络地址转换),并在 prerouting 阶段生效
        type nat hook prerouting priority -100;  # priority -100 表示较早匹配规则

        # 将本机也就是中转机2222端口流量转发到落地机IP(6.6.6.6)的6666端口上
        tcp dport 2222 dnat to 6.6.6.6:6666
        udp dport 2222 dnat to 6.6.6.6:6666
        # 上述两行规则会将访问本机 2222 端口的 TCP/UDP 流量重定向到指定的远程服务器端口
    }

    # 在 postrouting 链中配置 SNAT(源地址转换)
    chain postrouting {
        # 设置该链的类型为 NAT,并在 postrouting 阶段生效
        type nat hook postrouting priority 100;  # priority 100 表示在路由后生效

        # 使用 masquerade(伪装)机制,将流向(目的机器的ip) 的流量的源地址转换为本机的出站 IP 地址
        ip daddr 6.6.6.6 masquerade
        # masquerade 的效果是隐藏本地 IP,使目标服务器看到的是中转机的外网 IP,而非局域网 IP
    }
}

宝塔国际版去广告永久免费开心版

宝塔(aapanel)-SSL重要BUG提醒

宝塔面板在没有测试所有BUG的情况下,更新了面板,导致SSL文件无法更新,所以建议不要 用官方的最新版。

破解版推荐如下:
宝塔国际版去广告永久免费开心(破解版)非实名制安装
##安装宝塔面板##
Centos全新安装命令:根据系统执行框内命令开始安装(大约2分钟完成面板安装)升级后可能需要重启面板

yum install -y wget && wget -O install.sh http://v7.hostcli.com/install/install_6.0.sh && sh install.sh 

Ubuntu/Deepin全新安装命令:

wget -O install.sh http://v7.hostcli.com/install/install-ubuntu_6.0.sh && sudo bash install.sh 

Debian全新安装命令:

wget -O install.sh http://v7.hostcli.com/install/install-ubuntu_6.0.sh && bash install.sh 

建议大家使用Centos全新安装命令安装

只要系统不更新,就没那么多BUG

服务器线路大小包测试

大小包?就是小包走优化路由,大包走垃圾路由。
比如一些亚太线路,经常是小包走的cmi,大包走lumen,一般测试回程脚本走的都是小包,结果就是小包路由走优化线路,大包路由走垃圾线路。

测试开始:

首先安装NextTrace,项目如下:
https://github.com/nxtrace/NTrace-V1

安装NextTrace:

curl nxtrace.org/nt |bash

广州联通
大包测试,发送1024k数据(也可以直接做更大测试,比如1024K数据):

nexttrace --tcp --psize 1024 157.148.58.29 -p 80

小包测试,发送12k数据:

nexttrace --tcp --psize 12 157.148.58.29 -p 80

广州电信
大包测试,发送1024k数据(也可以直接做更大测试,比如10240K数据):

nexttrace --tcp --psize 1024 14.116.225.60 -p 80

小包测试,发送12k数据:

nexttrace --tcp --psize 12 14.116.225.60 -p 80

深圳移动
大包测试,发送1024k数据(也可以直接做更大测试,比如1024K数据):

nexttrace --tcp --psize 1024 120.233.18.250 -p 80 

小包测试,发送12k数据:

nexttrace --tcp --psize 12 120.233.18.250 -p 80 

注意:包大小可以修改,测试ip也可以修改。

使用iperf3对服务器进行TCP调整优化—减少丢包和0重传

注意:必须是root用户,请使用sudo -i或在命令前添加sudo提权

查看当前的 net.ipv4.tcp_wmem 参数值(最好记录一下)

 sysctl net.ipv4.tcp_wmem

查询当前使用的 TCP 拥塞控制算法

 sysctl net.ipv4.tcp_congestion_control

查看当前的队列管理算法

 tc qdisc show

如未启用bbr+fq,请使用以下命令开启

 echo "net.ipv4.tcp_congestion_control=bbr" >> /etc/sysctl.conf
echo "net.core.default_qdisc=fq" >> /etc/sysctl.conf
sysctl -p

服务端Linux安装iperf3
在Debian/Ubuntu系统上安装

 apt update
apt install iperf3

在CentOS/RHEL系统上安装

 yum install epel-release
yum install iperf3

在Fedora系统上安装

 dnf install iperf3

防火墙放行端口 (这里以ufw为例,如果你没有开启防火墙可略过这一步)

 ufw allow 5201

服务端启动iperf3
 iperf3 -s

你本地Windows机器安装iperf3(下载链接
在windows打开CMD运行:

 iperf3 -c 服务端IP -R -t 30

测试开始:
初次测试观察重传丢包情况:

计算新的参数: BDP = 客户机与服务器两边的最低带宽Mpbps * 1000 * 1000 * 客户机到服务器的延迟(单位:秒) / 8
举例:客户机器200M,服务器1000M,两者延迟180ms,那么计算值就是:200*1000*1000*0.18/8 = 4500000
带宽BDP值计算器1
带宽BDP值计算器2
带宽BDP值计算器3

延迟=你本地到服务器的延迟,或者你的目标客户到服务器的平均延迟

sysctl -w net.ipv4.tcp_wmem="4096 16384 计算出来地BDP值"
sysctl -w net.ipv4.tcp_rmem="4096 87380 同上"

应用新的值之后,再进行测试。

调整逻辑:
如果测试结果0重传或者个位数重传,可适当调大TCP缓冲区的最大值,比如上调2~4MiB;
如果测得的重传数较高,则需下调1~2MiB再进行测试;
0重传则上调,高重传则下调,如此反复,直到测速刚刚好能实现0重传或低重传 (100以内),在此基础上再下调0.5MiB或1MiB追求稳定,防止因网络高峰期而再度出现高重传。

优化目的:Retr为0,同时带宽能够跑到最大
注意:如果手动调整的wmem和rmem值无法减少Retr,就直接调整为自动自动调整值,代码如下。

echo "net.ipv4.tcp_moderate_rcvbuf = 1" | sudo tee -a /etc/sysctl.conf
sudo sysctl -p

大致流程:
调整为理论值后用iperf3测速发现0重传,执行下列命令(上调2~5MiB)

sysctl -w net.ipv4.tcp_wmem="4096 16384 理论值+3MiB"
sysctl -w net.ipv4.tcp_rmem="4096 87380 理论值+3MiB"

再次用iperf3测速发现高重传,执行下列命令(下调1~2MiB)

sysctl -w net.ipv4.tcp_wmem="4096 16384 理论值+2MiB"
sysctl -w net.ipv4.tcp_rmem="4096 87380 理论值+2MiB"

用iperf3测速发现0重传,这次可上调0.5MiB测试,发现恰好0重传,写入sysctl.conf
编辑系统内核文件

nano /etc/sysctl.conf

在文件中添加如下

net.ipv4.tcp_wmem = 4096 16384 你所测得的值
net.ipv4.tcp_rmem = 4096 87380 同上

保存并退出

Ctrl+o+Enter(回车)
Ctrl+x

使更改生效

sysctl -p

 

优化前:

优化后: