1 引言
该论文是关于神经网络鲁棒性理论类的文章。类似有Sigmoid激活函数的神经网络,由于其非线性,使得在进行神经网络鲁棒验证评估时,不可避免地会引入了不精确性。当前的一个研究方向是寻找更严格的近似值以获得更精确的鲁棒验证结果。然而,现有的紧密度定义是启发式的,缺乏理论基础。在该论文中,作者对现有的神经元紧密度表征进行了全面的实证分析,并揭示它们仅在特定的神经网络上具有优势。另外,作者基于神经网络紧密度的概念重新提出了一个统一的神经网络紧密度定义,并表明计算神经网络紧密度是一个复杂的非凸优化问题。为了能够更好地理解该论文原理,文末给出了论文中一些原理示例的相关代码。
论文链接:https://arxiv.org/abs/2208.09872
2 预备知识
神经网络是遵循逐层传播的,输入层上的每个神经元都接受一个输入值,该输入值乘以权重系数,然后传递给下一层的后续神经元。所有传入的数字相加。总和被馈送到激活函数 σ \sigma σ,并且 σ \sigma σ的输出与偏差 b b b相加。然后将结果传播到下一层,直到到达输出层。
给定一个 k k k层神经网络 f : R n → R m f:\mathbb{R}^n\rightarrow \mathbb{R}^m f:Rn→Rm,即 f k ∘ σ k − 1 ∘ ⋯ ∘ σ 1 ∘ f 1 f^k\circ \sigma^{k-1}\circ\cdots\circ\sigma^1\circ f^1 fk∘σk−1∘⋯∘σ1∘f1,其中 σ t \sigma^t σt是一个第 t t t层非线性可微激活函数。 f t f^t ft可以是仿射变换或卷积操作中的其中一个: f ( x ) = W x + b , ( A f f i n e T r a n s f o r m a t i o n ) f ( x ) = W ∗ x + b , ( C o n v o l u t i o n a l O p e r a t i o n ) \begin{array}{lr}f(x)=W x + b, &(\mathrm{Affine\text{ } Transformation})\\f(x)=W * x + b, &(\mathrm{Convolutional \text{ } Operation}) \end{array} f(x)=Wx+b,f(x)=W∗x+b,(Affine Transformation)(Convolutional Operation)其中 W W W, b b b和 ∗ * ∗分别表示权重矩阵,偏置向量和卷积操作。在该论文中,作者主要关注的是 S i g m o i d \mathrm{Sigmoid} Sigmoid, T a n h \mathrm{Tanh} Tanh和 A r c t a n \mathrm{Arctan} Arctan的激活函数如下所示: σ ( x ) = 1 1 + e − x , σ ( x ) = T a n h ( x ) = e x − e − x e x + e − x , σ ( x ) = a r c t a n − 1 ( x ) = A r c t a n ( x ) \sigma(x)=\frac{1}{1+e^{-x}},\quad \sigma(x)=\mathrm{Tanh}(x)=\frac{e^x-e^{-x}}{e^x+e^{-x}},\quad \sigma(x)=\mathrm{arctan}^{-1}(x)=\mathrm{Arctan}(x) σ(x)=1+e−x1,σ(x)=Tanh(x)=ex+e−xex−e−x,σ(x)=arctan−1(x)=Arctan(x) 神经网络 f f f的输出是一个 m m m维的值为 0 0 0到 1 1 1之间的向量,每一个维度其对应的是属于该类别的概率。令 S S S是一个 m m m类分类标签集合, L ( f ( x ) ) \mathcal{L}(f(x)) L(f(x))表示的是输入 x x x的输出标签 L ( f ( x ) ) = arg max s ∈ S f ( x ) [ s ] \mathcal{L}(f(x))=\arg\max\limits_{s \in \mathcal{S}}f(x)[s] L(f(x))=args∈Smaxf(x)[s]上公式直观地发现, L ( f ( x ) ) \mathcal{L}(f(x)) L(f(x))返回了一个集合 S S S中的标签 s s s, f ( x ) [ s ] f(x)[s] f(x)[s]是个输出向量中最大值。
因为神经网络本质上是由计算机通过根据训练数据微调网络中的权重而组成的“程序”。与程序员开发的手工程序不同,神经网络缺乏形式化表示,几乎无法解释,这使得形式化和验证其属性非常具有挑战性。如果对神经网络的输入的合理扰动不会改变分类结果,则神经网络该扰动是鲁棒的。扰动通常通过扰动输入 x x x和原始输入 x x x之间的距离来测量,使用 ℓ p \ell_p ℓp范数来表示,其中 p p p可以是 1 1 1、 2 2 2或 ∞ \infty ∞。一般的情况情况下,使用的度量范数是 ℓ ∞ \ell_\infty ℓ∞。
神经网络的鲁棒性可以通过界 ϵ \epsilon ϵ进行量化截断, ϵ \epsilon ϵ是一个安全的扰动距离,使得任何低于 ϵ \epsilon ϵ的扰动都具有与神经网络的原始输入相同的分类结果。
验证 f f f的鲁棒性有如下两个问题:
- 需要证明对于每个 x x x满足 ∥ x − x 0 ∥ p ≤ ϵ \|x − x_0\|_p \le \epsilon ∥x−x0∥p≤ϵ,则有 f s 0 ( x ) − f s ( x ) > 0 f_{s_0}(x)-f_s(x)>0 fs0(x)−fs(x)>0其中对于每个 s ∈ S − { s 0 } s\in \mathcal{S} − \{s_0\} s∈S−{s0}成立,其中 𝑠 0 = L ( f ( x 0 ) ) 𝑠_0 = \mathcal{L}(f(x_0)) s0=L(f(x0)),且 f s ( x ) f_s(x) fs(x)返回概率 P ( L ( f ( x ) ) = s ) P(\mathcal{L}(f(x)) = s) P(L(f(x))=s),即将 x x x分类到类别 s s s中;
- 计算可验证的下界,一个大的可验证的下界意味着更精确的鲁棒性验证结果。由于约束的非线性,会导致直接计算 ϵ \epsilon ϵ很困难,大多数最先进的方法都采用高效的二分搜索算法。
由于包含非线性激活函数,所以神经网络 f f f是高度非线性的。证明公式 f s 0 ( x ) − f s ( x ) > 0 f_{s_0}(x)-f_s(x)>0 fs0(x)−fs(x)>0的计算成本很高,即使对于最简单的全连接 R e L U \mathrm{ReLU} ReLU网络也是NP-hard的。目前已经研究了许多方法来提高验证效率的,但同时也牺牲了完整性。具有代表性的方法包括区间分析、解释中的抽象和输出范围估计等。这些方法的基础技术是使用线性约束来过度逼近非线性激活函数,这可以比原始约束更有效地解决计算复杂度的问题。基于近似的方法不是直接证明公式 f s 0 ( x ) − f s ( x ) > 0 f_{s_0}(x)-f_s(x)>0 fs0(x)−fs(x)>0,而是通过两个线性约束过度近似 f s 0 ( x ) f_{s_0}(x) fs0(x)和 f s ( x ) f_s(x) fs(x),并证明 f s 0 ( x ) f_{s_0}(x) fs0(x)的线性下界 f L , s 0 ( x ) f_{L,s_0}(x) fL,s0(x)是大于 f s ( x ) f_s(x) fs(x)的线性上界 f U , s ( x ) f_{U,s}(x) fU,s(x)。显然, f L , s 0 ( x ) − f U , s ( x ) > 0 f_{L,s_0}(x)-f_{U,s}(x)>0 fL,s0(x)−fU,s(x)>0是公式 f s 0 ( x ) − f s ( x ) > 0 f_{s_0}(x)-f_s(x)>0 fs0(x)−fs(x)>0的充分条件,证明或反证的效率明显更高。
使用线性上下界过度逼近非线性激活函数是神经网络逼近的关键。对于区间 [ l , u ] [l,u] [l,u]上的每个激活函数 σ \sigma σ,作者定义了一个线性上界 h U h_U hU和一个线性下界 h L h_L hL以确保对于区间 [ l , u ] [l,u] [l,u]中的所有 x x x,使得 σ ( x ) \sigma(x) σ(x)包含在 [ h L ( x ) , h U ( x ) ] [h_L(x), h_U(x)] [hL(x),hU(x)]。给定定义 1中的输入范围,网络的输出范围是通过传播每个网络的输出区间来计算的定义2中的神经元到输出层。
如下图所示考虑一个简单基于近似验证神经网络的示例,最初的验证问题是证明对于任何输入 ( x 1 , x 2 ) (x_1,x_2) (x1,x2),其中 x 1 ∈ [ − 1 , 1 ] x_1\in[-1,1] x1∈[−1,1]和 x 2 ∈ [ − 1 , 1 ] x_2\in[-1,1] x2∈[−1,1],它总是被分类为神经元标签 x 5 x_5 x5。这相当于证明辅助神经元的输出$x_7 = (x_5 −x_6) $总是大于 0 0 0。作者定义线性上/下界 x U , 3 , x L , 3 x_{U,3}, x_{L,3} xU,3,xL,3和 x U , 4 , x L , 4 x_{U,4}, x_{L,4} xU,4,xL,4分别近似神经元 x 3 x_3 x3和 x 4 x_4 x4。由上图可知, x L , 5 − x U , 6 x_{L,5}-x_{U,6} xL,5−xU,6的输出区间为 [ 0.177 , 5.817 ] [0.177, 5.817] [0.177,5.817],从而证明网络对所有输入在 [ − 1 , 1 ] × [ − 1 , 1 ] [−1, 1] \times [−1, 1] [−1,1]×[−1,1]区间中是鲁棒的。
需要注意的是也可以考虑由一系列线段组成的分段线性边界来更紧密地逼近激活函数。然而,这种分段方式会导致约束的数量在逐层传播时呈指数级增长。这将大大降低验证的可扩展性。因此,使用一个线性上界和一个线性下界逼近激活函数是基于逼近的鲁棒性验证方法的最有效和广泛采用的选择。
3 神经网络紧密近似
在更严格的近似会产生更精确的验证结果的假设下,现有的紧密度表征是一种启发式的方法。但现有例子表明这个假设并不总是成立。这意味着定义每个单独神经元的紧密度对于实现紧密近似既不充分也不必要。那是因为神经元上的紧密度不能保证神经网络的输出间隔总是精确的。但是,输出区间是判断网络是否鲁棒的基础。为了表征神经网络中激活函数的近似紧密度,作者引入了神经网络紧密度的概念,确保通过对激活函数的网络方式更紧密的逼近,使得神经网络产生更精确的输出间隔,从而产生更精确的验证结果。
证明: 令 s 0 = L ( f ( x 0 ) ) s_0=\mathcal{L}(f(x_0)) s0=L(f(x0))有固定的扰动 ϵ \epsilon ϵ。需要验证对于任意 s s s有以下不等式成立
min x ∈ B p ( x 0 , ε ) f L , s 0 ( x ) > max x ∈ B p ( x 0 , ε ) f U , s ( x ) \min\limits_{x\in\mathbb{B}_p(x_0,\varepsilon)} f_{L,s_0}(x)>\max\limits_{x\in\mathbb{B}_p(x_0,\varepsilon)}f_{U,s}(x) x∈Bp(x0,ε)minfL,s0(x)>x∈Bp(x0,ε)maxfU,s(x)根据定义3可知,可得以下不等式 min x ∈ B p ( x 0 , ε ) f L , s 0 ( x ) ≥ min x ∈ B p ( x 0 , ε ) f ^ L , s 0 ( x ) > max x ∈ B p ( x 0 , ε ) f ^ U , s ( x ) ≥ max x ∈ B p ( x 0 , ε ) f U , s ( x ) \min\limits_{x\in\mathbb{B}_p(x_0,\varepsilon)} f_{L,s_0}(x)\ge \min\limits_{x\in\mathbb{B}_p(x_0,\varepsilon)} \hat{f}_{L,s_0}(x)>\max\limits_{x\in\mathbb{B}_p(x_0,\varepsilon)} \hat{f}_{U,s}(x)\ge \max\limits_{x\in\mathbb{B}_p(x_0,\varepsilon)} f_{U,s}(x) x∈Bp(x0,ε)minfL,s0(x)≥x∈Bp(x0,ε)minf^L,s0(x)>x∈Bp(x0,ε)maxf^U,s(x)≥x∈Bp(x0,ε)maxfU,s(x)显然可知 ( f L , f U ) (f_L,f_U) (fL,fU)是比 ( f ^ L , f ^ U ) (\hat{f}_L,\hat{f}_U) (f^L,f^U)更紧密的近似。
给定一个 k k k层神经网络 f : R n → R m f:\mathbb{R}^n \rightarrow \mathbb{R}^m f:Rn→Rm,使用 ϕ t \phi_t ϕt来表示在应用第 t t t个激活函数之前 f f f层的复合函数,即 ϕ t = f t ∘ σ t − 1 ∘ f t − 1 ∘ ⋯ ∘ σ 1 ∘ f 1 \phi^t = f^t \circ \sigma^{t-1}\circ f^{t-1}\circ \cdots \circ \sigma^1 \circ f^1 ϕt=ft∘σt−1∘ft−1∘⋯∘σ1∘f1第 t t t层有 n t n^t nt个神经元, ϕ r t ( x ) \phi^t_r(x) ϕrt(x)表示输出的第 r r r个元素。对于每个激活函数 σ ( x ) , x ∈ [ l , u ] \sigma(x),x\in[l,u] σ(x),x∈[l,u],其上和下线性界分别为 h U ( x ) = α U x + β U h_U(x)=\alpha_Ux+\beta_U hU(x)=αUx+βU和 h L ( x ) = α L x + β L h_L(x)=\alpha_Lx+\beta_L hL(x)=αLx+βL。然后可以将计算神经网络最紧密近似的问题形式化为以下优化问题: max ( min x ∈ B ∞ ( x 0 , ϵ ) ( A L , s k x + B L , s k ) ) min ( max x ∈ B ∞ ( x 0 , ϵ ) ( A U , s k x + B U , s k ) ) s . t . ∀ r ∈ Z , 1 ≤ r ≤ n t , ∀ t ∈ Z , 1 ≤ t < k \begin{aligned}&\max\left(\min\limits_{x\in \mathbb{B}_\infty(x_0,\epsilon)}(A^k_{L,s}x+B^k_{L,s})\right)\\&\min\left(\max\limits_{x\in \mathbb{B}_\infty(x_0,\epsilon)}(A^k_{U,s}x+B^k_{U,s})\right)\\&\mathrm{s.t.}\quad \forall r\in \mathbb{Z},1\le r\le n^t,\forall t\in \mathbb{Z},1\le t<k\end{aligned} max(x∈B∞(x0,ϵ)min(AL,skx+BL,sk))min(x∈B∞(x0,ϵ)max(AU,skx+BU,sk))s.t.∀r∈Z,1≤r≤nt,∀t∈Z,1≤t<k { a L , r t z r t + β L , r t ≤ σ min x ∈ B ∞ ( x 0 , ϵ ) A L , r t x + B L , r t ≤ z r t ≤ max x ∈ B ∞ ( x 0 , ϵ ) A U , r t x + B U , r t \left\{\begin{aligned}&a^t_{L,r}z_r^t +\beta^t_{L,r}\le \sigma\\&\min\limits_{x\in\mathbb{B}_\infty(x_0,\epsilon)}A^t_{L,r}x+B^t_{L,r}\le z^t_r \le \max\limits_{x\in\mathbb{B}_\infty(x_0,\epsilon)}A_{U,r}^t x+B^t_{U,r}\end{aligned}\right. ⎩ ⎨ ⎧aL,rtzrt+βL,rt≤σx∈B∞(x0,ϵ)minAL,rtx+BL,rt≤zrt≤x∈B∞(x0,ϵ)maxAU,rtx+BU,rt其中 A L , r t x + B L , r t A^t_{L,r}x+B^t_{L,r} AL,rtx+BL,rt和 A U , r t x + B U , r t A^t_{U,r}x+B^t_{U,r} AU,rtx+BU,rt分别表示 ϕ r t ( x ) \phi^t_r(x) ϕrt(x)的上下界,且 A L , r t A^t_{L,r} AL,rt, A U , r t A^t_{U,r} AU,rt, B L , r t B^t_{L,r} BL,rt和 B U , r t B^t_{U,r} BU,rt表示定义在权重 W t W^t Wt和偏置 b t b^t bt的常数值,具体的定义如下所示: A L , r t = { W r t , t = 1 W ≥ 0 t α L t − 1 ⊙ A L t − 1 + W < 0 , r t α U t − 1 ⊙ A L t − 1 , t ≥ 2 A^t_{L,r}=\left\{\begin{array}{lr}W^t_r,&t=1\\W^t_{\ge 0}\alpha^{t-1}_L \odot A^{t-1}_L+W^t_{<0,r}\alpha_U^{t-1}\odot A^{t-1}_L,&t \ge 2\end{array}\right. AL,rt={Wrt,W≥0tαLt−1⊙ALt−1+W<0,rtαUt−1⊙ALt−1,t=1t≥2 B L , r t = { b r t , t = 1 W ≥ 0 , r t ( α L t − 1 ⊙ B L t − 1 + β L t − 1 ) + W < 0 , r t ( α U t − 1 ⊙ B L t − 1 ⊙ + β L t − 1 ) + b r t , t ≥ 2 B_{L,r}^t=\left\{\begin{array}{lr}b_r^t,&t=1\\W_{\ge 0,r}^t(\alpha^{t-1}_L\odot B^{t-1}_L+\beta_L^{t-1})+&\\W^{t}_{<0,r}(\alpha_U^{t-1}\odot B^{t-1}_L\odot+\beta^{t-1}_L)+b_r^t,&t \ge 2\end{array}\right. BL,rt=⎩ ⎨ ⎧brt,W≥0,rt(αLt−1⊙BLt−1+βLt−1)+W<0,rt(αUt−1⊙BLt−1⊙+βLt−1)+brt,t=1t≥2 A U , r t = { W r t , t = 1 W ≥ 0 t α U t − 1 ⊙ A U t − 1 + W < 0 , r t α L t − 1 ⊙ A U t − 1 , t ≥ 2 A^t_{U,r}=\left\{\begin{array}{lr}W^t_r,&t=1\\W^t_{\ge 0}\alpha^{t-1}_U \odot A^{t-1}_U+W^t_{<0,r}\alpha_L^{t-1}\odot A^{t-1}_U,&t \ge 2\end{array}\right. AU,rt={Wrt,W≥0tαUt−1⊙AUt−1+W<0,rtαLt−1⊙AUt−1,t=1t≥2 B L , r t = { b r t , t = 1 W ≥ 0 , r t ( α U t − 1 ⊙ B U t − 1 + β U t − 1 ) + W < 0 , r t ( α L t − 1 ⊙ B U t − 1 ⊙ + β U t − 1 ) + b r t , t ≥ 2 B_{L,r}^t=\left\{\begin{array}{lr}b_r^t,&t=1\\W_{\ge 0,r}^t(\alpha^{t-1}_U\odot B^{t-1}_U+\beta_U^{t-1})+&\\W^{t}_{<0,r}(\alpha_L^{t-1}\odot B^{t-1}_U\odot+\beta^{t-1}_U)+b_r^t,&t \ge 2\end{array}\right. BL,rt=⎩ ⎨ ⎧brt,W≥0,rt(αUt−1⊙BUt−1+βUt−1)+W<0,rt(αLt−1⊙BUt−1⊙+βUt−1)+brt,t=1t≥2需要注意的是,以上优化形式可能无法保证单个激活函数的近似值相对于现有的紧密度定义是最紧密的。
4 近似单隐层网络
对于单层网络,优化问题可以进一步简化如下:
max ( min x ∈ B ∞ ( x 0 , ϵ ) ( A L , s x + B L , s ) ) , min ( max x ∈ B ∞ ( x 0 , ϵ ) ( A U , s x + B U , s ) ) \max\left(\min\limits_{x\in\mathbb{B}_\infty(x_0,\epsilon)}(A_{L,s}x+B_{L,s})\right),\quad \min\left(\max\limits_{x\in\mathbb{B}_\infty(x_0,\epsilon)}(A_{U,s}x+B_{U,s})\right) max(x∈B∞(x0,ϵ)min(AL,sx+BL,s)),min(x∈B∞(x0,ϵ)max(AU,sx+BU,s)) s . t . { α L , r z r + β L , r ≤ σ ( z r ) ≤ α U , r z r + β U , r , min x ∈ B ∞ ( x 0 , ϵ ) W 1 x + b 1 ≤ z r ≤ max x ∈ B ∞ ( x 0 , ϵ ) W 1 x + b 1 , ∀ r ∈ Z , 1 ≤ r ≤ n . \mathrm{s.t.}\text{ } \left\{\begin{aligned}&\alpha_{L,r}z_r+\beta_{L,r}\le \sigma(z_r)\le \alpha_{U,r}z_r+\beta_{U,r},\\&\min\limits_{x\in\mathbb{B}_\infty(x_0,\epsilon)}W^1 x+b^1 \le z_r \le\max\limits_{x\in\mathbb{B}_\infty(x_0,\epsilon)}W^1x+b^1, \\&\forall r \in \mathbb{Z},\quad 1\le r\le n.\end{aligned}\right. s.t. ⎩ ⎨ ⎧αL,rzr+βL,r≤σ(zr)≤αU,rzr+βU,r,x∈B∞(x0,ϵ)minW1x+b1≤zr≤x∈B∞(x0,ϵ)maxW1x+b1,∀r∈Z,1≤r≤n.其中 A L , s = W ≥ 0 , s 2 ( α L ⊙ W 1 ) + W < 0 , s 2 ( α U ⊙ W 1 ) A_{L,s}=W^2_{\ge 0,s}(\alpha_L \odot W^1)+W^2_{<0,s}(\alpha_U \odot W^1) AL,s=W≥0,s2(αL⊙W1)+W<0,s2(αU⊙W1), B L , s = W ≥ 0 , s 2 ( α L ⊙ b 1 + β L ) + W < 0 , s 2 ( α U ⊙ b 1 + β U ) + b s 2 B_{L,s}=W^2_{\ge 0,s}(\alpha_L\odot b^1+\beta_L)+W^2_{<0,s}(\alpha_U\odot b^1+\beta_U)+b^2_s BL,s=W≥0,s2(αL⊙b1+βL)+W<0,s2(αU⊙b1+βU)+bs2, n n n表示的是隐层的数量。优化问题是一个凸变体,因此可以通过利用基于梯度下降的搜索算法来求解该问题,以下算法流程图为计算单隐层近似相关算法的伪代码。对于隐层神经元上的每个激活函数,首先确定穿过两个端点的线 ω \omega ω可以是上线性界还是下线性界。然后选择激活函数的切线作为上线性界或下线性界,其截断点可以是优化变量。最后用梯度下降法去优化目标函数,并进一步更新系数 α L \alpha_L αL, α U \alpha_U αU, β L \beta_L βL和 β U \beta_U βU。
对于具有两个或更多隐层的神经网络,由于其非凸性使得求解相关的优化问题而变得不切实际。对于任何隐藏层,激活函数的输入间隔都受到前一个隐藏层激活函数的近似值的约束。在该论文中,作者提出了可计算的神经元最紧密近似,并确定了当神经网络中的所有权重都为非负时,神经元最紧密近似导致网络最紧密。
5 实验结果
如下表格所示为没有非负权重的Sigmoid模型的对比结果。在关于精度验证结果中,论文中提出的NEWISE计算可验证下界方法要比所有其它方法都要出色。尤其是针对于在Fashion Mnist数据集的训练出的模型,该方法甚至一度实现了验证结果高达 96.22%的精度。另外,NEWISE也相应对标准差的精度提高了129.33%。这也表明,跟其它方法相比,论文的方法可以对输入更加敏感。
如下表格所示为不同评估方法在具有混合权重的Sigmoid激活关于全连接神经网络和卷积神经网络对比结果。依然可以发现论文中提出的NEWISE计算可验证下界方法要比所有其它方法在提高评估精度和标准差方面都要出色。
6 实验程序
以下两个程序分别画出了单个sigmoid函数上下线性界以及论文中实例2的示意图。
from matplotlib import pyplot as plt
import numpy as np
x = np.linspace(-10,10,10000)
Sigmoid_x = 1/(1 + np.exp(-x))
X_U3 = 0.104 * x + 0.670
X_L3 = 0.104 * x + 0.329
plt.plot(x, Sigmoid_x, label='Sigmoid(x)')
plt.plot(x, X_U3, label='X_U3')
plt.plot(x, X_L3, label='X_L3')
plt.xlabel('x')
plt.ylabel('y')
plt.legend(loc='best')
# # plt.text(-0.5,3,r"$Loss=(w^8 - 1)^2$",fontsize=20,color="red")
plt.show()
以下两个程序分别画出了单个arctan函数上下线性界以及论文中关于arctan实例的示意图。
import numpy as np
import mpl_toolkits.axisartist as ast
from matplotlib import pyplot as plt
from mpl_toolkits.mplot3d import Axes3D
data = np.linspace(-1, 1, 20)
x1, x2 = np.meshgrid(data, data)
x3_sigmoid = 1 / (1 + np.exp(-x1 - x2))
xu3 = 0.104 * (x1 + x2) + 0.670
xl3 = 0.104 * (x1 + x2) + 0.329
x4_sigmoid = 1 / (1 + np.exp(-x1 + x2))
xu4 = 0.104 * (x1 - x2) + 0.670
xl4 = 0.104 * (x1 - x2) + 0.329
x5 = 2 * x3_sigmoid + 2 * x4_sigmoid
xu5 = 2 * xu3 + 2 * xu4
xl5 = 2 * xl3 + 2 * xl4
x5 = 2 * x3_sigmoid + 2 * x4_sigmoid
x6 = 3 * x3_sigmoid - 5 * x4_sigmoid
xu6 = 3 * xu3 - 5 * xl4
xl6 = 3 * xl3 - 5 * xu4
x7 = xl5 - xu6
fig = plt.figure()
ax = fig.add_subplot(111, projection='3d')
ax.plot_surface(x1, x2, x7)
# ax.plot_surface(x1, x2, xu6)
# ax.plot_surface(x1, x2, xl6)
# ax.plot_surface(x1, x2, xl5)
# ax.plot_surface(x1, x2, x5)
plt.show()
from matplotlib import pyplot as plt
import numpy as np
x = np.linspace(-3,-1,10000)
Arctan_x = np.arctan(x)
X_U3 = 0.232 * x - 0.554
X_L3 = 0.200 * x - 0.707
plt.plot(x, Arctan_x, label='Arctan(x)')
plt.plot(x, X_U3, label='X_U3')
plt.plot(x, X_L3, label='X_L3')
plt.xlabel('x')
plt.ylabel('y')
plt.legend(loc='best')
# # plt.text(-0.5,3,r"$Loss=(w^8 - 1)^2$",fontsize=20,color="red")
plt.show()
import numpy as np
import mpl_toolkits.axisartist as ast
from matplotlib import pyplot as plt
from mpl_toolkits.mplot3d import Axes3D
data1 = np.linspace(-2, -1, 20)
data2 = np.linspace(-1, 0, 20)
x1, x2 = np.meshgrid(data1, data2)
x3_arctan = np.arctan(x1 + x2)
xu3 = 0.232 * (x1 + x2) - 0.554
# xl3 = 0.200 * (x1 + x2) - 0.707
xl3 = 0.100 * (x1 + x2) - 0.949
x4_arctan = np.arctan(x1 - x2)
xu4 = 0.554 * (x1 - x2)
# xl4 = 0.500 * (x1 - x2) - 0.285
xl4 = 0.200 * (x1 - x2) - 0.707
x5 = x3_arctan + 2 * x4_arctan
xu5 = xu3 + 2 * xu4
xl5 = xl3 + 2 * xl4
x6 = - x3_arctan + 2 * x4_arctan
xu6 = - xl3 + 2 * xu4
xl6 = - xu3 + 2 * xl4
x7 = xl5 - xu6
print(x7.max())
print(x7.min())
fig = plt.figure()
ax = fig.add_subplot(111, projection='3d')
x8 = 0 *(x1 + x2)
ax.plot_surface(x1, x2, x7)
ax.plot_surface(x1, x2, x8)
# ax.plot_surface(x1, x2, xl6)
# ax.plot_surface(x1, x2, xl5)
# ax.plot_surface(x1, x2, x5)
plt.show()