zoukankan      html  css  js  c++  java
  • PyTorch全连接ReLU网络

    PyTorch全连接ReLU网络

    1PyTorch的核心是两个主要特征:

    • 一个n维张量,类似于numpy,但可以在GPU上运行
    • 搭建和训练神经网络时的自动微分/求导机制

    本文将使用全连接的ReLU网络作为运行示例。该网络将有一个单一的隐藏层,并将使用梯度下降训练,通过最小化网络输出和真正结果的欧几里得距离,来拟合随机生成的数据。

    2.张量

    2.1 热身: Numpy

    在介绍PyTorch之前,将首先使用numpy实现网络。 Numpy提供了一个n维数组对象,以及许多用于操作这些数组的函数。Numpy是用于科学计算的通用框架; 对计算图、深度学习和梯度一无所知。然而,可以很容易地使用NumPy,手动实现网络的前向和反向传播,来拟合随机数据:

    # -*- coding: utf-8 -*-

    import numpy as np

     

    # N是批量大小; D_in是输入维度;

    # 49/5000 H是隐藏的维度; D_out是输出维度。

    N, D_in, H, D_out = 64, 1000, 100, 10

     

    # 创建随机输入和输出数据

    x = np.random.randn(N, D_in)

    y = np.random.randn(N, D_out)

     

    # 随机初始化权重

    w1 = np.random.randn(D_in, H)

    w2 = np.random.randn(H, D_out)

     

    learning_rate = 1e-6

    for t in range(500):

        # 前向传递:计算预测值y

        h = x.dot(w1)

        h_relu = np.maximum(h, 0)

        y_pred = h_relu.dot(w2)

     

        # 计算和打印损失loss

        loss = np.square(y_pred - y).sum()

        print(t, loss)

     

        # 反向传播,计算w1w2loss的梯度

        grad_y_pred = 2.0 * (y_pred - y)

        grad_w2 = h_relu.T.dot(grad_y_pred)

        grad_h_relu = grad_y_pred.dot(w2.T)

        grad_h = grad_h_relu.copy()

        grad_h[h < 0] = 0

        grad_w1 = x.T.dot(grad_h)

     

        # 更新权重

        w1 -= learning_rate * grad_w1

        w2 -= learning_rate * grad_w2

    2.2 PyTorch:张量

    Numpy是一个很棒的框架,但不能利用GPU来加速其数值计算。 对于现代深度神经网络,GPU通常提供50倍或更高的加速,所以,numpy不能满足当代深度学习的需求。

    在这里,先介绍最基本的PyTorch概念:

    张量(Tensor:PyTorch的tensor在概念上与numpy的array相同: tensor是一个n维数组,PyTorch提供了许多函数,用于操作这些张量。任何希望使用NumPy执行的计算,也可以使用PyTorch的tensor来完成,可以认为是科学计算的通用工具。

    与Numpy不同,PyTorch可以利用GPU加速其数值计算。要在GPU上运行Tensor, 在构造张量使用device参数把tensor建立在GPU上。

    本文使用tensors将随机数据上训练一个两层的网络。和前面NumPy的例子类似,使用PyTorch的tensor,手动在网络中实现前向传播和反向传播:

    # -*- coding: utf-8 -*-

     

    import torch

     

     

    dtype = torch.float

    device = torch.device("cpu")

    # device = torch.device“cuda0”)#取消注释以在GPU上运行

     

    # N是批量大小; D_in是输入维度;

    # H是隐藏的维度; D_out是输出维度。

    N, D_in, H, D_out = 64, 1000, 100, 10

     

    #创建随机输入和输出数据

    x = torch.randn(N, D_in, device=device, dtype=dtype)

    y = torch.randn(N, D_out, device=device, dtype=dtype)

     

    # 随机初始化权重

    w1 = torch.randn(D_in, H, device=device, dtype=dtype)

    w2 = torch.randn(H, D_out, device=device, dtype=dtype)

     

    learning_rate = 1e-6

    for t in range(500):

        # 前向传递:计算预测y

        h = x.mm(w1)

        h_relu = h.clamp(min=0)

        y_pred = h_relu.mm(w2)

     

        # 计算和打印损失

        loss = (y_pred - y).pow(2).sum().item()

        print(t, loss)

     

        # Backprop计算w1w2相对于损耗的梯度

        grad_y_pred = 2.0 * (y_pred - y)

        grad_w2 = h_relu.t().mm(grad_y_pred)

        grad_h_relu = grad_y_pred.mm(w2.t())

        grad_h = grad_h_relu.clone()

        grad_h[h < 0] = 0

        grad_w1 = x.t().mm(grad_h)

     

        # 使用梯度下降更新权重

        w1 -= learning_rate * grad_w1

        w2 -= learning_rate * grad_w2

    3.自动求导

    3.1 PyTorch:张量和自动求导

    在上面的例子中,需要手动实现神经网络的前向和后向传递。手动实现反向传递,对于小型双层网络来说并不是什么大问 题,但对于大型复杂网络来说,很快就会变得非常繁琐。

    但是,可以使用自动微分,来自动计算神经网络中的后向传递。 PyTorch中的 autograd包提供了这个功能。当使用autograd时,网络前向传播将定义一个计算图;图中的节点是tensor,边是函数, 这些函数是输出tensor到输入tensor的映射。这张计算图使得在网络中反向传播时,梯度的计算十分简单。

    听起来很复杂,在实践中使用起来非常简单。 如果想计算某些的tensor的梯度,只需要在建立这个tensor时,加入这么一句:requires_grad=True。这个tensor上的任何PyTorch的操作都将构造一个计算图,从而允许稍后在图中执行反向传播。如果这个tensor x的requires_grad=True,那么反向传播之后x.grad将会是另一个张量,其为x关于某个标量值的梯度。

    有时,可能希望防止PyTorch在requires_grad=True的张量执行某些操作时,构建计算图;例如,在训练神经网络时,通常不希望通过权重更新步骤进行反向传播。在这种情况下,可以使用torch.no_grad()上下文管理器来防止构造计算图。

    下面使用PyTorch的Tensors和autograd来实现的两层的神经网络;不再需要手动执行网络的反向传播:

    # -*- coding: utf-8 -*-

    import torch

     

    dtype = torch.float

    device = torch.device("cpu")

    # device = torch.device“cuda0”)#取消注释以在GPU上运行

     

    # N是批量大小; D_in是输入维度;

    # H是隐藏的维度; D_out是输出维度。

    N, D_in, H, D_out = 64, 1000, 100, 10

     

    # 创建随机Tensors以保持输入和输出。

    # 设置requires_grad = False表示不需要计算渐变

    # 在向后传球期间对于这些Tensors

    x = torch.randn(N, D_in, device=device, dtype=dtype)

    y = torch.randn(N, D_out, device=device, dtype=dtype)

     

    # 为权重创建随机Tensors

    # 设置requires_grad = True表示想要计算渐变

    # 在向后传球期间尊重这些张贴。

    w1 = torch.randn(D_in, H, device=device, dtype=dtype, requires_grad=True)

    w2 = torch.randn(H, D_out, device=device, dtype=dtype, requires_grad=True)

     

    learning_rate = 1e-6

    for t in range(500):

        # 前向传播:使用tensors上的操作计算预测值y;

          # 由于w1w2requires_grad=True,涉及这些张量的操作将让PyTorch构建计算图,

        # 从而允许自动计算梯度。由于不再手工实现反向传播,所以不需要保留中间值的引用。

        y_pred = x.mm(w1).clamp(min=0).mm(w2)

     

        # 使用Tensors上的操作计算和打印丢失。

        # loss是一个形状为()的张量

        # loss.item() 得到这个张量对应的python数值

        loss = (y_pred - y).pow(2).sum()

        print(t, loss.item())

     

        # 使用autograd计算反向传播。这个调用将计算loss对所有requires_grad=Truetensor的梯度。

        # 这次调用后,w1.gradw2.grad将分别是lossw1w2的梯度张量。

        loss.backward()

     

        # 使用梯度下降更新权重。对于这一步,只想对w1w2的值进行原地改变;不想为更新阶段构建计算图,

        # 所以使用torch.no_grad()上下文管理器防止PyTorch为更新构建计算图

        with torch.no_grad():

            w1 -= learning_rate * w1.grad

            w2 -= learning_rate * w2.grad

     

            # 反向传播后手动将梯度设置为零

            w1.grad.zero_()

            w2.grad.zero_()

    3.2 PyTorch:定义新的自动求导函数

    在底层,每一个原始的自动求导运算,实际上是两个在Tensor上运行的函数。其中,forward函数计算,从输入Tensors获得的输出Tensors。而backward函数接收输出Tensors,对于某个标量值的梯度,并且计算输入Tensors相对于该相同标量值的梯度。

    在PyTorch中,可以很容易地通过定义torch.autograd.Function的子类,实现forward和backward函数,来定义自己的自动求导运算。之后,就可以使用这个新的自动梯度运算符了。然后,可以通过构造一个实例并像调用函数一样,传入包含输入数据的tensor调用,这样来使用新的自动求导运算。

    这个例子中,自定义一个自动求导函数,来展示ReLU的非线性。并用实现的两层网络:

    import torch

     

    class MyReLU(torch.autograd.Function):

        """

        可以通过建立torch.autograd的子类来实现自定义的autograd函数,

        并完成张量的正向和反向传播。

        """

        @staticmethod

        def forward(ctx, x):

            """

            在正向传播中,接收到一个上下文对象和一个包含输入的张量;

            必须返回一个包含输出的张量,

            并且可以使用上下文对象来缓存对象,以便在反向传播中使用。

            """

            ctx.save_for_backward(x)

            return x.clamp(min=0)

     

        @staticmethod

        def backward(ctx, grad_output):

            """

            在反向传播中,接收到上下文对象和一个张量,

            其包含了相对于正向传播过程中产生的输出的损失的梯度。

            可以从上下文对象中检索缓存的数据,

            并且必须计算并返回与正向传播的输入相关的损失的梯度。

            """

            x, = ctx.saved_tensors

            grad_x = grad_output.clone()

            grad_x[x < 0] = 0

            return grad_x

     

     

    device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')

     

    # N是批大小; D_in 是输入维度;

    # H 是隐藏层维度; D_out 是输出维度

    N, D_in, H, D_out = 64, 1000, 100, 10

     

    # 产生输入和输出的随机张量

    x = torch.randn(N, D_in, device=device)

    y = torch.randn(N, D_out, device=device)

     

    # 产生随机权重的张量

    w1 = torch.randn(D_in, H, device=device, requires_grad=True)

    w2 = torch.randn(H, D_out, device=device, requires_grad=True)

     

    learning_rate = 1e-6

    for t in range(500):

        # 正向传播:使用张量上的操作来计算输出值y

        # 通过调用 MyReLU.apply 函数来使用自定义的ReLU

        y_pred = MyReLU.apply(x.mm(w1)).mm(w2)

     

        # 计算并输出loss

        loss = (y_pred - y).pow(2).sum()

        print(t, loss.item())

     

        # 使用autograd计算反向传播过程。

        loss.backward()

     

        with torch.no_grad():

            # 用梯度下降更新权重

            w1 -= learning_rate * w1.grad

            w2 -= learning_rate * w2.grad

     

            # 在反向传播之后手动清零梯度

            w1.grad.zero_()

            w2.grad.zero_()

    3.3 TensorFlow:静态图

    PyTorch自动求导看起来非常像TensorFlow:这两个框架中,都定义计算图,使用自动微分来计算梯度。两者最大的不同就是TensorFlow的计算图是静态的,而PyTorch使用动态的计算图。

    在TensorFlow中,定义计算图一次,然后重复执行这个相同的图,可能会提供不同的输入数据。而在PyTorch中,每一个前向通道定义一个新的计算图。

    静态图的好处在于,可以预先对图进行优化。例如,一个框架可能要融合一些图的运算来提升效率,或者产生一个策略来将图分布到多个GPU或机器上。如果重复使用相同的图,那么在重复运行同一个图时,前期潜在的代价高昂的预先优化的消耗就会被分摊开。

    静态图和动态图的一个区别是控制流。对于一些模型,希望对每个数据点执行不同的计算。例如,一个递归神经网络,可能对于每个数据点,执行不同的时间步数,这个展开(unrolling)可以作为一个循环来实现。对于一个静态图,循环结构要作为图的一部分。因此,TensorFlow提供了运算符(例如tf.scan)来把循环嵌入到图当中。对于动态图来说,情况更加简单:既然为每个例子即时创建图,可以使用普通的命令式控制流,来为每个输入执行不同的计算。

    为了与上面的PyTorch自动梯度实例做对比,使用TensorFlow来拟合一个简单的2层网络:

    import tensorflow as tf

    import numpy as np

     

    # 首先建立计算图(computational graph

     

    # N是批大小;D是输入维度;

    # H是隐藏层维度;D_out是输出维度。

    N, D_in, H, D_out = 64, 1000, 100, 10

     

    # 为输入和目标数据创建placeholder

    # 当执行计算图时,他将会被真实的数据填充

    x = tf.placeholder(tf.float32, shape=(None, D_in))

    y = tf.placeholder(tf.float32, shape=(None, D_out))

     

    # 为权重创建Variable并用随机数据初始化

    # TensorFlowVariable在执行计算图时不会改变

    w1 = tf.Variable(tf.random_normal((D_in, H)))

    w2 = tf.Variable(tf.random_normal((H, D_out)))

     

    # 前向传播:使用TensorFlow的张量运算计算预测值y

    # 注意这段代码实际上不执行任何数值运算;

    # 只是建立了稍后将执行的计算图。

    h = tf.matmul(x, w1)

    h_relu = tf.maximum(h, tf.zeros(1))

    y_pred = tf.matmul(h_relu, w2)

     

    # 使用TensorFlow的张量运算损失(loss

    loss = tf.reduce_sum((y - y_pred) ** 2.0)

     

    # 计算loss对于w1w2的导数

    grad_w1, grad_w2 = tf.gradients(loss, [w1, w2])

     

    # 使用梯度下降更新权重。为了实际更新权重,需要在执行计算图时计算new_w1new_w2

    # 注意,在TensorFlow中,更新权重值的行为是计算图的一部分;

    # 但在PyTorch中,这发生在计算图形之外。

    learning_rate = 1e-6

    new_w1 = w1.assign(w1 - learning_rate * grad_w1)

    new_w2 = w2.assign(w2 - learning_rate * grad_w2)

     

    # 现在搭建好了计算图,所以开始一个TensorFlow的会话(session)来实际执行计算图。

    with tf.Session() as sess:

     

        # 运行一次计算图来初始化Variable w1w2

        sess.run(tf.global_variables_initializer())

     

        # 创建numpy数组来存储输入x和目标y的实际数据

        x_value = np.random.randn(N, D_in)

        y_value = np.random.randn(N, D_out)

     

        for _ in range(500):

            # 多次运行计算图。每次执行时,都用feed_dict参数,

            # x_value绑定到x,将y_value绑定到y

            # 每次执行图形时都要计算损失、new_w1new_w2

            # 这些张量的值以numpy数组的形式返回。

            loss_value, _, _ = sess.run([loss, new_w1, new_w2],

                                        feed_dict={x: x_value, y: y_value})

            print(loss_value)

    4.nn模块

    4.1 PyTorchnn

    计算图和autograd是十分强大的工具,可以定义复杂的操作并自动求导;然而对于大规模的网络,autograd太过于底层。 在构建神经网络时,经常考虑将计算安排成层,其中一些具有可学习的参数,将在学习过程中进行优化。

    TensorFlow里,有类似Keras,TensorFlow-Slim和TFLearn这种封装了底层计算图的高度抽象的接口,这使得构建网络十分方便。

    在PyTorch中,包nn完成了同样的功能。nn包中定义一组大致等价于层的模块。一个模块接受输入的tesnor,计算输出的tensor,而且还保存了一些内部状态比如需要学习的tensor的参数等。nn包中也定义了一组损失函数(loss functions),用来训练神经网络。

    这个例子中,用nn包实现两层的网络:

    # -*- coding: utf-8 -*-

    import torch

     

    # N是批大小;D是输入维度

    # H是隐藏层维度;D_out是输出维度

    N, D_in, H, D_out = 64, 1000, 100, 10

     

    #创建输入和输出随机张量

    x = torch.randn(N, D_in)

    y = torch.randn(N, D_out)

     

    # 使用nn包将的模型定义为一系列的层。

    # nn.Sequential是包含其他模块的模块,并按顺序应用这些模块来产生其输出。

    # 每个线性模块使用线性函数从输入计算输出,并保存其内部的权重和偏差张量。

    # 在构造模型之后,使用.to()方法将其移动到所需的设备。

    model = torch.nn.Sequential(

        torch.nn.Linear(D_in, H),

        torch.nn.ReLU(),

        torch.nn.Linear(H, D_out),

    )

     

    # nn包还包含常用的损失函数的定义;

    # 在这种情况下,将使用平均平方误差(MSE)作为的损失函数。

    # 设置reduction='sum',表示计算的是平方误差的,而不是平均值;

    # 这是为了与前面手工计算损失的例子保持一致,

    # 但是在实践中,通过设置reduction='elementwise_mean'来使用均方误差作为损失更为常见。

    loss_fn = torch.nn.MSELoss(reduction='sum')

     

    learning_rate = 1e-4

    for t in range(500):

        # 前向传播:通过向模型传入x计算预测的y

        # 模块对象重载了__call__运算符,所以可以像函数那样调用。

        # 这么做相当于向模块传入了一个张量,然后返回了一个输出张量。

        y_pred = model(x)

     

         # 计算并打印损失。

         # 传递包含y的预测值和真实值的张量,损失函数返回包含损失的张量。

        loss = loss_fn(y_pred, y)

        print(t, loss.item())

     

        # 反向传播之前清零梯度

        model.zero_grad()

     

        # 反向传播:计算模型的损失对所有可学习参数的导数(梯度)。

        # 在内部,每个模块的参数存储在requires_grad=True的张量中,

        # 因此这个调用将计算模型中所有可学习参数的梯度。

        loss.backward()

     

        # 使用梯度下降更新权重。

        # 每个参数都是张量,所以可以像以前那样可以得到的数值和梯度

        with torch.no_grad():

            for param in model.parameters():

                param -= learning_rate * param.grad

    4.2 PyTorchoptim

    到目前为止,已经通过手动改变,包含可学习参数的张量,来更新模型的权重。对于随机梯度下降(SGD/stochastic gradient descent)等简单的优化算法来说,这不是一个很大的负担,但在实践中,经常使用AdaGrad、RMSProp、Adam等更复杂的优化器,来训练神经网络。

    import torch

     

    # N是批大小;D是输入维度

    # H是隐藏层维度;D_out是输出维度

    N, D_in, H, D_out = 64, 1000, 100, 10

     

    # 产生随机输入和输出张量

    x = torch.randn(N, D_in)

    y = torch.randn(N, D_out)

     

    # 使用nn包定义模型和损失函数

    model = torch.nn.Sequential(

              torch.nn.Linear(D_in, H),

              torch.nn.ReLU(),

              torch.nn.Linear(H, D_out),

            )

    loss_fn = torch.nn.MSELoss(reduction='sum')

     

    # 使用optim包定义优化器(Optimizer)。Optimizer将会为更新模型的权重。

    # 这里使用Adam优化方法;optim包还包含了许多别的优化算法。

    # Adam构造函数的第一个参数告诉优化器应该更新哪些张量。

    learning_rate = 1e-4

    optimizer = torch.optim.Adam(model.parameters(), lr=learning_rate)

     

    for t in range(500):

     

        # 前向传播:通过像模型输入x计算预测的y

        y_pred = model(x)

     

        # 计算并打印loss

        loss = loss_fn(y_pred, y)

        print(t, loss.item())

     

        # 在反向传播之前,使用optimizer将要更新的所有张量的梯度清零(这些张量是模型可学习的权重)

        optimizer.zero_grad()

     

        # 反向传播:根据模型的参数计算loss的梯度

        loss.backward()

     

        # 调用Optimizerstep函数使所有参数更新

        optimizer.step()

    4.3 PyTorch:自定义nn模块

    有时候,需要指定比现有模块序列更复杂的模型;对于这些情况,可以通过继承nn.Module并定义forward函数,这个forward函数可以使用其他模块或者其他的自动求导运算,来接收输入tensor,产生输出tensor。

    在这个例子中,用自定义Module的子类构建两层网络:

    import torch

     

    class TwoLayerNet(torch.nn.Module):

        def __init__(self, D_in, H, D_out):

            """

            在构造函数中,实例化了两个nn.Linear模块,并将作为成员变量。

            """

            super(TwoLayerNet, self).__init__()

            self.linear1 = torch.nn.Linear(D_in, H)

            self.linear2 = torch.nn.Linear(H, D_out)

     

        def forward(self, x):

            """

            在前向传播的函数中,接收一个输入的张量,也必须返回一个输出张量。

            可以使用构造函数中定义的模块以及张量上的任意的(可微分的)操作。

            """

            h_relu = self.linear1(x).clamp(min=0)

            y_pred = self.linear2(h_relu)

            return y_pred

     

    # N是批大小; D_in 是输入维度;

    # H 是隐藏层维度; D_out 是输出维度

    N, D_in, H, D_out = 64, 1000, 100, 10

     

    # 产生输入和输出的随机张量

    x = torch.randn(N, D_in)

    y = torch.randn(N, D_out)

     

    # 通过实例化上面定义的类来构建的模型。

    model = TwoLayerNet(D_in, H, D_out)

     

    # 构造损失函数和优化器。

    # SGD构造函数中对model.parameters()的调用,

    # 将包含模型的一部分,即两个nn.Linear模块的可学习参数。

    loss_fn = torch.nn.MSELoss(reduction='sum')

    optimizer = torch.optim.SGD(model.parameters(), lr=1e-4)

    for t in range(500):

        # 前向传播:通过向模型传递x计算预测值y

        y_pred = model(x)

     

        #计算并输出loss

        loss = loss_fn(y_pred, y)

        print(t, loss.item())

     

        # 清零梯度,反向传播,更新权重

        optimizer.zero_grad()

        loss.backward()

        optimizer.step()

    4.4 PyTorch:控制流和权重共享

    作为动态图和权重共享的一个例子,实现了一个非常奇怪的模型:一个全连接的ReLU网络,在每一次前向传播时,隐藏层的层数为随机1到4之间的数,这样可以多次重用相同的权重来计算。

    因为这个模型可以使用普通的Python流控制来实现循环,并且可以通过在定义转发时,多次重用同一个模块,来实现最内层之间的权重共享。

    利用Mudule的子类很容易实现这个模型:

    import random

    import torch

     

    class DynamicNet(torch.nn.Module):

        def __init__(self, D_in, H, D_out):

            """

            在构造函数中,构造了三个nn.Linear实例,将在前向传播时被使用。

            """

            super(DynamicNet, self).__init__()

            self.input_linear = torch.nn.Linear(D_in, H)

            self.middle_linear = torch.nn.Linear(H, H)

            self.output_linear = torch.nn.Linear(H, D_out)

     

        def forward(self, x):

            """

            对于模型的前向传播,随机选择0、1、2、3,

            并重用了多次计算隐藏层的middle_linear模块。

            由于每个前向传播构建一个动态计算图,

            可以在定义模型的前向传播时使用常规Python控制流运算符,如循环或条件语句。

            在这里,还看到,在定义计算图形时多次重用同一个模块是完全安全的。

            这是Lua Torch的一大改进,因为Lua Torch中每个模块只能使用一次。

            """

            h_relu = self.input_linear(x).clamp(min=0)

            for _ in range(random.randint(0, 3)):

                h_relu = self.middle_linear(h_relu).clamp(min=0)

            y_pred = self.output_linear(h_relu)

            return y_pred

     

     

    # N是批大小;D是输入维度

    # H是隐藏层维度;D_out是输出维度

    N, D_in, H, D_out = 64, 1000, 100, 10

     

    # 产生输入和输出随机张量

    x = torch.randn(N, D_in)

    y = torch.randn(N, D_out)

     

    # 实例化上面定义的类来构造的模型

    model = DynamicNet(D_in, H, D_out)

     

    # 构造的损失函数(loss function)和优化器(Optimizer)。

    # 用平凡的随机梯度下降训练这个奇怪的模型是困难的,所以使用了momentum方法。

    criterion = torch.nn.MSELoss(reduction='sum')

    optimizer = torch.optim.SGD(model.parameters(), lr=1e-4, momentum=0.9)

    for t in range(500):

     

        # 前向传播:通过向模型传入x计算预测的y

        y_pred = model(x)

     

        # 计算并打印损失

        loss = criterion(y_pred, y)

        print(t, loss.item())

     

        # 清零梯度,反向传播,更新权重

        optimizer.zero_grad()

        loss.backward()

        optimizer.step()

    人工智能芯片与自动驾驶
  • 相关阅读:
    博客中添加音乐播放器插件
    博客添加鼠标点击特效
    用好fastboot命令,刷机加锁不用再找工具!
    使用移动终端管理(MDM)轻松进行远程故障排除
    在IT资产生命周期中节省成本的方法:Part 3 维护和支持
    如何做好进程监控?
    OpManager引领智能运维未来的发展方向
    终端安全解决方案如何帮助保护数字化工作空间中的设备
    如何抵御MFA验证攻击
    为什么需要对网络环境进行IP扫描?
  • 原文地址:https://www.cnblogs.com/wujianming-110117/p/14383764.html
Copyright © 2011-2022 走看看