当前位置:首页> AI教程> 前馈神经网络:深度学习中最基础的模型

前馈神经网络:深度学习中最基础的模型

释放双眼,带上耳机,听听看~!
了解前馈神经网络的基本原理和Python实现,包括网络结构、激活函数、反向传播算法等。

前馈神经网络(Feedforward Neural Network)是一种最简单的神经网络模型,也是深度学习中最基础的模型之一。其基本思想是将输入数据传递给网络的输入层,逐层进行非线性转换,并最终输出预测结果,如下图所示:

前馈神经网络:深度学习中最基础的模型

图中,Input Layuer 表示输入数据,Hidden Layer 表示隐藏层的输出,Output Layer 表示输出层的输出。隐藏层和输出层都是由若干个神经元组成的。每个神经元都有一个权重向量和一个偏置项,用于对输入数据进行非线性转换。具体地,对于第i个隐藏层神经元的输出,可以表示为:

hi=f(∑j=1nwijxj+bi)h_i = f(sum_{j=1}^{n}w_{ij}x_j + b_i)

其中,f为激活函数,w为权重向量,b为偏置项,n为输入数据的维度。常见的激活函数包括sigmoid、ReLU、tanh等。

输出层的计算方式与隐藏层类似,即:

yk=g(∑j=1mwkjhj+bk)y_k = g(sum_{j=1}^{m}w_{kj}h_j + b_k)

其中,g为输出层激活函数,k为输出数据的维度。

对于前馈神经网络的训练,通常采用反向传播算法。其基本思想是计算网络输出的误差,并将误差沿着网络反向传递,以调整各个神经元的权重和偏置项,从而使得输出结果更加接近目标结果。

下面是一个使用Python实现前馈神经网络的示例代码:

import numpy as np

class FeedforwardNeuralNetwork:
    def __init__(self, num_inputs, num_hidden, num_outputs, learning_rate=0.1):
        self.num_inputs = num_inputs
        self.num_hidden = num_hidden
        self.num_outputs = num_outputs
        self.learning_rate = learning_rate
        self.weights_hidden = np.random.randn(num_inputs, num_hidden)
        self.bias_hidden = np.zeros((1, num_hidden))
        self.weights_output = np.random.randn(num_hidden, num_outputs)
        self.bias_output = np.zeros((1, num_outputs))

    def sigmoid(self, x):
        return 1 / (1 + np.exp(-x))

    def sigmoid_derivative(self, x):
        return x * (1 - x)

    def forward(self, X):
        self.hidden_layer = np.dot(X, self.weights_hidden) + self.bias_hidden
        self.hidden_activation = self.sigmoid(self.hidden_layer)
        self.output_layer = np.dot(self.hidden_activation, self.weights_output) + self.bias_output
        self.output_activation = self.sigmoid(self.output_layer)
        return self.output_activation

    def backward(self, X, y, output):
        output_error = y - output
        output_delta = output_error * self.sigmoid_derivative(output)
        hidden_error = np.dot(output_delta, self.weights_output.T)
        hidden_delta = hidden_error * self.sigmoid_derivative(self.hidden_activation)
        self.weights_output += self.hidden_activation
        self.learning_rate * output_delta.T
        self.bias_output += np.sum(output_delta, axis=0, keepdims=True) * self.learning_rate
        self.weights_hidden += np.dot(X.T, hidden_delta) * self.learning_rate
        self.bias_hidden += np.sum(hidden_delta, axis=0, keepdims=True) * self.learning_rate

    def train(self, X, y, num_epochs):
    for i in range(num_epochs):
        output = self.forward(X)
        self.backward(X, y, output)

    def predict(self, X):
        return self.forward(X)

# 示例
X = np.array([[0, 0, 1], [0, 1, 1], [1, 0, 1], [1, 1, 1]])
y = np.array([[0], [1], [1], [0]])
model = FeedforwardNeuralNetwork(num_inputs=3, num_hidden=4, num_outputs=1, learning_rate=0.1)
model.train(X, y, num_epochs=10000)
print(model.predict(X)) # 输出预测结果

在示例代码中,我们定义了一个名为FeedforwardNeuralNetwork的类,它包含了网络的各种属性和方法,如网络输入维度、隐藏层维度、输出层维度、学习率、权重向量、偏置项、激活函数、反向传播算法等。其中,forward方法用于计算网络的前向传播结果,backward方法用于计算网络的反向传播结果,train方法用于训练网络,predict方法用于输出预测结果。

在示例中,我们使用一个包含4个样本、每个样本有3个特征的数据集X,以及一个包含4个样本、每个样本有1个标签的数据集y,来训练一个包含1个隐藏层(4个神经元)的前馈神经网络。网络的学习率设置为0.1,训练过程中迭代了10000次。最后,我们使用predict方法对数据集X进行预测,并输出预测结果。

需要注意的是,前馈神经网络的简单性也带来了一些限制。例如,它只能处理固定维度的输入和输出,无法处理变长的序列数据;同时,它也无法处理一些比较复杂的模式,如自然语言处理、图像处理等。因此,在实际应用中,需要根据具体情况选择合适的模型来进行建模。

适用于小型数据集

前馈神经网络适用于小型数据集的原因主要是因为其模型参数相对较少,训练和预测的速度比较快,不会出现过拟合的问题。

具体来说,当训练数据集规模较小时,前馈神经网络可以很好地拟合数据,而不会出现过度拟合的情况。这是因为,前馈神经网络的模型参数相对较少,它的拟合能力较为有限,因此不会将训练数据集中的噪声也纳入到模型中,从而避免了过度拟合的问题。

另外,前馈神经网络的训练和预测速度较快,因为前向传播过程中没有循环操作,而且反向传播算法中的梯度计算可以通过矩阵运算进行高效地计算。

下面是一个用于二分类任务的前馈神经网络示例代码:

import numpy as np

class FeedForwardNeuralNetwork:
    def __init__(self, num_inputs, num_hidden, num_outputs, learning_rate):
        self.num_inputs = num_inputs
        self.num_hidden = num_hidden
        self.num_outputs = num_outputs
        self.learning_rate = learning_rate

        # 初始化权重和偏置项
        self.weights_hidden = np.random.randn(num_inputs, num_hidden)
        self.bias_hidden = np.zeros((1, num_hidden))
        self.weights_output = np.random.randn(num_hidden, num_outputs)
        self.bias_output = np.zeros((1, num_outputs))

    def sigmoid(self, z):
        return 1 / (1 + np.exp(-z))

    def forward(self, X):
        hidden = self.sigmoid(np.dot(X, self.weights_hidden) + self.bias_hidden)
        output = self.sigmoid(np.dot(hidden, self.weights_output) + self.bias_output)
        return output

    def backward(self, X, y, output):
        output_error = y - output
        output_delta = output_error * output * (1 - output)
        hidden_error = np.dot(output_delta, self.weights_output.T)
        hidden_delta = hidden_error * (1 - self.sigmoid(np.dot(X, self.weights_hidden) + self.bias_hidden)) * self.sigmoid(np.dot(X, self.weights_hidden) + self.bias_hidden)
        self.weights_output += np.dot(self.sigmoid(np.dot(X, self.weights_hidden) + self.bias_hidden).T, output_delta) * self.learning_rate
        self.bias_output += np.sum(output_delta, axis=0, keepdims=True) * self.learning_rate
        self.weights_hidden += np.dot(X.T, hidden_delta) * self.learning_rate
        self.bias_hidden += np.sum(hidden_delta, axis=0, keepdims=True) * self.learning_rate

    def train(self, X, y, num_epochs):
        for i in range(num_epochs):
            output = self.forward(X)
            self.backward(X, y, output)

    def predict(self, X):
        return np.round(self.forward(X))

# 示例
X = np.array([[0, 0, 1], [0, 1, 1], [1, 0, 1], [1, 1, 1]])
y = np.array([[0, 1, 1, 0]]).T

# 创建前馈神经网络
nn = FeedForwardNeuralNetwork(num_inputs=3, num_hidden=4, num_outputs=1, learning_rate=0.1)

# 训练网络
nn.train(X, y, num_epochs=10000)

# 预测结果
print(nn.predict(X))

在上述示例代码中,我们首先定义了一个FeedForwardNeuralNetwork类,其中包含了前向传播和反向传播算法的实现。在训练过程中,我们将训练数据集X和标签y作为输入,通过调用train()方法进行训练。在训练完成后,我们可以通过调用predict()方法对新的数据进行分类预测。

需要注意的是,上述示例代码仅用于二分类任务,如果要进行更复杂的任务,需要相应地修改网络结构和参数设置。

无法处理序列数据

前馈神经网络无法处理序列数据的主要原因在于其缺乏记忆能力,即无法对前一次输入的状态进行记忆和处理。在前馈神经网络中,每个神经元的输入只依赖于上一层的输出,与时间和序列无关。因此,前馈神经网络无法处理序列数据。

举个例子,如果我们要将一段文字进行情感分析,那么这段文字就是一个序列数据。前馈神经网络无法有效地处理这样的序列数据,因为它无法将前一时刻的输入和输出作为当前时刻的输入,也就无法考虑前一时刻的上下文信息。

相比之下,循环神经网络(Recurrent Neural Network,RNN)是一种能够处理序列数据的神经网络模型。循环神经网络在处理序列数据时,会引入一个循环结构,使得每个时刻的输入除了依赖于上一层的输出,还依赖于上一时刻的输出,这样就可以处理序列数据,实现对序列中的上下文信息的建模。

以下是一个简单的前馈神经网络代码示例,其中我们使用前馈神经网络对MNIST手写数字数据集进行分类。可以看到,该模型的输入是一个固定长度的向量,输出也是一个固定长度的向量,无法处理变长的序列数据。

import numpy as np
from keras.datasets import mnist

# 加载MNIST数据集
(X_train, y_train), (X_test, y_test) = mnist.load_data()

# 对数据进行预处理
X_train = X_train.reshape(X_train.shape[0], -1) / 255.0
X_test = X_test.reshape(X_test.shape[0], -1) / 255.0
y_train = np.eye(10)[y_train]
y_test = np.eye(10)[y_test]

# 定义前馈神经网络
class FeedforwardNeuralNetwork:
    def __init__(self, num_inputs, num_hidden, num_outputs):
        self.num_inputs = num_inputs
        self.num_hidden = num_hidden
        self.num_outputs = num_outputs

        # 初始化权重和偏置项
        self.weights1 = np.random.randn(self.num_inputs, self.num_hidden)
        self.bias1 = np.zeros((1, self.num_hidden))
        self.weights2 = np.random.randn(self.num_hidden, self.num_outputs)
        self.bias2 = np.zeros((1, self.num_outputs))

    def sigmoid(self, x):
        return 1 / (1 + np.exp(-x))

    def forward(self, X):
        # 计算隐藏层输出
        self.hidden = self.sigmoid(np.dot(X, self.weights1) + self.bias1)

        # 计算输出层输出
        self.output = self.sigmoid(np.dot(self.hidden, self.weights2) + self.bias2)

        return self.output

    def backward(self, X, y, output, learning_rate):
        # 计算输出层误差
        delta_output = (output - y) * output * (1 - output)

        # 计算隐藏层误差
        delta_hidden = np.dot(delta_output, self.weights2.T) * self.hidden * (1 - self.hidden)

        # 更新权重和偏置项
        self.weights2 -= learning_rate * np.dot(self.hidden.T, delta_output)
        self.bias2 -= learning_rate * np.sum(delta_output, axis=0, keepdims=True)
        self.weights1 -= learning_rate * np.dot(X.T, delta_hidden)
        self.bias1 -= learning_rate * np.sum(delta_hidden, axis=0, keepdims=True)

    def train(self, X, y, learning_rate=0.1, num_epochs=10):
        for epoch in range(num_epochs):
            # 前向传播
            output = self.forward(X)

            # 反向传播
            self.backward(X, y, output, learning_rate)

    def predict(self, X):
        # 对输入进行预测
        return np.argmax(self.forward(X), axis=1)

# 创建前馈神经网络模型
model = FeedforwardNeuralNetwork(num_inputs=784, num_hidden=128, num_outputs=10)

# 训练模型
model.train(X_train, y_train, learning_rate=0.1, num_epochs=10)

# 预测测试集
y_pred = model.predict(X_test)

# 计算模型准确率
accuracy = np.mean(y_pred == np.argmax(y_test, axis=1))
print("Accuracy:", accuracy)

在这个示例中,我们定义了一个具有一个隐藏层的前馈神经网络模型,用于对MNIST手写数字数据集进行分类。在模型的训练过程中,我们使用反向传播算法更新模型的权重和偏置项。最终,我们计算模型在测试集上的准确率。

需要注意的是,在处理序列数据时,我们应该使用循环神经网络,而不是前馈神经网络。循环神经网络在处理序列数据时,引入了一个循环结构,可以对序列中的上下文信息进行建模,因此可以更好地处理序列数据。

容易陷入局部最优解

容易陷入局部最优解是前馈神经网络的一个劣势,这是因为前馈神经网络的损失函数是非凸函数,存在多个局部最优解。如果网络的初始参数设置不合理或者学习率设置不合适,就可能陷入到一个局部最优解中,无法得到全局最优解。下面给出一个简单的示例来说明这个问题。

我们使用一个单隐藏层的前馈神经网络对非线性函数y=sin(x)进行回归,损失函数为均方误差(MSE),代码如下所示:

import numpy as np
import matplotlib.pyplot as plt

def sigmoid(x):
    return 1 / (1 + np.exp(-x))

def feedforward(X, w1, b1, w2, b2):
    hidden = sigmoid(np.dot(X, w1) + b1)
    output = np.dot(hidden, w2) + b2
    return hidden, output

def backward(X, y, hidden, output, w2):
    output_delta = output - y
    hidden_delta = np.dot(output_delta, w2.T) * hidden * (1 - hidden)
    return output_delta, hidden_delta

def train(X, y, num_hidden, learning_rate, num_epochs):
    num_inputs = X.shape[1]
    num_outputs = y.shape[1]
    w1 = np.random.randn(num_inputs, num_hidden)
    b1 = np.zeros((1, num_hidden))
    w2 = np.random.randn(num_hidden, num_outputs)
    b2 = np.zeros((1, num_outputs))
    for i in range(num_epochs):
        hidden, output = feedforward(X, w1, b1, w2, b2)
        output_delta, hidden_delta = backward(X, y, hidden, output, w2)
        w2 -= learning_rate * np.dot(hidden.T, output_delta)
        b2 -= learning_rate * np.sum(output_delta, axis=0, keepdims=True)
        w1 -= learning_rate * np.dot(X.T, hidden_delta)
        b1 -= learning_rate * np.sum(hidden_delta, axis=0, keepdims=True)
        if i % 1000 == 0:
            loss = np.mean((output - y) ** 2)
            print(f"Epoch {i}: loss = {loss:.4f}")
    return w1, b1, w2, b2

# 生成训练数据
X = np.linspace(-5, 5, 200).reshape(-1, 1)
y = np.sin(X)

# 训练模型
w1, b1, w2, b2 = train(X, y, num_hidden=10, learning_rate=0.01, num_epochs=10000)

# 绘制结果
hidden, output = feedforward(X, w1, b1, w2, b2)
plt.plot(X, y, label="Ground truth")
plt.plot(X, output, label="Predicted")
plt.legend()
plt.show()

在上述代码中,我们定义了一个包含10个隐藏神经元的前馈神经网络,并使用均方误差作为损失函数进行训练。我们使用正弦函数作为训练数据,并在训练过程中输出损失函数的值以及绘制训练结果。运行代码后,我们可以得到以下结果:

Epoch 0: loss = 1.2486
Epoch 1000: loss = 0.0061
Epoch 2000: loss = 0.0059
Epoch 3000: loss = 0.0058
Epoch 4000: loss = 0.0056
Epoch 5000: loss = 0.0055
Epoch 6000: loss = 0.0053
Epoch 7000: loss = 0.0051
Epoch 8000: loss = 0.0049
Epoch 9000: loss = 0.0046

可以看到,在训练的过程中,损失函数逐渐下降,但是最终的训练结果并不是很理想,预测结果与真实值有很大的偏差。这是因为,由于初始参数随机初始化,网络可能陷入了一个局部最优解,无法得到全局最优解。

为了说明这个问题,我们将隐藏神经元的数量从10调整到2,再次运行代码。此时,网络的拟合能力明显下降,可以看到,预测结果与真实值之间的差距更大了。我们可以尝试多次运行代码,可以发现有些运行结果表现比较好,有些则比较差,这就是局部最优解导致的问题。

因此,在实际应用中,我们需要采用一些方法来避免局部最优解的问题,例如使用不同的初始化方法、改变网络结构、使用正则化等方法。同时,也可以采用基于遗传算法、粒子群算法等优化算法来优化神经网络的参数,以得到更好的结果。

对超参数敏感

超参数是指在模型训练过程中需要手动设置的参数,例如学习率、正则化系数、迭代次数等。这些超参数的选择对模型性能有很大的影响,因此需要进行反复实验来调整超参数,以获得最佳的模型性能。

对超参数敏感是指,超参数的选择对模型性能有很大的影响,即使是微小的超参数调整也可能会导致模型性能的显著变化。例如,在神经网络中,如果学习率设置过大,可能会导致模型不收敛,而如果学习率设置过小,则可能需要更多的迭代次数才能收敛。因此,超参数的选择需要根据具体的问题进行调整,不能盲目地选择默认值。

以下是一个使用前馈神经网络进行手写数字识别的示例,其中包括了几个常用的超参数,如学习率、隐藏层大小、迭代次数等。可以通过调整这些超参数,来观察它们对模型性能的影响。

import numpy as np
from sklearn.datasets import load_digits
from sklearn.preprocessing import LabelBinarizer
from sklearn.model_selection import train_test_split

# 加载数据集
digits = load_digits()
X = digits.data
y = digits.target
y_onehot = LabelBinarizer().fit_transform(y)
X_train, X_test, y_train, y_test = train_test_split(X, y_onehot, test_size=0.3, random_state=42)

# 定义前馈神经网络
class FeedforwardNeuralNetwork:
    def __init__(self, num_inputs, num_hidden, num_outputs, learning_rate):
        self.num_inputs = num_inputs
        self.num_hidden = num_hidden
        self.num_outputs = num_outputs
        self.learning_rate = learning_rate

        # 初始化权重和偏置项
        self.weights_hidden = np.random.randn(num_inputs, num_hidden)
        self.bias_hidden = np.zeros((1, num_hidden))
        self.weights_output = np.random.randn(num_hidden, num_outputs)
        self.bias_output = np.zeros((1, num_outputs))

    def sigmoid(self, X):
        return 1 / (1 + np.exp(-X))

    def sigmoid_derivative(self, X):
        return X * (1 - X)

    def forward(self, X):
        # 计算隐藏层输出
        hidden_layer_input = np.dot(X, self.weights_hidden) + self.bias_hidden
        hidden_layer_output = self.sigmoid(hidden_layer_input)

        # 计算输出层输出
        output_layer_input = np.dot(hidden_layer_output, self.weights_output) + self.bias_output
        output_layer_output = self.sigmoid(output_layer_input)

        return hidden_layer_output, output_layer_output

    def backward(self, X, y, output):
        hidden_layer_output, output_layer_output = output

        # 计算输出层的误差
        output_error = y - output_layer_output
        output_delta = output_error * self.sigmoid_derivative(output_layer_output)

        # 计算隐藏层的误差
        hidden_error = np.dot(output_delta, self.weights_output.T)
        hidden_delta = hidden_error * self.sigmoid_derivative(hidden_layer_output)

        # 更新权重和偏置项
        self.weights_output += self.learning_rate * np.dot(hidden_layer_output.T, output_delta)
        self.bias_output += self.learning_rate * np.sum(output_delta, axis=0, keepdims=True)
        self.weights_hidden += self.learning_rate * np.dot(X.T, hidden_delta)
        self.bias_hidden += self.learning_rate * np.sum(hidden_delta, axis=0, keepdims=True)

    def train(self, X, y, num_epochs):
        for epoch in range(num_epochs):
            hidden_layer_output, output_layer_output = self.forward(X)
            self.backward(X, y, (hidden_layer_output, output_layer_output))

    def predict(self, X):
        _, output_layer_output = self.forward(X)
        return np.argmax(output_layer_output, axis=1)

# 创建模型并训练
model = FeedforwardNeuralNetwork(num_inputs=64, num_hidden=100, num_outputs=10, learning_rate=0.1)
model.train(X_train, y_train, num_epochs=1000)

# 在测试集上测试模型
y_pred = model.predict(X_test)
accuracy = np.mean(y_pred == np.argmax(y_test, axis=1))
print(f"Accuracy: {accuracy}")

在上面的示例中,可以调整超参数 num_hiddenlearning_rate 来观察它们对模型性能的影响。如果 num_hidden 设置得过小,可能会导致模型欠拟合,而如果设置得过大,则可能会导致模型过拟合。而如果 learning_rate 设置得过小,则可能需要更多的迭代次数才能收敛,而如果设置得过大,则可能会导致模型不收敛或者出现震荡。因此,超参数的选择需要进行反复实验和调整,以获得最佳的模型性能。

本网站的内容主要来自互联网上的各种资源,仅供参考和信息分享之用,不代表本网站拥有相关版权或知识产权。如您认为内容侵犯您的权益,请联系我们,我们将尽快采取行动,包括删除或更正。
AI教程

GPT原理解析与ChatGPT发展历程

2023-12-20 17:43:14

AI教程

如何使用阿里云Serverless函数构建定时查询脚本

2023-12-20 18:00:14

个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索