在深度学习中,激活函数是神经网络中的重要组成部分。今天,让我们用Python的Matplotlib库来可视化三种常用的激活函数:ReLU、Sigmoid和Tanh。首先,确保安装了matplotlib库(pip install matplotlib)。接下来,通过ax1.spines设置坐标轴样式,让图表更美观。例如,`ax1.spines['top'].set_visible(False)`可以隐藏顶部边框。
代码如下:
```python
import numpy as np
import matplotlib.pyplot as plt
x = np.linspace(-5, 5, 100)
relu = np.maximum(0, x)
sigmoid = 1 / (1 + np.exp(-x))
tanh = np.tanh(x)
plt.figure(figsize=(8,6))
plt.plot(x, relu, label="ReLU")
plt.plot(x, sigmoid, label="Sigmoid")
plt.plot(x, tanh, label="Tanh")
设置坐标轴样式
ax1 = plt.gca()
ax1.spines['right'].set_color('none')
ax1.spines['top'].set_color('none')
plt.legend(loc='upper left')
plt.show()
```
运行后,你会看到一个简洁直观的图表,帮助你更好地理解这些激活函数的工作原理。💡掌握它们对于构建高效的神经网络至关重要!快来试试吧!🚀