Arquitetura e Entradas (Simulado)
💡 Esta seção mantém o MLP simulado. A aba MLP (Real • TF.js) mostra backprop e otimizadores reais.
📌 Entradas
🧬 Rede Neural (simulada)
📝 Log / Passo a passo
⚡ MLP (Real) — TensorFlow.js
💡 Aqui a rede aprende sozinha com backpropagation automático, função de custo e otimizadores (Adam/SGD).
📉 Curva de perda
📊 Resultados
🎨 Visualizações rápidas
📌 Classificação 2D mostra o plano de decisão; regressão mostra curva ajustada.
Para tarefas com 3 entradas, a visualização gráfica é substituída por texto.
🔢 Entradas
| x₀ | x₁ | x₂ | y* | ŷ | classe | status |
|---|
📖 Teoria — Guia Didático
📚 Texto didático resumido para uso em aula.
🔹 Perceptron Multicamadas (MLP): Rede neural feedforward com camadas ocultas que permite aprender funções não-lineares.
🎭 Funções de Ativação: Sigmoid (saída entre 0-1), Tanh (entre -1 e 1), ReLU (max(0,x)) - essenciais para não-linearidade.
📉 Backpropagation: Algoritmo que calcula gradientes da função de custo em relação aos pesos usando regra da cadeia.
⚙️ Otimizadores: SGD (Stochastic Gradient Descent) e Adam (Adaptive Moment Estimation) ajustam pesos minimizando o erro.
🖼️ CNN: Camadas convolucionais extraem características espaciais; pooling reduz dimensionalidade.
🔄 RNN: Neurônios com memória (estado oculto) para processamento sequencial.
🖼️ CNN — Protótipo
Convolução 3×3 + ReLU + Pooling 2×2 (visual). Desenhe na entrada!
🎛️ Kernel 3×3
z = x * K; a = relu(z); y = pool(a)
🔄 RNN — Protótipo
Avance no tempo, veja h_t e y_t. Sem treino.
⚙️ Parâmetros
h_t = tanh(W_xh·x_t + W_hh·h_{t-1} + b)
y_t = sigmoid(W_hy·h_t + c)