O perceptron foi criado em 1943 por Warren McCulloch e Walter Pitts. A ideia elementary por trás da sua arquitetura é a capacidade de mapear um valor de entrada (x₁, x₂, …, xₙ) para um valor de saída binário simples.
No entanto, o perceptron possui algumas limitações, como o fato de ser útil apenas em classificações binárias e exigir que o problema seja linearmente separável (o que será discutido futuramente).
O objetivo deste submit é abordar a origem e a matemática por trás do perceptron e explicar por que compreendê-lo proporcionará uma base sólida para a compreensão de outros modelos de machine studying (como a regressão logística) e redes neurais.
Rosenblatt (1958) propôs o perceptron como uma arquitetura para entender sistemas inteligentes, aplicando-se tanto a sistemas nervosos hipotéticos quanto a máquinas. O modelo possibilita a simulação de inteligência synthetic de maneira related ao funcionamento do neurônio biológico, através de sua ativação.
O algoritmo para o mapeamento consiste em calcular o produto dos valores de entrada (x₁, x₂, …, xₙ) pelos pesos (inicialmente aleatórios) e somar esses produtos (x₁*w₁ + b, x₂*w₂ + b, …, xₙ*wₙ + b) para cada ocorrência.
Em seguida, o valor obtido passará por uma função de ativação, que realizará uma classificação com base no valor computado na etapa anterior.
Quando o resultado for obtido, podemos finalmente atualizar os pesos, que foram iniciados com valores arbitrários. Esse processo se repete até que tenhamos a saída correta.
Essas etapas são conhecidas como Perceptron Studying Rule e podem ser simplificadas da seguinte maneira:
- Começamos com valores aleatórios para o peso e o viés, geralmente 0, para simplificar o cálculo.
- Para cada exemplo:
- Calculamos o valor da saída.
- Atualizamos o peso e o viés.
Embora o perceptron tenha limitações, como a dificuldade em classificar problemas não linearmente separáveis, seu design é a base para as arquiteturas modernas de redes neurais. Isso inclui modelos que, mais tarde, inspiraram a criação do Adaline (Adaptive Linear Neuron). O motivo é que, na arquitetura do perceptron, reside o cerne dos problemas em machine studying: a minimização da função de custo ou função objetiva.
[1] Rosenblatt, Frank. “The perceptron: a probabilistic mannequin for info storage and group within the mind.” Psychological evaluation 65.6 (1958): 386.
[2] Diogo Cortiz. (2020, Julho 08). Redes neurais e Perceptron — Aula 9 [Vídeo]. YouTube. https://www.youtube.com/watch?v=fEukSrpDPH0
[3] Perceptron. (n.d.). Wikipedia. https://pt.wikipedia.org/wiki/Perceptron
[4] Doe, J. (2023). Machine studying with Sklearn and Pytorch. Tech Press.
[5] Doe, J. (2023). Machine studying with Sklearn and Pytorch. Tech Press.
[6] Doe, J. (2023). Machine studying with Sklearn and Pytorch. Tech Press.