Notebook com códigos R para a implementação do Multi-Layer Perceptron - ERAMIA 2020
Código baseado na implementação do professor Rodrigo Mello - ICMC/USP
https://www.youtube.com/watch?v=FSvD2HT0Zfg
Primeiro vamos implementar uma função de ativação
funcao.ativacao <- function(v){
# Função logística
y <- 1 / (1 + exp(-v))
return(y)
}
Vamos também precisar da derivada da função de ativação
der.funcao.ativacao <- function(y){
# Derivada da logística
derivada <- y * (1 - y)
return(derivada)
}
Vamos criar uma arquitetura para nossa MLP
arquitetura <- function(num.entrada, num.escondida, num.saida,
funcao.ativacao, der.funcao.ativacao){
arq <- list()
# Parametros da rede
arq$num.entrada <- num.entrada
arq$num.escondida <- num.escondida
arq$num.saida <- num.saida
arq$funcao.ativacao <- funcao.ativacao
arq$der.funcao.ativacao <- der.funcao.ativacao
# 2 neuronios na camada escondida
#
# Ent1 Ent2 Bias
# 1 w11 w12 w13
# 2 w21 w22 w23
# Pesos conectando entrada e escondida
num.pesos.entrada.escondida <- (num.entrada+1)*num.escondida
arq$escondida <- matrix(runif(min=-0.5,max=0.5, num.pesos.entrada.escondida),
nrow=num.escondida, ncol=num.entrada+1)
# Pesos conectando escondida e saida
num.pesos.escondida.saida <- (num.escondida+1)*num.saida
arq$saida <- matrix(runif(min=-0.5,max=0.5, num.pesos.escondida.saida),
nrow=num.saida, ncol=num.escondida+1)
return(arq)
}
Precisamos de um código para a fase de propagação da MLP
mlp.propagacao <- function(arq, exemplo){
# Entrada -> Cama Escondida
v.entrada.escondida <- arq$escondida %*% as.numeric(c(exemplo,1))
y.entrada.escondida <- arq$funcao.ativacao(v.entrada.escondida)
# Camada Escondida -> Camada de Saida
v.escondida.saida <- arq$saida %*% c(y.entrada.escondida,1)
y.escondida.saida <- arq$funcao.ativacao(v.escondida.saida)
# Resultados
resultado <- list()
resultado$v.entrada.escondida <- v.entrada.escondida
resultado$y.entrada.escondida <- y.entrada.escondida
resultado$v.escondida.saida <- v.escondida.saida
resultado$y.escondida.saida <- y.escondida.saida
return(resultado)
}
Agora o código para a fase de treinamento da MLP, usando o algoritmo Back-propagation
mlp.retropropagacao <- function(arq, dados, n, limiar){
erroQuadratico <- 2 * limiar
epocas <- 0
# Treina eqto o erro quadratico for maior que um limiar
while(erroQuadratico > limiar){
erroQuadratico <- 0
# Treino para todos os exemplos (epoca)
for(i in 1:nrow(dados)){
# Pego um exemplo de entrada
x.entrada <- dados[i,1:arq$num.entrada]
x.saida <- dados[i,ncol(dados)]
# Pego a saida da rede para o exemplo
resultado <- mlp.propagacao(arq,x.entrada)
y <- resultado$y.escondida.saida
# Calculo do erro para o exemplo
erro <- x.saida - y
# Soma erro quadratico
erroQuadratico <- erroQuadratico + erro*erro
# Gradiente local no neuronio de saida
# erro * derivada da funcao de ativacao
grad.local.saida <- erro * arq$der.funcao.ativacao(y)
# Gradiente local no neuronio escondido
# derivada da funcao de ativacao no neuronio escondido * soma dos gradientes
# locais dos neuronios conectados na proxima camada * pesos conectando a camada
# escondida com a saida
pesos.saida <- arq$saida[,1:arq$num.escondida]
grad.local.escondida <-
as.numeric(arq$der.funcao.ativacao(resultado$y.entrada.escondida)) *
(grad.local.saida %*% pesos.saida)
# Ajuste dos pesos
# Saida
arq$saida <- arq$saida + n * (grad.local.saida %*%
c(resultado$y.entrada.escondida,1))
# Escondida
arq$escondida <- arq$escondida + n * (t(grad.local.escondida) %*%
as.numeric(c(x.entrada,1)))
} # Fim for(i in 1:nrow(dados))
erroQuadratico <- erroQuadratico / nrow(dados)
cat("Erro Quadratico Medio = ",erroQuadratico, "\n")
epocas <- epocas+1
} # Fim while(erroQuadratico > limiar)
retorno <- list()
retorno$arq <- arq
retorno$epocas <- epocas
return(retorno)
}
Leitura de dados sobre risco de crédito.
Queremos prever, com base nas variáveis de entrada, se ocorrerá ou não um calote em 10 anos
dataset <- read.csv("creditset.csv")
head(dataset)
# clientid: identificação do cliente
# income: renda anual
# age: idade
# loan: empréstimo com data de no mínimo 10 anos atrás
# LTI: razão entre valor do empréstimo e renda anual
# default10yr: se ocorrerá (1) ou não (0) um calote em 10 anos
Vamos utilizar como variáveis de entrada LTI e age
dados <- dataset[,c(3,5,6)]
dados[,1:2] <- scale(dados[,1:2]) # normalização dos dados (media 0 e desvio 1)
Vamos escolher aleatoriamente dados para treino e teste O conjunto de dados já está randomizado. Assim, Vamos pegar os primeiros 1400 exemplos para treino e o restante para teste
dados.treino <- dados[1:1400,]
dados.teste <- dados[1401:2000,]
Vamos treinar nossa rede com 4 neurônios na camada escondida
arq <- arquitetura(2,4,1,funcao.ativacao, der.funcao.ativacao)
modelo <- mlp.retropropagacao(arq,dados.treino,0.3,1e-3)
Fazendo predicoes para cada exemplo de teste
predicoes <- vector()
for(i in 1:nrow(dados.teste)){
pred <- mlp.propagacao(modelo$arq,dados.teste[i,1:2])$y.escondida.saida
predicoes <- c(predicoes,pred)
}
Criando uma matriz para comparação dos resultados
matriz.comparacao <- cbind(dados.teste[,3],predicoes)
colnames(matriz.comparacao) <- c('V','P')
matriz.comparacao
Matriz de confusão com o arredondamento das predições
table(matriz.comparacao[,1],round(matriz.comparacao[,2]))
---
title: "R Notebook - Multi-Layer Perceptron"
output: html_notebook
---

## Notebook com códigos R para a implementação do Multi-Layer Perceptron - ERAMIA 2020

Código baseado na implementação do professor Rodrigo Mello - ICMC/USP

https://www.youtube.com/watch?v=FSvD2HT0Zfg 

Primeiro vamos implementar uma função de ativação
```{r}
funcao.ativacao <- function(v){

  # Função logística
  y <- 1 / (1 + exp(-v))

  return(y)
}
```


Vamos também precisar da derivada da função de ativação
```{r}
der.funcao.ativacao <- function(y){

  # Derivada da logística
  derivada <- y * (1 - y)

  return(derivada)
}
```


Vamos criar uma arquitetura para nossa MLP
```{r}
arquitetura <- function(num.entrada, num.escondida, num.saida,
                        funcao.ativacao, der.funcao.ativacao){

  arq <- list()

  # Parametros da rede    
  arq$num.entrada <- num.entrada
  arq$num.escondida <- num.escondida
  arq$num.saida <- num.saida
  arq$funcao.ativacao <- funcao.ativacao
  arq$der.funcao.ativacao <- der.funcao.ativacao

  # 2 neuronios na camada escondida
  # 
  #       Ent1    Ent2   Bias 
  # 1     w11     w12    w13
  # 2     w21     w22    w23

  # Pesos conectando entrada e escondida
  num.pesos.entrada.escondida <- (num.entrada+1)*num.escondida
  arq$escondida <- matrix(runif(min=-0.5,max=0.5, num.pesos.entrada.escondida),
                                nrow=num.escondida, ncol=num.entrada+1)

  # Pesos conectando escondida e saida
  num.pesos.escondida.saida <- (num.escondida+1)*num.saida
  arq$saida <- matrix(runif(min=-0.5,max=0.5,  num.pesos.escondida.saida),
                            nrow=num.saida, ncol=num.escondida+1)


  return(arq)
}
```


Precisamos de um código para a fase de propagação da MLP
```{r}
mlp.propagacao <- function(arq, exemplo){

  # Entrada -> Cama Escondida
  v.entrada.escondida <- arq$escondida %*% as.numeric(c(exemplo,1))
  y.entrada.escondida <- arq$funcao.ativacao(v.entrada.escondida)

  # Camada Escondida -> Camada de Saida
  v.escondida.saida <- arq$saida %*% c(y.entrada.escondida,1)
  y.escondida.saida <- arq$funcao.ativacao(v.escondida.saida)

  # Resultados
  resultado <- list()
  resultado$v.entrada.escondida <- v.entrada.escondida
  resultado$y.entrada.escondida <- y.entrada.escondida
  resultado$v.escondida.saida <- v.escondida.saida
  resultado$y.escondida.saida <- y.escondida.saida

  return(resultado)
}
```


Agora o código para a fase de treinamento da MLP, usando o algoritmo Back-propagation
```{r}
mlp.retropropagacao <- function(arq, dados, n, limiar){

  erroQuadratico <- 2 * limiar
  epocas <- 0

  # Treina eqto o erro quadratico for maior que um limiar
  while(erroQuadratico > limiar){
    erroQuadratico <- 0

    # Treino para todos os exemplos (epoca)
    for(i in 1:nrow(dados)){

      # Pego um exemplo de entrada
      x.entrada <- dados[i,1:arq$num.entrada]
      x.saida <- dados[i,ncol(dados)]

      # Pego a saida da rede para o exemplo
      resultado <- mlp.propagacao(arq,x.entrada)
      y <- resultado$y.escondida.saida

      # Calculo do erro para o exemplo
      erro <- x.saida - y

      # Soma erro quadratico
      erroQuadratico <- erroQuadratico + erro*erro

      # Gradiente local no neuronio de saida
      # erro * derivada da funcao de ativacao
      grad.local.saida <- erro * arq$der.funcao.ativacao(y)

      # Gradiente local no neuronio escondido
      # derivada da funcao de ativacao no neuronio escondido * soma dos gradientes
      # locais dos neuronios conectados na proxima camada * pesos conectando a camada
      # escondida com a saida
      pesos.saida <- arq$saida[,1:arq$num.escondida]
      grad.local.escondida <-
        as.numeric(arq$der.funcao.ativacao(resultado$y.entrada.escondida)) *
        (grad.local.saida %*% pesos.saida)

      # Ajuste dos pesos
      # Saida
      arq$saida <- arq$saida + n * (grad.local.saida %*%
                                     c(resultado$y.entrada.escondida,1))
      # Escondida
      arq$escondida <- arq$escondida + n * (t(grad.local.escondida) %*%
                                             as.numeric(c(x.entrada,1)))
    } # Fim for(i in 1:nrow(dados))

    erroQuadratico <- erroQuadratico / nrow(dados)
    cat("Erro Quadratico Medio = ",erroQuadratico, "\n")
    epocas <- epocas+1
    
  } # Fim while(erroQuadratico > limiar)

  retorno <- list()
  retorno$arq <- arq
  retorno$epocas <- epocas

  return(retorno)
}
```


Leitura de uma tabela com os dados do problema XOR
----------------------------------------------------------
```{r}
dados <- read.table('XOR.txt')
dados
```

Vamos treinar nossa MLP
```{r}
arq <- arquitetura(2,2,1,funcao.ativacao, der.funcao.ativacao)
modelo <- mlp.retropropagacao(arq,dados,0.1,1e-3)
```

Vamos testar em dados novos
```{r}
retorno <- mlp.propagacao(modelo$arq,c(0,1))
retorno$y.escondida.saida

mlp.propagacao(modelo$arq,c(1,0))$y.escondida.saida

mlp.propagacao(modelo$arq,c(1,1))$y.escondida.saida

mlp.propagacao(modelo$arq,c(0,0))$y.escondida.saida
```
----------------------------------------------------------


Leitura de dados sobre risco de crédito.
----------------------------------------------------------
Queremos prever, com base nas variáveis de entrada, 
se ocorrerá ou não um calote em 10 anos
```{r}
dataset <- read.csv("creditset.csv")
head(dataset)

# clientid: identificação do cliente
# income: renda anual
# age: idade
# loan: empréstimo com data de no mínimo 10 anos atrás
# LTI: razão entre valor do empréstimo e renda anual
# default10yr: se ocorrerá (1) ou não (0) um calote em 10 anos
```

Vamos utilizar como variáveis de entrada LTI e age
```{r}
dados <- dataset[,c(3,5,6)]
dados[,1:2] <- scale(dados[,1:2]) # normalização dos dados (media 0 e desvio 1)
```


Vamos escolher aleatoriamente dados para treino e teste
O conjunto de dados já está randomizado. Assim, Vamos pegar os primeiros 1400
exemplos para treino e o restante para teste
```{r}
dados.treino <- dados[1:1400,]
dados.teste <- dados[1401:2000,]
```


Vamos treinar nossa rede com 4 neurônios na camada escondida
```{r}
arq <- arquitetura(2,4,1,funcao.ativacao, der.funcao.ativacao)
modelo <- mlp.retropropagacao(arq,dados.treino,0.3,1e-3)
```


Fazendo predicoes para cada exemplo de teste
```{r}
predicoes <- vector()
for(i in 1:nrow(dados.teste)){

  pred <- mlp.propagacao(modelo$arq,dados.teste[i,1:2])$y.escondida.saida
    
  predicoes <- c(predicoes,pred)
}
```


Criando uma matriz para comparação dos resultados
```{r}
matriz.comparacao <- cbind(dados.teste[,3],predicoes)
colnames(matriz.comparacao) <- c('V','P')
matriz.comparacao
```


Matriz de confusão com o arredondamento das predições
```{r}
table(matriz.comparacao[,1],round(matriz.comparacao[,2]))
```






