Ayuda
Ir al contenido

Dialnet


Resumen de Treinamento de uma célula neural artificial paraconsistente de aprendizagem

Maurício Conceição Mário, Luís Fernando Pompeo Ferrara, João Inácio da Silva Filho

  • As Redes Neurais Artificiais têm se constituído em um vasto campo de pesquisa na teoria conexionista dos processos funcionais do cérebro. No entanto, as aplicações diretas das teorias das Redes Neurais Artificiais apresentam algumas dificuldades, o que se deve a vários motivos, entre eles a necessidade da modelagem de processos obrigar o tratamento de extensas massas de dados que trazem informações incertas. Quando as análises são feitas baseadas apenas em evidências, ou em conhecimento incerto, os Sistemas que utilizam a Lógica Clássica ou binária se mostram ineficazes ou impossibilitados de serem aplicados diretamente, por isso procura-se novas fonnas de tratamento de sinais utilizando as lógicas não-Clássicas, A Lógica Paraconsistente Anotada LPA pertence à classe das lógicas não-clássicas e, conforme demonstrado em relevantes trabalhos na área de Inteligência Artificial, é uma boa solução para fazer tratamento destas situações incertas de modo não-trivial. Neste trabalho, originado do método de interpretação da Lógica Paraconsistente Matada, é apresentada uma Célula Neural Artificial Paraconsistente de Aprendizagem CNAPap capaz de aprender um padrão depois que o mesmo for aplicado determinado número de vezes em sua entrada A CNAPap apresentada pertence a uma família de Células Neurais Artificiais Paraconsistentes (CNAP) que traz inovação nas aplicações de Redes Neurais Artificiais.


Fundación Dialnet

Dialnet Plus

  • Más información sobre Dialnet Plus