Uma Introdução as Redes Neurais - TATIBANA, Cassia

Uma Introdução as Redes Neurais - TATIBANA, Cassia

(Parte 1 de 6)

Seja bem vindo à homepage de Redes Neurais.

Aqui você terá noções básicas de redes neurais, passando por seu histórico, topologias, suas aplicações, passos para se desenvolver aplicações utilizando conceitos de redes neurais, chegando até exemplos práticos desenvolvidos por empresas espalhadas pelo mundo todo e que podem ser visitadas pela internet.

Se você deseja conhecer as referências bibliográficas utilizadas neste trabalho, siga este link.

Cassia Yuri Tatibana Deisi Yuki Kaetsu

Índice:

Resumo desta Página Uma Introdução às Redes Neurais Histórico Neurocomputação Motivação A Rede Neural Artificial Classificação de Redes Neurais Artificiais

Página 1 de 31Uma Introdução às Redes Neurais

Topologias Aprendizado da Rede Desenvolvimento de Aplicações Aplicações de Redes Neurais Por que utilizar redes neurais? Considerações Finais Links para outros sites Programas de simulação - Downloads Referências Bibliográficas

Resumo desta Página

Esta página se propõe a descrever os principais tópicos referentes à redes neurais, desde seu surgimento até propostas de implementação em inúmeras aplicações atuais. Iniciando com uma introdução ao assunto, descrevemos o funcionamento de células humanas, na qual se baseou todo o funcionamento das unidades componentes das redes neurais. No tópico histórico descrevemos o surgimento, propostas iniciais de redes neurais, conflitos e progressos neste tema. Seguimos com um quadro comparativo entre o cérebro humano e o computador, e entre máquinas tradicionais e máquinas baseadas no conceito de redes neurais. No tópico Motivação, descrevemos os diversos motivos que levam inúmeros estudiosos a trabalhar e desenvolver redes neurais.

Descrevemos ainda, no tópico Classificação de Redes Neurais e Topologias de redes neurais, aspectos referentes à descrição destas a partir de suas características de desenvolvimento e aplicação. Descreveremos brevemente alguns conceitos e teorias que descrevem o aprendizado de uma rede neural, e passaremos a uma coletânea de aplicações das mesmas que se encontram em desenvolvimento ou em fase de projeto. O tópico links para outros sites traz diversos endereços interessantes de outras universidades, centros de pesquisas ou até empresas que procuram aproveitar e desenvolver as vantagens de redes neurais. E finalmente em Considerações finais, apresentamos algumas observações decorrentes de pesquisas e estudos realizados durante o desenvolvimento desta página.

Página 2 de 31Uma Introdução às Redes Neurais

Uma Introdução às Redes Neurais

O cérebro humano é considerado o mais fascinante processador baseado em carbono existente, sendo composto por aproximadamente 10 bilhões neurônios. Todas as funções e movimentos do organismo estão relacionados ao funcionamento destas pequenas células. Os neurônios estão conectados uns aos outros através de sinapses, e juntos formam uma grande rede, chamada REDE NEURAL. As sinapses transmitem estímulos através de diferentes concentrações de Na+ (Sódio) e K+ (Potássio), e o resultado disto pode ser estendido por todo o corpo humano. Esta grande rede proporciona uma fabulosa capacidade de processamento e armazenamento de informação.

O sistema nervoso é formado por um conjunto extremamente complexo de neurônios. Nos neurônios a comunicação é realizada através de impulsos, quando um impulso é recebido, o neurônio o processa, e passado um limite de ação, dispara um segundo impulso que produz uma substância neurotransmissora o qual flui do corpo celular para o axônio (que por sua vez pode ou não estar conectado a um dendrito de outra célula). O neurônio que transmite o pulso pode controlar a freqüência de pulsos aumentando ou diminuindo a polaridade na membrana pós sináptica. Eles tem um papel essencial na determinação do funcionamento, comportamento e do raciocínio do ser humano. Ao contrário das redes neurais artificiais, redes neurais naturais não transmitem sinais negativos, sua ativação é medida pela freqüência com que emite pulsos, freqüência esta de pulsos contínuos e positivos. As redes naturais não são uniformes como as redes artificiais, e apresentam uniformidade apenas em alguns pontos do organismo. Seus pulsos não são síncronos ou assíncronos, devido ao fato de não serem contínuos, o que a difere de redes artificiais.

Os principais componentes dos neurônios são:

Os dentritos, que tem por função, receber os estímulos transmitidos pelos outros neurônios; O corpo de neurônio, também chamado de somma, que é responsável por coletar e

Página 3 de 31Uma Introdução às Redes Neurais combinar informações vindas de outros neurônios; E finalmente o axônio, que é constituído de uma fibra tubular que pode alcançar até alguns metros, e é responsável por transmitir os estímulos para outras células.

fig01-Esquema dos constituíntes da célula neural

Histórico das Redes Neurais Artificiais

As primeiras informações mencionadas sobre a neuro computação datam de 1943, em artigos de McCulloch e Pitts, em que sugeriam a construção de uma máquina baseada ou inspirada no cérebro humano. Muitos outros artigos e livros surgiram desde então, porém, por um longo período de tempo, pouco resultado foi obtido. Até que em 1949 Donald Hebb escreveu um livro entitulado "The Organization of Behavior" (A Organização do Comportamento) que perseguia a idéia de que o condicionamento psicológico clássico está presente em qualquer parte dos animais pelo fato de que esta é uma propriedade de neurônios individuais. Suas idéias não eram completamente novas, mas Hebb foi o primeiro a propor uma lei de aprendizagem especifica para as sinápses dos neurônios. Este primeiro e corajoso passo serviu de inspiração para que muitos outros pesquisadores perseguissem a mesma idéia. E embora muito tenha sido estudado e publicado nos anos que seguiram (1940-1950), estes serviram mais como base para

Página 4 de 31Uma Introdução às Redes Neurais desenvolvimento posterior que para o próprio desenvolvimento.

Também proveniente deste período de tempo foi a construção do primeiro neuro computador, denominado Snark, por Mavin Minsky, em 1951. O Snark operava com sucesso a partir de um ponto de partida técnico, ajustando seus pesos automaticamente, entretanto, ele nunca executou qualquer função de processamento de informação interessante, mas serviu de inspiração para as idéias de estruturas que o sucederam.

Em 1956 no "Darthmouth College" nasceram os dois paradigmas da Inteligência

Artificial, a simbólica e o conexionista. A Inteligência Artificial Simbólica tenta simular o comportamento inteligente humano desconsiderando os mecanismos responsaveis por tal. Já a Inteligência Artificial Conexionista acredita que construíndo-se um sistema que simule a estrutura do cérebro, este sistema apresentará inteligência, ou seja, será capaz de aprender, assimilar, errar e aprender com seus erros.

O primeiro neuro computador a obter sucesso (Mark I Perceptron) surgiu em 1957 e 1958, criado por Frank Rosenblatt, Charles Wightman e outros. Devido a profundidade de seus estudos, suas contribuições técnicas e de sua maneira moderna de pensar, muitos o vêem como o fundador da neuro computação na forma em que a temos hoje. Seu interesse inicial para a criação do Perceptron era o reconhecimento de padrões.

Após Rosenblatt, Bernard Widrow, com a ajuda de alguns estudantes, desenvolveram um novo tipo de elemento de processamento de redes neurais chamado de Adaline, equipado com uma poderosa lei de aprendizado, que diferente do Perceptron ainda permanece em uso. Widrow também fundou a primeira companhia de hardware de neurocomputadores e componentes.

Infelizmente, os anos seguintes foram marcados por um entusiasmo exagerado de muitos pesquisadores, que passaram a publicar mais e mais artigos e livros que faziam uma previsão pouco confiável para a época, sobre máquinas tão poderosas quanto o cérebro humano que surgiriam em um curto espaço de tempo. Isto tirou quase toda a credibilidade dos estudos desta área e causou grandes aborrecimentos aos técnicos de outras áreas.

Um período de pesquisa silenciosa seguiu-se durante 1967 a 1982, quando poucas pesquisas foram publicadas devido aos fatos ocorridos anteriormente. Entretanto, aqueles que pesquisavam nesta época, e todos os que se seguiram no decorrer de treze anos conseguiram novamente estabelecer um campo concreto para o renascimento da área.

Nos anos 80, muitos dos pesquisadores foram bastante corajosos e passaram a publicar diversas propostas para a exploração de desenvolvimento de redes neurais bem como suas aplicações. Porém talvez o fato mais importante deste período tenha ocorrido quando Ira Skurnick, um administrador de programas da DARPA (Defense Advanced Research Projects Agency) decidiu ouvir os argumentos da neuro computação e seus projetistas, e divergindo dos caminhos tradicionais dos conhecimentos convencionais, fundou em 1983 pesquisas em neuro computação. Este ato não só abriu as portas para a neuro computação, como também deu à DARPA o status de uma das líderes mundiais em se tratando de "moda" tecnológica.

Página 5 de 31Uma Introdução às Redes Neurais

Outra "potência" que emergiu neste período foi John Hopfield, renomado físico de reputação mundial, se interessou pela neuro computação, e escreveu artigos que percorreram o mundo todo persuadindo centenas de cientistas, matemáticos, e tecnólogos altamente qualificados a se unirem esta nova área emergente.

Apesar de um terço dos pesquisadores da área terem aderido à mesma pela influência de Hopfield, foi em 1986 que este campo de pesquisa "explodiu" com a publicação do livro "Parallel Distributed Processing" (Processamento Distribuído Paralelo) editado por David Rumelhart e James McClelland.

Em 1987 ocorreu em São Francisco a primeira conferência de redes neurais em tempos modernos, a IEEE International Conference on Neural Networks, e também foi formada a International Neural Networks Society (INNS). A partir destes acontecimentos decorreram a fundação do INNS journal em 1989, seguido do Neural Computation e do IEEE Transactions on Neural Networks em 1990.

Desde 1987, muitas universidades anunciaram a formação de institutos de pesquisa e programas de educação em neuro computação.

Alguns dos fatos mencionados são listados abaixo:

neurofisiologista McCulloch e matemático Walter Pitts (1943), cujo trabalho fazia uma analogia entre células vivas e o processo eletrônico, simulando o comportamento do neurônio natural, onde o neurônio possuia apenas uma saída, que era uma função de entrada (threshold) da soma do valor de suas diversas entradas;

fig02-Neurônio artificial projetado por McCulloch psicólogo Donald Hebb (1949), demostrou que a capacidade da aprendizagem em redes neurais vem da alteração da eficiência sináptica, isto é, a conexão somente é reforçada se tanto as células pré-sinápticas quanto as pós-sinápticas estiverem excitadas; e Rosemblatt (1958) mostrou em seu livro (Principles of Neurodynamics) o modelo dos "Perceptrons". Nele, os neurônios eram organizados em camada de entrada e saída, onde os pesos das conexões eram adaptados a fim de se atingir a eficiência

Página 6 de 31Uma Introdução às Redes Neurais sináptica;

fig03-Rede de perceptrons proposta por Rosemblatt

Em 1960 surgiu a rede ADALINE(ADAptative LInear Network) e o MADALINE (Many ADALINE) perceptron, proposto por Widrow e Hoff. O ADALINE/MADALINE utilizou saídas analógicas em uma arquitetura de três camadas.

fig04-Redes ADALINE e MADALINE

Muitos históricos desconsideram a existência de pesquisa nesssa área nos anos 60 e 70 e apontam uma retomada das pesquisas com a publicação dos trabalhos do físico e biólogo Hopfield (1982) relatando a utilização de redes simétricas para otimização, através de um algoritmo de aprendizagem que estabilizava uma rede binária simétrica com realimentação.

Rumelhart, Hinton e Williams introduziram o poderoso método Backpropagation.

Página 7 de 31Uma Introdução às Redes Neurais

fig05-Estrutura do método Backpropagation

Cooper, Cowan, Fukushima, von der Malsburg e muitos outros foram alguns dos muitos pesquisadores dos anos 60 e 70, cujos estudos não devem ser menosprezados.

Fatos Históricos em ordem cronológica:

- 1943: McCULLOUGH e PITTS estabeleceram as bases da neurocomputação, com modelos matemáticos.

- 1949: HEBB traduziu matematicamente a sinapse dos neurônios biológicos.

(Parte 1 de 6)

Comentários