(Parte 1 de 10)

01 - Introdução -

A questão da inteligência humana sempre foi um dos problemas filosóficos mais interessantes, intrigantes e debatidos que se conhecem. Nas inúmeras tentativas de sua proposição não faltam imaginação criadora nem diversidade de idéias, sem, contudo haver nenhum paradigma unificador que permita ao menos algumas conclusões definitivas.

Uma das abordagens mais aceita na atualidade é a de considerar a questão sob múltiplos aspectos, passando necessariamente pela questão do conhecimento, de sua representação e de seu aprendizado, pelas evidências descobertas nas Ciências Biológicas, por desenvolvimentos matemáticos e pelos experimentos com artefatos construídos para mostrar um ou mais componentes do que se admite, subjetivamente ser a inteligência humana.

Um dos paradigmas de maior notoriedade hoje é o “conexionista”, que privilegia a evidência biológica de uma imensa multiplicidade de pequenos agentes com alto grau de coesão, como a existente no cérebro, para a explicação de comportamentos ditos inteligentes.

Cabe observar que o paradigma conexionista não diz respeito apenas à questão da inteligência, sendo aplicado também em campos tão diversos, quanto os das Ciências Sociais e da Economia.

02 - Histórico

A reprodução de características “Inteligentes” em máquinas construídas pelo homem é um dos objetivos mais perseguidos pela comunidade científica e tecnológica já há muito tempo.

No que diz respeito ao aspecto “Conhecimento”, remonta da Grécia antiga uma das primeiras experiências para a sua representação, feita através da “Lógica”. Na época a metodologia era exercida através da cuidadosa manipulação das estruturas lingüísticas, realizando-se com frases bem construídas e apelando-se para princípios de “Inferência”, hoje muito bem formalizado, que condiziam com as bases filosóficas da cultura na época.

As três leis fundamentais do pensamento segundo Aristóteles espelham rigorosamente os conceitos usados na formalização teórica do que hoje conhecemos como “Lógica Matemática”

A formalização acima referida deu-se mais de dois mil anos depois, a partir dos trabalhos de “Frege”, que propiciaram o desenvolvimento dos meios teóricos para “Representação Simbólica de Conhecimento” e também para a rigorosa fundamentação de toda a matemática.

02/05/02 1

A passagem dos conceitos teóricos para a prática tecnológica teve grande impulso na época da “Segunda Guerra Mundial”. A construção dos primeiros computadores digitais no fim da década de 1940 foi fruto de uma grande concentração de cientistas do mais alto gabarito em propostas de realização do que se chamava “Cérebro Eletrônico”, qualificação que há até bem pouco tempo ainda se atribuía aos processadores digitais.

Simultaneamente aos avanços das técnicas digitais, a partir de 1943 dois pesquisadores da área biológica McCulloch & Pitts (1) propuseram o primeiro modelo matemático do funcionamento de um neurônio. Este modelo, apesar de muito simples, trouxe uma grande contribuição para as discussões sobre o cérebro eletrônico, estimulando especulações sobre a verdadeira estrutura de um cérebro e, principalmente, permitindo a criação dos primeiros modelos matemáticos de dispositivos artificiais que buscavam analogias biológicas.

Sem dúvida os sonhos proliferaram e muitos recursos financeiros foram distribuídos aos grupos de pesquisa na área, uma vez que as promessas eram fantásticas. Esta situação perdurou até meados da década de “60”, quando os organismos financiadores retiraram seu apoio tendo em vista o não cumprimento das propostas contidas nos projeto. Para colocar uma pá de cal nas discussões que ocasionalmente ainda ocorriam, Minsky & Pappert (2) em 1969 publicaram um livro denominado “Perceptrons”, onde provavam que a estruturas utilizadas nos dispositivos da época eram incapazes de aprender regras lógicas tão simples quanto à do “ou - exclusivo”.

Pouquíssimos pesquisadores continuaram a trabalhar no assunto, entre os quais destacam-se: Teuvo Kohonen ( Finlândia); Edoardo Caianiello (Itália); Stephen Grossberg, (E.U.A); James Anderson (E.U.A); Kunihiko Fukushima (Japão); Bernard Widrow (USA ), estes estavam ligados a vertente do modelo biológico.

A vertente ligada à Lógica Matemática, entretanto estava mais bem apoiada institucionalmente, dada a grande conquistas realizadas na área de computação que, se não geraram o cérebro eletrônico como se propôs originalmente, obtiveram um dispositivo que inegavelmente revolucionou o ambiente tecnológico existente.

Estes pesquisadores “lançaram as bases” do que hoje entendemos por

“Inteligência Artificial”, obtendo logo no início da década de 70 resultados bastante concretos em diversas e importantes aplicações de caráter prático. Da mesma forma que a “lógica proposicional” (ou lógica de ordem zero) foi à base para o desenvolvimento dos “computadores digitais”, a lógica de predicados de primeira ordem o foi para a Inteligência Artificial. O início da década de 80 marcou a consolidação desta vertente e o crescimento acentuado das aplicações como é do conhecimento geral.

02/05/02 2

Pelo outro lado, entretanto, o “renascimento” do interesse científico teve início através dos físicos com uma aplicação dos conceitos “conexionistas” ao problema de modelagem de materiais paramagnéticos como o “vidro spin” realizada por Hopfield (3) e publicada em 1982. A idéia básica era a da analogia entre o spin magnético de um átomo influenciando a todos os demais existentes no vidro e evidentemente, sofrendo a influência de todos na determinação de sua própria orientação magnética. Esta analogia gerou um modelo dinâmico não linear que se provou ser estável desde que a matriz de pesos que medem a força de interação entre cada par de fosse simétrica. Esta condição é naturalmente verificada no problema físico que estava sendo modelado e, portanto, não causou dificuldades para sua aplicação.

A partir daí, diversas possibilidades de aplicação foram exploradas, como por exemplo, em otimização, em reconhecimento de padrões etc., com resultados bastante encorajadores. As boas condições de financiamento da pesquisa na área voltaram e o volume de trabalhos publicados começou a crescer significativamente.

Em 1986 ocorreu o fato que efetivamente colocou a área de “Redes Neurais Artificiais” como uma das prioritárias na obtenção de recursos. Este fato foi à explicação por Rummelhart, Hinton e Williams (4) de um algoritmo de aprendizado (backpropagation) para redes do tipo Perceptron com estrutura multicamadas, fazendo cair definitivamente à alegação de que estes tipos de redes resolviam apenas problemas triviais. Cabe aqui observar, a bem da verdade, que Minsky e Pappert (et alli) estavam absolutamente corretos no que afirmaram, pois os algoritmos de aprendizagem existente na época eram capazes de aprender apenas a solução para problemas simples de classificação, não sendo conhecido nenhum outro com a generalidade do “backpropagation”. É importante ainda salientar que este algoritmo foi desenvolvido anteriormente por outros pesquisadores (Werbos 1974, Parker 1975 e Le Cun 1975) que, entretanto, o estavam aplicando em problemas não relacionados diretamente com redes neurais.

Hoje redes neurais constituem uma teoria para estudo problemas ou fenômenos complexos. É considerada como um ramo ou sub especialidade da inteligência artificial. Após a publicação em 1986 do clássico “Parallel Distributed Processing” editado por Rummelhart e McClelland ambos do PDP Research Group da Universidade de San Diego na California, a área de redes teve um crescimento vertiginoso. Cabe ressaltar que esta área está sendo reativada desde a década de 1980 e um volumoso número de pesquisa e trabalhos têm sido realizados, apesar da falta de um corpo teórico consolidado, e a inexistência de livros abrangentes.

A proliferação de publicações inexpressivas, contradições em diversas conjecturas de trabalhos, resultados divergentes, caracterizam a área ainda pouco conhecida, ou seja, onde o conhecimento científico é pouco consolidado. Por outro lado às perspectivas que se abrem para pesquisadores e tecnólogos são tentadoras.

Desta forma, assistimos a partir de 1986 a um crescimento exponencial dos financiamentos e das atividades na área. Hoje se pode dizer que na maioria das Universidades e Centro de Pesquisa existem grupos trabalhando no assunto.

02/05/02 3

Após as considerações sobre a evolução histórica das redes neurais, cabe uma pergunta.

Quando utilizar a redes neurais? Esta pergunta pode ser respondida da seguinte maneira:

1) Quando as conclusões são baseadas em dados de natureza fuzzy. Se os dados são opiniões pessoais, categoria mal definida, ou estão sujeitos a grandes erros, os comportamentos robustos das RNs é decisivo para a solução do problema. 2) Os fatores importantes para a tomada de decisões são quase que imperceptíveis.

Uma das principais vantagens de um RN é a sua habilidade de descobrir padrões tão obscuros que passam desapercebidos por especialistas humanos e métodos estatísticos tradicionais. 3) Os dados apresentam um grau significativo de não-linearidade difícil de ser prevista.

Modelos tradicionais para previsão de série temporais, tais como ARMA e filtro de Kalman, são baseados em modelos pré-definidos. Se os dados não podem ser ajustados ao modelo, os resultados são inúteis. RNs são extremamente adaptáveis. 4) Os dados são caóticos (no senso matemático). Caos pode ser encontrado em ruídos de linha telefônica, cotações de mercado de capitais, carga elétrica, e em diversos outros processos. Tal comportamento tem efeito devastador para a grande maioria de técnicas. Entretanto, RNs são geralmente robustas em relação a dados desta natureza.

Complementando as respostas possíveis, podemos dizer que nos últimos anos as Redes Neurais Artificiais tem recebido uma grande atenção como ferramenta de computação em diversas áreas, entre as quais: 1) Representação de função; 2) Modelagem de processo; 3) Aprendizado de processo de decisão; 4) Problema de previsão; 5) Estimação da inversa de um sistema; 6) Determinação de ação de controle; 7) Descobrimento de similaridade de padrões; 8) Filtragem de dados; 9) Aquisição automática de conhecimento; 10) Monitoramento e diagnóstico rápido; 1) Processamento de informações distorcidas e/ ou incompletas; 12) Memória accessível pelo conteúdo; 13) Orientação na solução de problemas de otimização combinatória; 14) Processamento de sinais e/ou imagens Exemplos:

- Reconhecimento de Padrões - Reconhecemos com relativa facilidade um rosto visto anteriormente, mas um algoritmo para realizar esta tarefa pode ser bastante complexo;

- Problemas de Otimização Combinatória - 02/05/02 4

No clássico problema do caixeiro viajante, para um número razoável de cidades o homem acha uma solução ótima (quase ótima) com relativa facilidade. Mas algoritmos para esta tarefa são complexos e extensos.

O cérebro apresenta também outras características muito desejáveis para uma máquina que são:

- Capacidade de aprender sem que seja necessário conhecer o algoritmo que resolve o problema; Exemplo: qual algoritmo para identificar um rosto?

- Capacidade de generalizar; Exemplo: somos capazes de reconhecer o mesmo rosto em posição ou condição de iluminação diferente.

- Robustez - isto quer dizer que a perda de algumas unidades de processamento, ou neurônios, não implica na perda de uma quantidade considerável de informação.

Em vista do exposto anteriormente, leva-nos a reproduzir artificialmente as redes neuronais biológicas, e usá-las como ferramenta de computação em engenharia.

Para um bom desempenho do leitor é necessário um conhecimento básico de: - Cálculo;

- Equações diferenciais;

- Equações às diferenças;

- Probabilidade;

- Álgebra linear;

- Sistemas lineares

O que são redes neurais artificiais?

1. Segundo Alexandre P. Alves da Silva: “Uma rede neural artificial é uma estrutura de processamento de informação não - algorítmica na forma de um grafo direcionado, onde cada nó, denominado neurônio, possui muitas entradas e um único sinal de saída que pode ser desmembrado. O processamento em cada nó depende exclusivamente das entradas desse nó e dos valores acumulados em uma pequena memória local do mesmo”.

2. Segundo Simon Haykin: “Uma rede neural é um processador maciçamente paralelamente distribuído constituído de unidades de processamento simples, que têm a propensão natural para armazenar conhecimento experimental e torná-lo disponível para uso. Ela se assemelha ao cérebro em dois aspectos”: a) O conhecimento é adquirido pela rede a partir de seu ambiente através de um processo de aprendizagem.

b) Forças de conexão entre neurônios, conhecidas como pesos sinápticos, são utilizadas para armazenar o conhecimento adquirido.”

(Parte 1 de 10)

Comentários