Thursday, September 25, 2008




Ficha técnica


estatística
numero de Paginas...............................................................................................62
palavras......................................................................................................... 22.694
caracteres......................................................................................................123.656





Matemática e o Computador
Trabalho de pesquisa
Para compreensão e estudo
Wellington Alves



Uma reflexão sobre a História

Introdução
A História e suas interpretações
A História da Ciência
Enfoque histórico adotado



A Lógica de Aristóteles.......................18


Boole e os fundamentos da Lógica Matemática e da Computação
.....................................................................30
Notas ( observações do compotamento cientifico)
.....................................................................46
O desenvolvimento da Lógica Matemática
seus precursores .........................................34
A disseminação da cultura informática..............51
Introdução
O domínio e o controle das informações
O equilíbrio entre o toque humano e a tecnologia
conclusão ..........................................................57
A disseminação da cultura informática.............
Introdução
O domínio e o controle das informações
O equilíbrio entre o toque humano e a tecnologia












"Uma curiosidade de explicar e compreender o mundo é o estímulo que leva os homens a estudarem o seu passado." Arnold Toynbee
"Da curiosidade do homem por si mesmo nasce a história."
Historia é versão dos vencedores, e seus acréscimos criação dos admiradores.















Introdução
A História e suas interpretações
A História da Ciência
Enfoque histórico adotado


Introdução
Na língua latina a palavra história expressa dois conceitos distintos: plenitude de suceder e o conhecimento que se possui desse suceder. Sua origem procede de certa raiz grega que significa inquirir, com inclinação à curiosidade
Plenitude de suceder, conhecimento desse suceder, recuperação dos valores antigos..., palavras que significam algo mais que uma mera enumeração de nomes, lugares, datas, números, etc. Consiste antes de mais nada em um debruçar-se sobre o passado e formular-lhe perguntas para se apropriar do seu legado (da "tradição", de traducere, entregar).
Ninguém produz por si mesmo os conhecimentos de que necessita para sobreviver em meio à sociedade na qual nasce; a grande maioria chega como algo adquirido, que se recebe pela interação com o meio ambiente. Desde o instante em que o homem de dá conta do mundo e de si mesmo, percebe-se rodeado de instituições e tradições que vive e atualiza de um modo natural, sem se dar conta de que foi forjado neste entorno, com atitudes e pontos de vista tão arraigados em seu modo de ser, em sua psicologia, que nada lhe parece estranho ou desconhecido. Somente quando o homem sai do seu entorno vital e entra em contato com novas superfícies de valores, tradições, costumes, é que começa a compará-los com os seus e a se perguntar reflexivamente sobre tais coisas, pelas verdades de umas e outras.
A história é parte dessa necessidade humana de refletir: é o desejo de explicar a origem e a verdade das próprias instituições, quem ou qual acontecimento as estabeleceu. Para responder sobre sua existência atual e conhecer a si mesmo o homem tem de mergulhar no seu passado, perguntando às gerações anteriores por que fizeram essas instituições e não outras, por que surgiram esses precisos costumes e atitudes, por que ele tem essa herança cultural, e assim por diante. Por possuir uma herança é que cada homem é um historiador em potencial. Assim como em cada homem há uma evolução biológica necessária, há também a manutenção de uma identidade ao longo das várias etapas desse desenvolvimento biológico, que nos distinguem e nos tornam únicos, sendo fator de compreensão do modo pessoal de ser. Com a história buscamos essa nossa identidade para compreender o momento presente. E isto pode e deve ocorrer sob pontos de vista específicos: sociais, psicológicos, filosóficos e tecnológicos.
Paul M. Veyne fala ainda da história como compreensão, contrapondo o uso deste termo ao uso do termo explicação. Em seu sentido mais forte explicar significa "atribuir um fato a seu princípio ou uma teoria a outra mais geral" como fazem as ciências ou a filosofia. Neste caso a história seria uma difícil conquista porque a ciência só conhece leis, sistemas hipotético-dedutivos e no mundo da história reinam lado a lado a liberdade, o acaso, causas e fins, etc. Para Veyne a história apresenta um caráter acientífico no sentido de que é difícil buscar princípios universais que tornem os acontecimentos inteligíveis, ou achar mecanismos de causa e efeito para se poder deduzir, prever. "(...) a Revolução Francesa se explica pela subida de uma burguesia capitalista: isto significa, simplesmente, (...) que a narração da revolução mostra como essa classe ou seus representantes tomaram as rédeas do estado: a explicação da revolução é o resumo desta e nada mais. Quando solicitamos uma explicação para a Revolução Francesa, não desejamos uma teoria da revolução em geral, da qual se deduziria a de 1789, nem um esclarecimento do conceito de revolução, mas uma análise dos antecedentes responsáveis pela explosão desse conflito (...)". Busca-se portanto uma compreensão dos fatos através dos acontecimentos que o precederam
Tal enfoque será um dos que estarão presentes neste estudo crítico da História da Computação através de uma visão conceitual. Pode-se aplicar a essa história a mesma afirmação que faz Thomas Khun sobre a História da Ciência: está marcada por interrupções repentinas, por inesperadas e imprevistas mudanças, exigindo modelos de conhecimento que supõe alterações inesperadas no processo do seu desenvolvimento. Em função deste fato torna-se difícil a visão da evolução dos computadores mediante uma mera enumeração linear de invenções-nomes-datas . É pois necessário compreender as forças e tendências que no passado prepararam o presente. O desejo de conhecer as vinculações que os atos de determinados homens estabeleceram no tempo vai acompanhado do impulso de compreender o significado de tais atos no conjunto da História da Computação.

A História e suas interpretações

Desde o seu nascimento nas civilizações ocidentais, tradicionalmente situado na antigüidade grega (Heródoto, século V a.C. é considerado por alguns como o "pai da história"), a ciência histórica se define em relação a uma realidade que não é construída nem observada, como na matemática ou nas ciências da natureza, mas sobre a qual se "indaga", se "testemunha". Este aspecto da história-relato, da história-testemunho, jamais deixou de estar presente no desenvolvimento da ciência histórica.
A partir do momento em que se começaram a reunir documentos escritos, a historiografia começa a ultrapassar os limites do próprio século abrangido pelos historiadores, superando também as limitações impostas pela transmissão oral do passado. Com a construção de bibliotecas e a criação de arquivos iniciou-se o desenvolvimento de métodos de crítica. Sobretudo depois do final do século XVII estabelecem-se os fundamentos para uma metodologia aplicada à história, sob uma radical exigência de submeter todas as investigações à razão crítica 24. A segunda metade do século XIX impôs o paradigma de uma história que a partir daí chamar-se-á paradigma "tradicional" ou paradigma "rankeano", derivado do nome do historiador Leopold von Ranke (1795-1886). Ranke propunha apresentar os fatos tais como o "foram na realidade" e os historiadores europeus criaram os grandes esquemas políticos e institucionais.
Características desse paradigma, conforme Peter Burke, historiador de Cambridge:

A história diz respeito essencialmente à política;
É essencialmente uma narrativa de acontecimentos;
"Visão de cima" no sentido de estar concentrada nos feitos dos grandes homens;
Baseada em documentos;
Deveria perguntar mais pelas motivações individuais do que pelos movimentos coletivos, tendências e acontecimentos;
A história é objetiva, entendendo-se por isso a consideração do suceder como algo externo ao historiador, suscetível de ser conhecido como objeto que se põe diante do microscópio, almejando uma neutralidade.

Ainda no século XIX algumas vozes soaram discordantes desse paradigma histórico. Entre outras coisas devido ao seu caráter reducionista, onde situações históricas complexas são vistas como mero jogo de poder entre grandes homens (ou países), e também em função daquilo que se poderia chamar a "tirania" do fato ou do documento, importantes sem dúvida, mas que não deve levar a abdicar de outros tipos de evidências. Como relata Peter Burke, "Michelet e Burckhardt, que escreveram suas histórias sobre o Renascimento mais ou menos na mesma época, 1865 e 1860 respectivamente, tinham uma visão mais ampla do que os seguidores de Ranke. Burckhardt interpretava a história como um corpo onde interagem três forças - Estado, Religião e Cultura - enquanto Michelet defendia o que hoje poderíamos descrever como uma 'história da perspectiva das classes subalternas'(...)" Outros opositores da "história política" foram os historiadores da evolução das sociedades sob o ponto de vista econômico e os fundadores da nova disciplina da sociologia, que começaram a surgir na França.
Dois fatos no entanto, ocorridos nas quatro primeiras décadas do século XX acabariam por sacudir e arruinar a confiança nos princípios rankeanos, O primeiro foi a rápida difusão do marxismo que renuncia à neutralidade, afirmando que o materialismo dialético é a única filosofia científica válida para a interpretação da história; o segundo, a grande crise do ano de 1929, que revelou até que ponto os fatores econômicos e sociais podem exercer uma ação decisiva.
É desse período o nascimento da revista francesa Annales, considerada uma das mais importantes propulsoras da chamada Nova História. Nova História é um termo que data de 1912, quando o estudioso americano James Harvey Robinson publicou um livro com esse título. Segundo Robinson, história inclui todo traço e vestígio de tudo o que o homem fez ou pensou desde seu primeiro aparecimento sobre a terra. Em relação ao método, a 'nova história' vai servir-se de todas aquelas descobertas que são feitas sobre a humanidade, pelos antropólogos, economistas, psicólogos e sociólogos 13.
Surgiu a idéia de uma história total, com a qual quiseram os autores da Escola dos Annales advertir que, frente à unilateralidade e reducionismo do materialismo dialético, a compreensão do passado exige que todos os dados - políticos e institucionais, ideológicos, econômicos, sociais, da mentalidade humana, etc. - fossem fundidos e integrados para conseguir uma explicação correta. Uma tarefa árdua, na prática quase impossível, mas que marca um ideal, uma direção, uma meta que é preciso atingir.
Surgiram ainda outros enfoques como por exemplo a história do ponto de vista quantitativo, atualmente em moda na Europa e Estados Unidos, que procura utilizar fontes quantitativas, métodos de contagem e até modelos matemáticos na sua pesquisa histórica, ou as histórias que abrangem um determinado campo da vida humana como a história da arte ou a história das ciências 41.
O panorama atual, de acordo com os historiadores, é o de uma história fragmentada, detectando-se alguns sinais de busca de uma síntese. Ainda se está a uma longa distância da "história total". Na verdade, é difícil acreditar que esse objetivo possa ser facilmente alcançado - ou até que será alcançado -, mas alguns passos já foram e estão sendo dados em sua direção.
Paralelamente a todos esses esforços surgiram também os teóricos da história, que se esforçaram ao longo dos séculos para introduzir grandes princípios que pudessem fornecer linhas gerais de compreensão para a evolução histórica. A filosofia da história é o estudo da realidade "latente", ou melhor, do "pano de fundo" dos fatos históricos. Qual é a natureza, por exemplo, das crises de crescimento e decadência de uma civilização, quais foram as causas? Sendo a história não a simples crônica que apresenta os fatos de um modo minucioso, mas sim sua investigação, que se esforça por compreender os eventos, captar relações, selecionar fatos, como fazer isso, qual é a estrutura essencial da realidade histórica?
A filosofia da história - termo temido por muitos autores porque poderia supor apriorismos, preconceitos, idealismos - responderá basicamente a duas questões fundamentais:
o que são os fatos históricos - historiologia morfológica;
para qual fim se dirigem - historiologia teleológica.
A História da Ciência
O nascimento e o desenvolvimento da ciência experimental a partir do século XVII estiveram freqüentemente acompanhados de polêmicas filosóficas: sobre o alcance do raciocínio científico, seus limites, o que é a verdade na ciência, etc. Diferentes posturas filosóficas da época moderna tentaram solucionar tais polêmicas, mas foi no século XX que realmente se chegou a constituir uma filosofia da ciência como disciplina autônoma. Do Círculo de Viena em 1929, passando por Karl Popper, Thomas Khun, Imre Lakatos, Paul Feyerabend, Wolfang Stegmüller, entre outros, protagonizou-se um intenso debate em torno do valor do conhecimento §3.
Para este trabalho o que interessa é que toda essa movimentação em torno da racionalidade da ciência também teve seu reflexo na teoria da história, pelas novas epistemologias científicas que foram surgindo. Os debates trouxeram para o primeiro plano a questão da função da historiografia da ciência e alguns problemas teóricos relativos a essa historiografia. A importância de uma história da ciência que vá além da história episódica ou dos resultados obtidos ficou ressaltada. Em resume-se quais seriam as funções da História da Ciência:
sendo a ciência fator de história, não se pode entender o desenvolvimento desta história, especialmente da época moderna e da época contemporânea, se não conhecermos a História da Ciência e da Tecnologia;
além de ser fator de história, a ciência também é fator de cultura: assim, estará vedada a compreensão do desenvolvimento da cultura mais ampla se não se compreende a História da Ciência e seu entrelaçamento e condicionamento recíproco com a História da Filosofia, as concepções morais, políticas e outras;
o conhecimento da História da Ciência é necessário para o trabalho do cientista, porque o pleno entendimento do conteúdo de uma teoria pode ser obtido mediante o confronto dessa teoria pesquisa.

Os problemas do como realizar essas funções são complexos, bastando lembrar as diferentes escolas de história. De qualquer maneira, é a disciplina da história que é revitalizada, despertando a capacidade do homem de assumir o seu passado e a partir dele dar respostas criadoras aos novos problemas que aparecem. É muito significativo que entre os sintomas da decadência de uma cultura ou de uma ciência esteja precisamente isto: o repúdio ao passado que as valorizava.

Enfoque histórico adotado
”A história não é exclusivamente caos ou acaso: existe no comportamento humano um certo grau de ordem e padrão observáveis de uma regularidade parcialmente previsíve”
The Social Sciences in Historical Study
A intenção do presente estudo é procurar compreender e estabelecer as diretrizes para uma disciplina da História da Ciência, a História da Computação, através da seleção das idéias, teorias e paradigmas que ajudaram os homens em sua busca da automatização dos processos aritméticos e que conduziram à tecnologia dos computadores. Interessa portanto o enfoque teleológico, citado anteriormente.
A historiologia teleológica aplica-se na interpretação, de trás para frente, da conexão concreta do curso histórico. Trata-se de compreender duas coisas: a primeira, que na série confusa dos fatos históricos podem-se descobrir linhas, facções, traços, em suma, uma 'fisionomia', conforme diz Ortega y Gasset; a segunda, tentar mostrar um sentido da história, desde a perspectiva do seu fim. Conforme outro historiador, Toynbee7, o ponto de partida da interpretação histórica, como o de qualquer tarefa intelectual, é o pressuposto de que a realidade tem algum significado, que nos é acessível pelo processo mental da explicação. Considera-se que a realidade tem um sentido, ainda que não totalmente, isto é, que há um 'acúmulo de ordem' nas relações entre os milhares de fenômenos observáveis na realidade e dissecados pela nossa inteligência. "Todo raciocínio pressupõe a existência de conexões na natureza, ... e seu único objetivo é determinar que elementos essas conexões reúnem"
Na abordagem teleológica, a história não é o fato meramente enumerado, mas organizado, selecionado, relacionado. Como diz Kenneth O. May, "de modo semelhante à física, nós não pensamos que o mero registro de uma observação por um físico é física. Isto se torna física quando é interpretado, organizado, relacionado com outras partes da física. Do mesmo modo o conhecimento cronológico torna-se história somente quando ele é selecionado, analisado, acompanhado da sua compreensão dentro de um contexto mais amplo. Isto significa que a história dos computadores deveria ser compreendida não do ponto de vista 'histórico', mas em relação ao computador propriamente. Deveria dar a perspectiva através das idéias sobre o que o futuro desenvolvimento deveria ser, ao que as futuras linhas de desenvolvimento devem chegar, e assim por diante"
O conhecimento histórico por sua própria natureza é inseparável do historiador, pois é este que, da documentação coletada, destaca o singular, elevando o fato à condição de histórico. Procurou-se registrar, traçando um fio de história, os fatos conceituais, com a mínima periodização e datação possíveis. Por fatos conceituais entenda-se aqui as idéias e conceitos relevantes que fundamentaram a incansável busca pela mecanização do raciocínio. Entre estas idéias e conceitos estarão: Álgebra, Sistema Axiomático, Lógica Matemática, Sistema Axiomático Formal, Computabilidade, Máquina de Turing, Tese de Church, Inteligência Artificial, entre outros.
É uma história que se vai tornando incrivelmente complexa, conforme vai avançando no tempo. Os trabalhos isolados dos precursores da Física e da Matemática, e mais recentemente da própria Ciência da Computação, justamente por causa de seu isolamento, são relativamente fáceis de discernir. Mas a partir de 1950, com a proliferação das pesquisas nas universidades, nos grandes laboratórios, nas indústrias - privadas ou estatais - , observou-se um desenvolvimento acelerado da informática. A Ciência da Computação avançou em extensão e profundidade, tornando-se difícil até a tarefa de enumeração dos fatos. Surge a tentação de particularizar mais ainda. Pode-se falar por exemplo de uma história dos microcomputadores, tomando o ano de 1947 quando três cientistas do Laboratório da Bell Telefonia, W. Shockley, W. Brattain e J. Bardeen, desenvolveram sua nova invenção sobre o que seria um protótipo do transistor e de como, a partir daí, ano após ano, hardware e software progrediram e criaram novos conceitos, estruturas, em ritmo vertiginoso. E assim também no desenvolvimento das Linguagens de Programação, dos Compiladores, da Teoria da Computação, da Computação Gráfica, da Inteligência Artificial, da Robótica, e outras áreas. Começa a tornar-se difícil separar o que é significativo dentro do enfoque crítico adotado.
Surge o problema da delimitação das fronteiras, pois as várias especialidades se misturam muitas vezes §5, apesar de ter um corpo central definido. Para se atender à finalidade de uma História da Computação de caráter conceitual, este trabalho estará limitado prioritariamente ao campo das idéias, acenando para outros campos quando necessário se sua repercussão atingir a linha de evolução seguida.
De qualquer modo, embora enfatizando o aspecto do pensamento - o que se tinha em mente quando algo foi feito ou definido, e o que este algo fundamentará mais tarde -, será necessário o estabelecimento de alguns marcos temporais. Os acontecimentos da história produzem-se em determinados lugares e tempos. Esta pontualização possibilitará ir unificando esse suceder histórico específico que se está tratando, em um processo único que mostre claramente a mudança, o desenvolvimento e o progresso. Não se dispensará absolutamente o uso das datas assim como dos fatos tecnológicos que podem ser considerados verdadeiras mudanças de paradigma §6.
Não se deve estranhar o recurso à História da Matemática. Aliás é preciso dizer que, no início, pelo menos nos círculos acadêmicos, a Computação apareceu como algo dentro dos Departamentos de Matemática, e ainda hoje, em muitas Universidades, a Ciência da Computação aparece como um Departamento de um Instituto de Matemática. Dentre os diversos tópicos científicos sujeitos à investigação, a Matemática é o que melhor combina um caráter abstrato com um uso universal em outros campos do conhecimento. Sua relação com a Computação é muito estreita, quase que inseparável. As primeiras máquinas construídas foram resultado de buscas por parte dos membros dessa comunidade do conhecimento.
NOTAS

§1. Se a história é ou não ciência é uma questão muito disputada entre vários autores e tema ainda polêmico. No tratado História e Memória do medievalista francês Jacques Le Goff , capítulo História, item 1, desenvolve-se uma panorâmica geral dessas correntes e tendências existentes entre historiadores e teóricos da história.
§2. Obviamente não se quer tirar aqui a importância da datação. Como diz Le Goff, "o historiador deve respeitar o tempo que, de diversas formas, é condição da história e que deve fazer corresponder os seus quadros de explicação cronológica à duração do vivido. Datar é e sempre será uma das tarefas fundamentais do historiador, mas deve-se fazer acompanhar de outra manipulação necessária da duração - a periodização - para que a datação se torne historicamente pensável" 42. Não se dispensará este trabalho de ter uma cronologia, a partir da qual se possa situar no tempo os homens e os fatos mais representativos de uma determinada corrente de idéias ou descobertas. Não há uma tabela da evolução conceitual e tecnológica por data.
§3. Para aprofundar no assunto, em há uma síntese clara e profunda das discussões e evolução das polêmicas.
§4. Se bem que em outro contexto, pois tinha uma outra linha de pensamento historiográfico, mas que serve também para o enfoque adotado no trabalho.
§5.Pense-se na Robótica por exemplo, onde estão incluídas a Inteligência Artificial, as Linguagens de Programação, a Computação Gráfica, etc.
§6. No anexo I encontra-se uma tabela cronológica dos acontecimentos, conceituais e tecnológicos, que darão uma visão mais geral da evolução da História da Computação.




Motivações para se estudar
a História da Computação


Introdução
Necessidade de discernir fundamentos
Incentivo à educação para a qualidade do software
Tornar claros e ligar os fatos
Acompanhar novas tendências
Revalorizar o fator humano

Introdução
Uma vez apontada a importância e necessidade do estudo da história em geral e, mais especificamente, da história da ciência e da tecnologia, fica fácil perceber que o estudo da História da Computação é um interessante relevo dentro da vasta paisagem do conhecimento científico. Basta lembrar que o impacto dessa tecnologia na nossa sociedade é imenso e nossa dependência dela cada vez maior.
Seguem abaixo outros fatores motivadores para esse estudo.

Necessidade de discernir fundamentos
Comparada com outras áreas, a Ciência da Computação é muito recente. Mas, nestes poucos anos (pode-se apontar a Segunda Guerra Mundial como um marco inicial, quando efetivamente se construíram os primeiros computadores digitais) o avanço da Computação foi exponencial, abrindo-se em um grande leque de tecnologias, conceitos, idéias, transformando-se em uma figura quase irreconhecível. Atualmente falar de estado da arte na Computação tornou-se sem sentido: sob que ótica, perspectiva, campo ou área? Apesar da sua recente irrupção na história contemporânea a partir dos anos 40 do século XX, ela já se tornou complexa, ampla, geradora de novos enfoques, tornando-se um verdadeiro desafio a quem queira entendê-la e traçar sua evolução.
Ao mesmo tempo, cada nova geração de informatas depara-se com um duplo panorama: a impossibilidade de ter uma visão global sobre todo o conhecimento que a precedeu e, mais acentuadamente ainda, a história do desenvolvimento das várias especialidades. Não se têm individualizados os eventos, por vezes complexos, que antecederam o saber atual e também não se possui um quadro que os reúna, para se ter uma idéia geral, coerente e significativa. A evolução tecnológica se nos apresenta abrupta, através de saltos descontínuos, e todo o trabalho que antecede cada etapa aparece coberto por uma camada impenetrável de obsolescência, algo para a paleontologia ou para os museus. Como se nada pudesse ser aprendido do passado.
O resultado é um empobrecimento do panorama atual da realidade da informática. Não se estabelecem conexões entre os vários campos da Ciência da Computação, caindo-se facilmente no utilitarismo. As camadas mais profundas dos conceitos não são atingidas, o conhecimento torna-se bidimensional, curto, sem profundidade.
Junto a isso, cedendo talvez a um imediatismo ou deixando-se levar por uma mentalidade excessivamente pragmática de busca de resultados, há uma forte tentação de se estabelecerem ementas para o estudo da Ciência da Computação preocupando-se mais com determinados produtos - linguagens, bancos de dados, sistemas, aplicativos, etc. - e pouco se insiste na fundamentação teórica.
Os matemáticos aprendem aritmética e teoria dos números, pré-requisitos sem os quais não se evolui no seu campo do saber; os engenheiros, cálculo diferencial, física; os físicos trabalham arduamente na matemática, e assim por diante. Quais os fundamentos correspondentes na Computação? Conhece-se a Álgebra Lógica de George Boole, um matemático que buscando relacionar o processo humano de raciocínio e a Lógica Matemática, desenvolveu uma ferramenta para os futuros projetistas de computadores? Sabe-se que a revolução da Computação começou efetivamente quando um jovem de 24 anos, chamado Alan Mathison Turing, teve a idéia de um dispositivo teórico para buscar a resposta a um desafio do famoso matemático David Hilbert - um dos primeiros a falar sobre computabilidade -, e que em um 'journal' de matemática comentou aos seus colegas que era possível computar na teoria dos números, por meio de uma máquina que teria armazenada as regras de um sistema formal? Que as pesquisas de Turing estão relacionadas com o trabalho de Gödel - considerado dentro da matemática um dos mais famosos resultados do século, o Teorema de Gödel? E pode-se citar ainda a Tese de Turing-Church que possibilitou aos cientistas passarem de uma idéia vaga e intuitiva de procedimento efetivo para uma noção matemática bem definida e precisa do que seja um algoritmo. E antes de todos esses, o esforço de dezenas de pensadores de diferentes culturas, para encontrar melhores formas de usar símbolos, que viabilizou o desenvolvimento da Ciência Matemática e Lógica, e que acabaram fundamentando toda a Computação.




A investigação histórica sob esse prisma citado - das idéias e conceitos fundamentais que formaram a base do desenvolvimento da Computação - poderá contribuir para uma questão que assume importância decisiva e crucial: a qualidade do software.
É preciso aqui tecer um comentário relacionado a esse tema da qualidade. A expressão "crise do software" apareceu no final da década de sessenta na indústria tecnológica da informação. Referia-se aos altos custos na manutenção de sistemas computacionais, aos custos relativos a novos projetos que falhavam ou que consumiam mais recursos que os previstos, etc., realidades presentes no dia a dia de muitas instituições. Ao lado disso, havia, e ainda há, uma disseminação anárquica da cultura informática, impregnando cada dia mais a vida social e trazendo como conseqüência uma dependência cada vez maior da nossa sociedade em relação ao computador. Torna-se fundamental portanto que se diminuam cada vez mais as incertezas presentes no processo de elaboração dos sistemas de computação.
A resposta a esses desafios já há alguns anos caminha para o estabelecimento de uma execução disciplinada das várias fases do desenvolvimento de um sistema computacional. A Engenharia de Software surgiu tentando melhorar esta situação, propondo abordagens padronizadas para esse desenvolvimento. Algumas destas propostas vão em direção ao uso de métodos formais §1 nos processos de elaboração do sistema, basicamente através da produção de uma especificação formal em função das manifestações do problema do mundo real que estiver sendo tratado e através da transformação dessa especificação formal em um conjunto de programas executáveis.
Há também pesquisas dentro da Computação que caminham em direção ao desenvolvimento de métodos numéricos, em direção à lógica algébrica. George Boole, em sua obra que deu início a uma nova arrancada no desenvolvimento da Lógica Matemática e da Computação, como se verá, já dizia: "A lógica simbólica ou lógica matemática nasce com a vocação de ferramenta para inferência mecanizada através de uma linguagem simbólica"8. Busca-se por esta vertente a criação de uma metalinguagem lógico-matemática para o desenvolvimento de sistemas, de tal maneira que se possa constituir no instrumento que transfere a precisão da matemática aos sistemas. A figura abaixo, conforme 17, serve como ilustração dessa idéia.

Técnicas provenientes da área da lógica matemática vêm sendo aplicadas a diversos aspectos do processo de programação de computadores §2. Não é sem dificuldades que evoluem as investigações sobre o papel do raciocínio formal matemático no desenvolvimento do software. Mas é preciso ressaltar a sua importância pois através da especificação formal e verificação obtém-se uma excelente guia para o desenvolvimento de programas corretos e passíveis de manutenção. Talvez não se possa pedir que todo programa seja formalmente especificado e verificado, mas é de se desejar que todo programador que almeje profissionalismo esteja ao menos familiarizado com estas técnicas e seus fundamentos matemáticos 5.
Concluindo-se o comentário sobre os problemas relativos à qualidade do software, pode-se dizer que a solução para o problema do desenvolvimento de software passa por um treinamento formal mais intenso na formação dos futuros cientistas da computação. Desde os primeiros anos da universidade é necessário que se estudem os princípios matemáticos, e em alguns casos até físicos (como se poderá falar em Computação Gráfica se não se sabe quais são as propriedades de um sistema de cores), que formam o substrato na Computação: o que é computável (metamatemática, computabilidade), a complexidade que exige a execução de um cálculo (análise de algoritmos, teoria da complexidade), fundamentos de algumas abstrações (teoria dos autômatos, teoria das linguagens formais, teoria de rede, semântica denotacional, algébrica, etc.), fundamentos dos raciocínios que se fazem em programação (sistemas de provas, lógica de Hoare), etc. Ou seja, seria interessante notar que na Ciência da Computação há um forte componente teórico. É um corpo de conhecimentos, sistematizado, fundamentado em idéias e modelos básicos que formam a base das técnicas de engenharia e eletrônica usadas na construção de computadores, tanto no referente ao hardware como ao software. Como não falar de indução matemática quando se deseja seriamente explicar a programação de computadores? Ou falar de uma linguagem de programação sem introduzir a teoria dos autômatos? Com o desenvolvimento de conceitos matemáticos adequados será possível estabelecer um conjunto de procedimentos que assegure aos sistemas a serem desenvolvidos uma manutenção gerenciável, previsível e natural, como ocorre na engenharia.
O estudo da História da Computação, não já sob o enfoque de datas e nomes - importantes também e necessários, para não se cair na pura especulação - , mas sob o aspecto das idéias, dos fundamentos destas e suas conseqüências, pode ser uma sólida base, um ponto de partida, para sensibilizar e entusiasmar o aluno sobre a importância dos fundamentos teóricos, para ajudá-lo a ver o que pressupõe um determinado conceito.

Tornar claros e ligar os fatos
]
Entre os objetivos da ciência histórica pode-se aceitar como axiomático o procurar dar um significado aos acontecimentos. É a busca de se dar sentido à história. Este trabalho, feito dentro de uma perspectiva teleológica da história, procurará estabelecer uma conexão causal entre eventos, para se começar a entender o sentido do passado, dispondo-o numa espécie de sistema organizado, para torná-lo acessível à compreensão.
Sob outro enfoque, pode-se ver a História da Ciência da Computação como um "olhar para trás com o fim de descobrir paralelismos e analogias com a tecnologia moderna que pode proporcionar a base para o desenvolvimento de padrões através dos quais julguemos a viabilidade e potencial para uma atividade proposta ou corrente44. Isto é, analisar o passado e reconhecer tendências que nos permitam prever algum dado futuro. Dizia John Backus, criador do FORTRAN e da Programação Funcional: "Na ciência e em todo trabalho de criação nós falhamos repetidas vezes. Normalmente para cada idéia bem sucedida há dúzias de outras que não funcionaram" (1994, discurso ao receber o prêmio Charles Stark Draper). A história cataloga e registra tais falhas, que então tornam-se uma fonte especial de aprendizado, ensinando tanto quanto as atividades bem sucedidas. Mais ainda, dão-nos o caminho, por vezes tortuoso, por onde transcorreram as idéias, as motivações, as inovações. Ou seja, é interessante e instrutivo o estudo da história de qualquer assunto, não somente pela ajuda que nos dá para a compreensão de como as idéias nasceram - e a participação do elemento humano nisso - mas também porque nos ajuda a apreciar a qualidade de progresso que houve.

Acompanhar novas tendências
É sintomático notar que pela primeira vez incluiu-se no curriculum para Ciência da Computação, desenvolvido pela ACM (Association for Computing Machinery) e IEEE (Institute of Electrical and Electronics Engineers, Inc.) Computer Society Joint Task Force, em 1991, módulos relativos à história em 4 áreas: Inteligência Artificial, Sistemas Operacionais, Linguagens de Programação e Temas Sociais, Éticos e Profissionais. Mais recentemente ainda, na 6a IFIP (International Federation for Information Processing), evento realizado dentro da Conferência Mundial dos Computadores na Educação, transcorrida em Birmingham, Inglaterra, de 20 a 24 de julho de 1995, estimulou-se não só "a preservação das peças de computadores, o registro de memórias dos pioneiros e a análise do impacto exterior das inovações nos computadores, mas também o desenvolvimento de módulos educacionais na História da Computação" 43.
Significativo também é a introdução nos cursos de Ciência da Computação da disciplina História da Computação, principalmente a partir da década de 1990, em algumas universidades. Também aumentaram o números de museus e instituições governamentais ou particulares que prestam esse serviço de preservação da história da tecnologia informática. Pode-se citar a Universidade de Stanford (curso CS104 do Centro de Educação e Ciência da Computação), EUA, o arquivo Nacional para a História da Computação da Universidade de Manchester, Inglaterra, o Instituto Charles Babbage, da Universidade de Minnesota dedicado a promover o estudo da História da Computação, o curso CS134 da Universidade de Waterloo (Canadá) e similar em Bordeaux, França, Universidade de Wales Swansea, Austrália, etc.
Além disso, muitos museus surgiram, como o de Boston, os de instituições militares americanas e organizações do porte do IEEE (Institute of Electrical Engineers and Electronics). Esta última promoveu em 1996 o lançamento de pelo menos quatro livros sobre o assunto História da Computação, tendo construído um "site" na Internet, narrando os eventos dessa história desde o século XVII. Na Internet proliferaram os museus de imagens e cronologias sobre assuntos específicos como Microcomputadores, Computação Paralela, Linguagens de Programação, etc.



Revalorizar o fator humano


Finalmente há o grande tributo que se deve fazer a esses homens que, ao longo da história da ciência Matemática, Lógica, Física, e mais recentemente da Computação, não se deixaram levar pelo brilho atraente daquilo que chama a atenção e das demandas mais imediatas. Motivados pela pura busca do saber formaram o arcabouço, a infraestrutura que possibilitou a revolução da informática. Os bits e todas as partes de um computador (incluindo o software) são na verdade o resultado de um processo, de uma evolução tecnológica de vários séculos, partilhada por inúmeros personagens, cada um acrescentando sua pequena ou grande contribuição.
"Qualquer que seja, porém, o destino da informática, ela já tem o seu lugar na História, constituindo-se num dos fatores preponderantes que moldam o conturbado mundo no fim do século XX. Sem a compreensão do seu papel social, será impossível entender o processo histórico em marcha, nem a direção do futuro. Desse modo, a pesquisa da História da Computação tem um significado fundamental no presente"5.


Notas

§1. Um método se diz formal quando o conjunto dos procedimentos e técnicas utilizadas são formais, isto é, têm um sentido matemático preciso, sobre o qual se pode raciocinar logicamente, obtendo-se completeza, consistência, precisão, corretude, concisão, legibilidade e reusabilidade das definições abstratas.
§2. Entre os aspectos estudados encontram-se: (i) verificação (prova de corretude): a prova de que um dado programa produz os resultados esperados; (ii) terminação: a prova de que um dado programa terminará eventualmente a sua execução; (iii) derivação (desenvolvimento): construção de um programa que satisfaz a um conjunto de especificações dadas; (iv) transformação: modificação sistemática de um programa dado para obter um programa equivalente, como estratégia para a derivação de novos programas por analogia a soluções conhecidas ou como método de otimização da eficiência de programas49.




Evolução dos conceitos

Introdução

Primórdios
A Lógica de Aristóteles
A contribuição dos megáricos e estóicos
Euclides e o Método Axiomático
Diophantus e o desenvolvimento da Álgebra
A automatização do raciocínio
A mecanização do cálculo
Leibniz, o precursor da Lógica Matemática moderna
O problema da notação
A lógica matemática no século XIX
Boole e os fundamentos da Lógica Matemática e da Computação
A importância de Frege e Peano
O desenvolvimento da Lógica Matemática
A crise dos fundamentos, as tentativas de superação e David Hilbert

Kurt Gödel e o indecidível
Alan Mathison Turing: o berço da Computação
A Máquina de Turing
O problema da parada e o problema da decisão
A tese de Church-Turing e outros resultados teóricos



Introdução
Considerando as idéias e os conceitos como uma das linhas que conduzirão ao grande desenvolvimento tecnológico da Computação a partir da década de 40 do século XX, este capítulo fará referência a alguns aspectos da evolução da Ciência da Matemática, mais especificamente de alguns dos seus ramos, no caso a Álgebra e a Lógica Simbólica ou Matemática, de onde nos vieram o rigor e o método axiomático, até chegar na noção de computabilidade e procedimento, com Turing.

Primórdios
Os primeiros passos em direção aos computadores digitais foram dados no Egito e na Babilônia, há mais de 4 milênios, com os sistemas de medidas de distâncias e previsão do curso das estrelas. Durante a civilização grega estas pré-ciências tomaram forma através dos sistemas axiomáticos§1.
Talvez o passo mais fundamental dado nestes primeiros tempos tenha sido a compreensão do conceito de número, quer dizer, ver o número não como uma maneira de se poder contar, mas como uma idéia abstrata. Não está registrado como deve ter sido o reconhecimento, pelos nossos antepassados mais primitivos, de que quatro pássaros caçados eram distintos de dois, assim como o passo nada elementar de associar o número quatro, relativo a quatro pássaros, e o número quatro, associado a quatro pedras.
A visão do número como uma qualidade de um determinado objeto é um obstáculo ao desenvolvimento de uma idéia verdadeira de número. Somente quando, de acordo com o nosso exemplo, o número quatro foi dissociado dos pássaros ou das pedras tornando-se uma entidade independente de qualquer objeto - uma abstração, como diriam os filósofos - é que se pôde dar o primeiro passo em direção a um sistema de notação, e daí para a aritmética. Conforme Bertrand Russell, "foram necessários muitos anos para se descobrir que um par de faisões e um par de dias eram ambos instâncias do número dois"
Uma primeira cronologia que se pode estabelecer é a que vai do ano 4.200 a.C. até meados do ano 1600 d.C. Um museu em Oxford possui um cetro egípcio de mais de 5.000 anos, sobre o qual aparecem registros de 120.000 prisioneiros e 1.422.000 cabras capturadas 10. Apesar do exagero dos números, fica claro que os egípcios procuravam ser precisos no contar e no medir, bastando lembrar o alto grau de precisão das pirâmides. As primeiras tentativas de invenção de dispositivos mecânicos para ajudar a fazer cálculos datam dessas épocas, como por exemplo o ábaco e o mecanismo Antikythera, sobre os quais se falará mais detidamente no capítulo da Pré-História Tecnológica.
Sob o foco que se está trabalhando, deve-se ver nestes tempos as tentativas de conceituação do número, o estabelecimento das bases numéricas, o estudo da Álgebra e geometria que tanto atraíram os antigos. Tempos de evolução lenta, e em termos de produção efetiva de conhecimento matemático bem abaixo da quantidade e qualidade produzida quase que exponencialmente a partir do século XV d.C., mas não menos importantes. De fato, para se compreender a História da Matemática na Europa é necessário conhecer sua história na Mesopotâmia e Egito, na Grécia antiga e na civilização islâmica dos séculos IX a XV.


A Lógica de Aristóteles
[topo]
A Lógica foi considerada na tradição clássica e medieval como instrumento indispensável ao pensamento científico. Atualmente é parte importante na metodologia dedutiva das ciências, além de constituir-se como um saber próprio, com abertura a relevantes problemas teoréticos. Da Ciência Lógica nasceu a Lógica Matemática e, dentro desta, várias filosofias da lógica que interpretam os cálculos simbólicos e sua sistematização axiomática. Para a História da Computação interessa abordar em particular a questão do pensamento dedutivo e matemático, seus limites, o problema da relativa mecanização do pensamento quantitativo e o problema da Inteligência Artificial. Da discusssão e busca da solução desses problemas, que entram também no campo filosófico, formou-se a base conceitual, Teoria da Computabilidade, necessária para o advento do computadores.
O início da ciência da Lógica encontra-se na antiga Grécia 37 e 6. As polêmicas geradas pela teoria de Parmênides e os famosos argumentos de Zenão §2, que negavam a realidade do movimento fazendo um uso indevido do princípio da não-contradição, contribuiram para a distinção dos conceitos, para se ver a necessidade de argumentar com clareza mediante demonstrações rigorosas, respondendo às objeções dos adversários. Mais tarde, as sutilezas dos sofistas, que reduziam todo o saber à arte de convencer pelas palavras, levaram Sócrates a defender o valor dos conceitos e tentar defini-los com precisão. Assim a Lógica como ciência vai se formando pouco a pouco, principalmente com Sócrates e Platão. Mas Platão pensava que qualquer conteúdo da mente existia tal qual na realidade e Aristóteles reage ao seu mestre, dizendo que as idéias existem somente na mente humana, mas correspondendo a realidades.
Com Aristóteles (384 a.C. - 322 a.C.) é que se dá o verdadeiro nascimento da Lógica, ciência das idéias e dos processos da mente. Ele redigiu uma série de trabalhos que seriam editados por Andrônico de Rodes no século I d.C. e que receberam posteriormente o nome de Organon ("Instrumento"), de acordo com a concepção segundo a qual a Lógica deveria fornecer os instrumentos mentais necessários para enfrentar qualquer tipo de investigação. Aristóteles chamava a Lógica como o termo "analítica" (e justamente "Analíticos" são entitulados os escritos fundamentais do Organon). A analítica (do grego analysis, que significa "resolução") explica o método pelo qual, partindo de uma dada conclusão, resolve-se precisamente nos elementos dos quais deriva, isto é, nas premissas e nos elementos de que brota, e assim fica fundamentada e justificada.
Aristóteles construiu uma sofisticada teoria dos argumentos, cujo núcleo é a caracterização e análise dos assim chamados silogismos, os típicos raciocínios da lógica desse filósofo. O argumento


Todo homem é mortal
Sócrates é homem
Logo Sócrates é mortal


é o exemplo típico do silogismo perfeito.
Nos Primeiros Analíticos, Aristóteles desenvolveu minuciosamente o sistema dos silogismos, mostrando os princípios maiores que o sustentam e as regras que lhe devem moldar a construção. A análise do Filósofo é tão ampla quanto engenhosa e envolve também as assim chamadas "modalidades" e os silogismos modais.
Entre as características mais importantes da silogística aristotélica está a de se ter pensado pela primeira vez na história da lógica em fazer uso de letras que poderiam ser usadas para uma expressão substantiva qualquer, fundamental para desenvolvimentos posteriores. É também com Aristóteles que se encontra uma das primeiras tentativas de se estabelecer um rigor nas demonstrações matemáticas. Ao definir os dois tipos de demonstração, quia (dos efeitos às causas) e propter quid (das causas aos efeitos), dizia (I Anal. Post., lect. 14) que as matemáticas utilizam preferencialmente esse modo de demonstrar, e por isso esta ciência é essencialmente dedutiva: "algumas vezes o mais conhecido por nós em si mesmo e por natureza é também o mais cognoscível em si mesmo e por natureza. Assim acontece nas matemáticas, nas quais, devido à abstração da matéria, não se efetuam demonstrações mais do que a partir dos princípios formais. E assim as demonstrações procedem desde o mais cognoscível em si mesmo".

A contribuição dos megáricos e estóicos
Embora Aristóteles seja o mais brilhante e influente filósofo grego, outra importante tradição argumentativa formou-se na antiga Grécia, com os megáricos e estóicos. Pouco conservada pela tradição, merece um melhor tratamento dos historiadores, porque o pouco que se conhece sugere que esses gregos eram altamente inteligentes.
Os megáricos (em função de sua cidade, Mégara) interessaram-se por certos enigmas lógicos como o conhecido "paradoxo do mentiroso": quem diz "O que eu afirmo agora é falso", enuncia algo verdadeiro ou falso? Um deles, Diodoro Cronus, que morreu por volta de 307 a.C., formulou interessante concepção modal, relacionando possibilidade, tempo e verdade, enquanto outro megárico, de nome Fílon, estudou proposições do tipo "Se chove então a rua está molhada", contruída com o auxílio das expressões "se..., então..." conhecidas como condicionais. Ele as definiu em termos extremamente polêmicos, mas que seriam assumidos como corretos, vinte e três séculos mais tarde pelos fundadores da Lógica Contemporânea.
Os estóicos (da chamada escola filosófica de "Stoa", que quer dizer "pórtico") desenvolveram também notáveis teorias lógicas. Tinham bastante presente a diferença que há entre um código de comunicação específico, de um lado, e o que se pode expressar através do uso de tal código. Assim sendo, um conceito de "proposição" análogo ao usado na atual Lógica, já estava presente, de modo virtual, na filosofia estóica da linguagem.
Porém a mais notável contribuição estóica à Lógica foi obra de Crísipo de Soles (280-206 a.C.), homem de vasta produção poligráfica (750 livros). Ele estudou as sentenças condicionais e também as disjuntivas (regidas pela partícula "ou") e as copulativas (regidas pelo "e"), tendo também reconhecido claramente o papel lógico desempenhado pela negação. Além disto, Crísipo foi capaz de relacionar tais idéias com as modalidades, elaborando, então, um sistema de princípios lógicos que, no seu campo específico, foi muito além dos poucos resultados obtidos por Aristóteles e seu discípulo Teofrasto. Por tal razão, Crísipo é reconhecido como o grande precursor daquilo que hoje se chama "Cálculo Proposicional", o primeiro capítulo da Lógica desenvolvida a partir do último quarto do século XIX.

Euclides e o Método Axiomático


Com sua obra Elementos, o matemático grego Euclides (330 a 277 a.C. aproximadamente) deu forma sistemática ao saber geométrico. No primeiro livro dos Elementos, ele enuncia vinte e três definições, cinco postulados e algumas noções comuns ou axiomas§4. Em seguida ele deduz proposições ou teoremas, os quais constituem o saber geométrico, como por exemplo: "se em um triângulo dois ângulos são iguais entre si, também os lados opostos a esses ângulos são iguais entre si".
Esse é portanto o modo como Euclides ordena o conhecimento geométrico no chamado sistema euclidiano. Durante séculos esse sistema valeu como modelo insuperável do saber dedutivo: os termos da teoria são introduzidos depois de terem sido definidos e as proposições não são aceitas se não foram demonstradas. As proposições primitivas, base da cadeia sobre a qual se desenvolvem as deduções sucessivas, Euclides as escolhia de tal modo que ninguém pudesse levantar dúvidas sobre a sua veracidade: eram auto-evidentes, portanto isentas de demonstração. Leibniz afirmaria mais tarde que os gregos raciocinavam com toda a exatidão possível em matemática e deixaram à humanidade modelos de arte demonstrativa.
Em resumo, Euclides, como já fizera Aristóteles, buscou o ideal de uma organização axiomática, que em última instância se reduz à escolha de um pequeno número de proposições notoriamente verdadeiras daquele domínio do conhecimento, e à posterior dedução de todas as outras proposições verdadeiras desse domínio, a partir delas.
Surge com Euclides e Aristóteles (estará plenamente desenvolvida no início do século XX com a escola formalista de Hilbert) a busca de uma economia do pensamento . A História da Computação tem um marco significativo nesse ponto da História: o começo da busca da automatização do raciocínio e do cálculo.
Mas havia um problema no sistema de Euclides: suas "evidências" não eram assim tão evidentes. O seu quinto postulado não convenceu de modo algum, e despertou perplexidade na história do próprio pensamento grego, depois no árabe e no renascentista. No século XIX, Karl Friedrich Gauss (1777-1855) viu com toda a clareza a não demonstrabilidade do quinto postulado e a possibilidade da construção de sistemas geométricos não euclidianos. Janos Boulay (1802-1860), húngaro, e Nicolai Ivanovic Lobacewskiy (1793-1856), russo, trabalhando independentemente, constróem uma geometria na qual o postulado da paralela não vale mais.
A consequência desses fatos foi a eliminação dos poderes da intuição na fundamentação e elaboração de uma teoria geométrica: os axiomas não são mais "verdades evidentes" que garantem a "fundação" do sistema geométrico, mas puros e simples pontos de partida, escolhidos convencionalmente para realizar uma construção dedutiva. Mas, se os axiomas são puros pontos de partida, quem garantirá que, continuando-se a deduzir teoremas, não se cairá em contradição?
Esta questão crucial dos fundamentos da matemática levará aos grandes estudos dos finais do século XIX e inícios do XX e será o ponto de partida do projeto formalista de David Hilbert, assim como de outras tentativas de se fundamentar a matemática na lógica e na teoria dos conjuntos, como as propostas por Frege, Russell e Cantor. Mas será dessa sequência de sucessos e fracassos que se produzirá a base da Computação, com Turing, von Neumann, Post, Church, e outros mais.

Diophantus e o desenvolvimento da Álgebra
O seguinte problema no Rhind Papyrus, do Museu britânico em Londres, foi escrito por volta do ano 1650 a.C.

Divida 100 pães entre 10 homens, incluindo um barqueiro, um capataz e um vigia, os quais recebem uma dupla porção cada. Quanto cabe a cada um?

Isto naturalmente pode ser resolvido usando-se Álgebra.
O primeiro tratado de Álgebra foi escrito pelo grego Diophantus, da cidade de Alexandria, por volta do ano 250. O seu Arithmetica, composto originalmente por 13 livros dos quais somente 6 se preservaram, era um tratado "caracterizado por um alto grau de habilidade matemática e de engenho: quanto a isto, o livro pode ser comparado aos grandes clássicos da idade alexandrina anterior" 10. Antes de Diophantus, toda a 'álgebra' que havia, incluindo problemas, operações, lógica e solução, era expressada sem simbolismo - palavra chave sobre a qual ainda se voltará a falar - ; ele foi o primeiro a introduzir o simbolismo na matemática grega. Para uma quantidade desconhecida usava um símbolo (chamado arithmos), que caracterizava um número indefinido de unidades. Pela ênfase dada em seu tratado à solução de problemas indeterminados, tal tratado tornou-se conhecido como análise diofantina, em geral parte de cursos de teoria dos números§5. Seu trabalho, contudo, não é suficiente para lhe conferir o título de pai da Álgebra§6.
Na verdade o termo álgebra vem do árabe al-jabr, ou literalmente, a "reunião de partes quebradas", tendo sido popularizado pelo livro ilm Al-jabr wa'l-mukabala (Restauração e Confronto), escrito pelo famoso matemático e astrônomo persa Abu Ja'far Muhammad (800-847), que posteriormente ficou conhecido como al-Kharazmi, o homem de Kwarazm (atualmente Khiva, no Uzbequistão). Al-Kharazmi introduziu a escrita dos cálculos no lugar do uso do ábaco. De seu nome derivaram as palavras algarismo e algoritmo§7. Vale ressaltar que, além dos gregos como Diophantus, também os hindus tinham desenvolvido estudos no campo da Álgebra; coube aos árabes a missão de conservar e transmitir a herança matemática grega e hindu
Embora não muito visível ainda, deve-se chamar a atenção para essa disciplina da Álgebra, que deve ser colocada entre as ciências que fundamentaram o desenvolvimento da Computação. Pois o computador e todos os instrumentos que o precederam (réguas de cálculo, máquina de Pascal, a calculadora de Leibniz, a máquina analítica de Babbage, etc.) são somente as manifestações práticas que foram surgindo, com naturalidade, em resultado da busca pelo homem de reduzir os problemas a equações matemáticas, resolvendo-as segundo regras. E isto, há muitos séculos, já tinha tomado o nome de Álgebra, a "arte dos raciocínios perfeitos" como dizia Bhaskara, o conhecido matemático hindu do século XII. Com os árabes, depois de relativo obscurecimento da cultura grega, dá-se continuidade ao processo que proporcionará as bases fundamentais para o raciocínio automatizado, fundamental na Ciência da Computação.
A automatização do raciocínio

Ainda dentro do período acima estabelecido (4.200 a.C. até meados do ano 1600 d.C) iniciou-se concretização de uma antiga meta: a idéia de se reduzir todo raciocínio a um processo mecânico, baseado em algum tipo de cálculo formal. Isto remonta a Raimundo Lúlio. Embora negligenciado pela ciência moderna, Raimundo Lúlio (1235-1316), espanhol, figura pletórica de seu tempo, em seu trabalho Ars Magna (1305-1308), apresentou a primeira tentativa de um procedimento mecânico para produzir sentenças logicamente corretas 31. Lúlio acreditava que tinha encontrado um método que permitia, entre outras coisas, tirar todo tipo de conclusões, mediante um sistema de anéis circulares dispostos concentricamente, de diferentes tamanhos e graduáveis entre si, com letras em suas bordas. Invenção única, tentará cobrir e gerar, representando com letras - que seriam categorias do conhecimento - , todo o saber humano, sistematizado em uma gramática lógica.
Os procedimentos estabelecidos por Lúlio não foram muito válidos. Mas o mais importante em Lúlio é a idéia concebida, genial sob certo aspecto. Tanto que seu trabalho influenciará muitos matemáticos famosos, do nível de um Cardano (1545), Descartes (1598-1650), Leibniz (1646-1716), Cantor (1829-1920), entre outros. Raimundo Lúlio é considerado o precursor da análise combinatória. Como dirá R. Blanché: "encontramos em Lúlio, pelos menos em germe e por mais que ele não soubesse tirar partido disso por inabilidade, duas idéias que iriam se tornar predominantes nas obras de Lógica, primeiro em Leibniz e depois em nossos contemporâneos: as idéias de característica e as idéias de cálculo (...). Com a ajuda desse simbolismo, eles pretendem permitir que as operações mentais frequentemente incertas fossem substituídas pela segurança de operações quase mecânicas, propostas de uma vez por todas".
Pode-se ver em Raimundo Lúlio os primórdios do desenvolvimento da Lógica Matemática, isto é, de um novo tratamento da ciência da Lógica: o procurar dar-lhe uma forma matemática. Não é do interesse deste trabalho aprofundar-se nas discussões filosóficas - que ainda estão em aberto por sinal - sobre os conceitos "lógica matemática" e "lógica simbólica", se é uma lógica distinta da ciência matemática ou não, etc., mas em caracterizá-la, pois sem dúvida alguma a Computação emergirá dentro de um contexto da evolução deste novo tratamento da lógica.
A Lógica Matemática ergue-se a partir de duas idéias metodológicas essencialmente diferentes. Por um lado é um cálculo, daí sua conexão com a matemática. Por outro lado, caracteriza-se também pela idéia de uma demonstração exata e, neste sentido, não é uma imitação da matemática nem esta lhe serve de modelo, mas pelo contrário, à Lógica caberá investigar os fundamentos da matemática com métodos precisos e oferecer-lhe o instrumento para uma demonstração rigorosa.
A palavra Álgebra voltará a aparecer com o inglês Robert Recorde(1510?-1558), em sua obra Pathway of Knowledge(1551), que introduz o sinal de '= ' e divulga os símbolos '+ ' e '- ', introduzidos por John Widmann (Arithmetica, Leipzig, 1489). Thomas Harriot(1560-1621) prosseguirá o trabalho de Recorde, inventando os sinais '> ' e '< '. Willian Oughtred(1574-1621), inventor da régua de cálculo baseada nos logaritmos de Napier, divulgou o uso do sinal '´ ', tendo introduzido os termos seno, coseno e tangente. Em 1659 J.H. Rahn usou o sinal '¸ ' . Todos esses matemáticos ajudaram a dar à Álgebra sua forma mais moderna.





A mecanização do cálculo
Se é aceito o ponto de vista de estudiosos como Needham , a data de 1600 pode ser vista como um bom divisor de águas dentro da história da ciência em geral. Vale a pena lembrar que o estudo da matemática no tempo anterior a essa data, na Europa, não havia avançado substancialmente em relação ao mundo árabe, hindu ou chinês.
A álgebra árabe fora perfeitamente dominada e tinha sido aperfeiçoada, a trigonometria se tornara uma disciplina independente 10. O casamento de ambas pela aplicação dos métodos algébricos no terreno da geometria foi o grande passo e Galileu (1564-1642) aí tem um papel preponderante. Ele uniu o experimental ao matemático, dando início à ciência moderna. Galileu dá uma contribuição decisiva a uma formulação matemática das ciências físicas. A partir de então, em resultado desse encontro da matemática com a física, a ciência tomou um novo rumo, a um passo mais rápido, e rapidamente as descobertas de Newton sucedem às de Galileu.
Trata-se de um período de transição por excelência, que preparou o caminho para uma nova matemática: não já uma coleção de truques, como Diophantus possuíra, mas uma forma de raciocinar, com uma notação clara. É o começo do desenvolvimento da idéia de formalismo na Matemática, tão importante depois para a fundamentação teórica da Computação.

Leibniz, o precursor da Lógica Matemática moderna

A Lógica Moderna começou no século XVII com o filósofo e matemático alemão Gottfried Wilhelm Leibniz. Seus estudos influenciaram, 200 anos mais tarde, vários ramos da Lógica Matemática moderna e outras áreas relacionadas, como por exemplo a Cibernética (Norbert Wiener dizia que se fosse escolher na História da Ciência um patrono para a Cibernética, elegeria Leibniz").
Entre outras coisas, Leibniz queria dotar a Metafísica (aquela parte da Filosofia que estuda o "ser" em si) de um instrumento suficientemente poderoso que a permitisse alcançar o mesmo grau de rigor que tinha alcançado a Matemática. Parecia-lhe que o problema das interrogações e polêmicas não resolvidas nas discussões filosóficas, assim como a insegurança dos resultados, eram fundamentalmente imputáveis à ambiguidade dos termos e dos processos conclusivos da linguagem ordinária. Leibnz viu surgir a idéia central de sua nova lógica precisamente como projeto de criação de uma lógica simbólica e de caráter completamente calculístico, análogos aos procedimentos matemáticos.
Historicamente falando, tal idéia já vinha sendo amadurecida, depois dos rápidos desenvolvimentos da Matemática nos séculos XVI e XVII, possibilitados pela introdução do simbolismo. Os algebristas italianos do século XVI já tinham encontrado a fórmula geral para a resolução das equações de terceiro e quarto graus, oferecendo à Matemática um método geral que tinha sido exaustivamente buscado pelos antigos e pelos árabes medievais. Descartes e Fermat criaram a geometria analítica, e, depois de iniciado por Galileu, o cálculo infinitesimal desenvolveu-se com grande rapidez, graças a Newton e ao próprio Leibniz. Ou seja, as matemáticas romperam uma tradição multisecular que as havia encerrado no âmbito da geometria, e se estava construindo um simbolismo cada vez mais manipulável e seguro, capaz de funcionar de uma maneira, por assim dizer, mecânica e automática, sujeito a operações que, no fundo, não eram mais do que regras para manipulação de símbolos, sem necessidade de fazer uma contínua referência a conteúdos geométricos intuitivos.
Leibniz deu-se conta de tudo isto e concebeu, também para a dedução lógica, uma desvinculação análoga com respeito ao conteúdo semântico das proposições, a qual além de aliviar o processo de inferência do esforço de manter presente o significado e as condições de verdade da argumentação, pusesse a dedução a salvo da fácil influência que sobre ela pode exercer o aspecto material das proposições. Deste modo coube a Leibniz a descoberta da verdadeira natureza do "cálculo" em geral, além de aproveitar pela primeira vez a oportunidade de reduzir as regras da dedução lógica a meras regras de cálculo, isto é, a regras cuja aplicação possa prescindir da consideração do conteúdo semântico das expressões.
Leibniz influenciou seus contemporâneos e sucessores através de seu ambicioso programa para a Lógica. Este programa visava criar uma linguagem universal baseada em um alfabeto do pensamento ou characteristica universalis, uma espécie de cálculo universal para o raciocínio.
Na visão de Leibniz a linguagem universal deveria ser como a Álgebra ou como uma versão dos ideogramas chineses: uma coleção de sinais básicos que padronizassem noções simples não analíticas. Noções mais complexas teriam seu significado através de construções apropriadas envolvendo sinais básicos, que iriam assim refletir a estrutura das noções complexas e, na análise final, a realidade. O uso de numerais para representar noções não analíticas poderia tornar possível que as verdades de qualquer ciência pudessem ser "calculadas" por operações aritméticas, desde que formuladas na referida linguagem universal Conforme o próprio Leibniz, "(...) quando aparecer uma controvérsia, já não haverá necessidade de uma disputa entre dois filósofos mais do que a que há entre dois calculistas. Bastará, com efeito, tomar a pena na mão, sentar-se à mesa (ad abacus) e (ao convite de um amigo, se se deseja), dizer um ao outro: Calculemos!..
Essa idéia de Leibniz sustentava-se em dois conceitos intimamente relacionados: o de um simbolismo universal e o de um cálculo de raciocínio (isto é, um método quase mecânico de raciocínio)§9. Isto para a História da Computação tem um particular interesse, pois esse calculus ratiocinator de Leibniz contém o embrião da machina ratiocinatrix, a máquina de raciocinar buscada por Turing e depois pelos pesquisadores dentro do campo da Inteligência Artificial. Leibniz, assim como Boole, Turing, e outros - basta lembrar o ábaco, o 'computador' de Babbage, etc. -, perceberam a possibilidade da mecanização do cálculo aritmético. O próprio Leibniz, e Pascal um pouco antes, procuraram construir uma máquina de calcular. Nota-se portanto que o mesmo impulso intelectual que o levou ao desenvolvimento da Lógica Matemática o conduziu à busca da mecanização dos processos de raciocínio.
Interessa também chamar a atenção sobre a idéia de uma linguagem artificial que já aparece em Leibniz. Como já foi dito, ele captou muito bem as inúmeras ambigüidades a que estão submetidas as linguagens de comunicação ordinárias e as vantagens que apresentam os símbolos (que ele chamava notae) da Aritmética e Álgebra, ciências nas quais a dedução consiste no emprego de caracteres. Ao querer dar à Lógica uma linguagem livre de ambigüidades e ao procurar associar a cada idéia um sinal e obter a solução de todos os problemas mediante a combinação destes sinais, Leibniz acabou provocando um novo desenvolvimento da própria lógica.
A idéia de uma linguagem artificial ou a redução do raciocínio ao cálculo, como já visto em Lúlio e agora em Leibniz, não é, portanto, patrimônio do século XX. A contribuição de Leibniz ao desenvolvimento da lógica aparece sob dois aspectos: ele aplicou com sucesso métodos matemáticos para a interpretação dos silogismos aristotélicos, e apontou aquelas partes da Álgebra que estão abertas a uma interpretação não aritmética . Pela primeira vez se expôs de uma maneira clara o princípio do procedimento formal. Leibniz tornou-se assim o grande precursor da Lógica Matemática.
Talvez se pudesse perguntar como é possível que muitos apresentem a Lógica Simbólica como fruto do nosso tempo, enquanto teve sua origem na segunda metade do século XVII. É que, na realidade, a aportação de Leibniz ficou substancialmente reduzida a um mero programa, do qual só executou alguns fragmentos, muito parciais se bem que muito interessantes também, capazes de nos dar uma idéia de como concebia sua obra. Nem sequer seus seguidores diretos levaram para a frente a construção do cálculo lógico mais além de um nível muito rudimentar. Provavelmente a excessiva magnitude do plano de sua characteritica universalis o tenha seduzido, afastando Leibniz de objetivos mais modestos porém alcançáveis, como o de construir o primeiro cálculo lógico autêntico.
Ainda dentro desses primeiros passos mais concretos em direção à construção de um dispositivo para cálculo automático, não se pode deixar de falar do ilustre francês Blaise Pascal (1623-1662), já acima citado, matemático, cientista e filósofo, que, antecedendo a Leibniz, montou uma máquina de cálculo digital para ajudá-lo nos negócios do pai 80.

O problema da notação
Nas ciências, as descobertas que podem ser compreendidas e assimiladas rapidamente por outros são fonte de progresso imediato. E na Matemática o conceito de notação está relacionado com isso. Basta lembrar os algarismos romanos e pensar na complexidade que envolve, por exemplo a multiplicação, de MLXXXIV por MMLLLXIX. A notação de Leibniz usada para o cálculo contribuiu mais do que a de Newton para a difusão das novas idéias sobre integrais, na época. Pense-se por um momento como se resolve ax = b. Imediatamente pode ser dado como resposta que x = b/a e haveria surpresa se alguém respondesse a = b/x. É que normalmente se usam as últimas letras do alfabeto para representar as incógnitas e as do começo para representar as quantidades conhecidas. Mas isso não foi sempre assim, e somente no século XVII, com Descartes, tais convenções começaram a ser usadas .
Geralmente tende-se a apreciar o passado desde o sofisticado posto de observação do tempo atual. É necessário valorizar e revalorizar este difícil e longo passado de pequenas e grandes descobertas. Leibniz, em seu esforço no sentido de reduzir as discussões lógicas a uma forma sistemática que pudesse ser universal, aproximou-se da Lógica Simbólica formal: símbolos ou ideogramas deveriam ser introduzidos para representar um pequeno número de conceitos fundamentais necessários ao pensamento. As idéias compostas deveriam ser formadas a partir desses "alfabetos" do pensamento humano, do mesmo modo como as fórmulas são desenvolvidas na Matemática 10. Isto o levou entre outras coisas a pensar em um sistema binário para a Aritmética e demonstrou a vantagem de tal sistema sobre o decimal para dispositivos mecânicos de calcular . A idéia de uma lógica estritamente formal - da construção de sistemas sem sentido, interpretáveis a posteriori - não tinha surgido. Duzentos anos mais tarde, George Boole formularia as regras básicas de um sistema simbólico para a lógica matemática, refinado posteriormente por outros matemáticos e aplicado à teoria dos conjuntos. A álgebra booleana constitui a base para o projeto de circuitos usados nos computadores eletrônicos digitais.




A lógica matemática no século XIX



A passagem do século XVIII para o século XIX marca o início de um novo tempo na História da Computação. Mais do que qualquer período precedente, mereceu ser conhecido como a idade áurea da Matemática. O que se acrescentou ao assunto durante esses 100 anos supera de longe tanto em quantidade como em qualidade a produção total combinada de todas as épocas precedentes. Com uma possível exceção da idade conhecida na matemática como idade heróica, na Grécia antiga, foi uma das mais revolucionárias etapas do desenvolvimento dessa ciência e consequentemente também da Computação. Será particularmente objeto de estudo a evolução da Lógica Simbólica - ou Lógica Matemática - que teve Leibniz como predecessor distante.
A partir de meados do século XIX a lógica formal se elabora como um cálculo algébrico, adotando um simbolismo peculiar para as diversas operações lógicas. Graças a este novo método, puderam-se construir grandes sistemas axiomáticos de lógica, de maneira parecida com a matemática, com os quais se podem efetuar com rapidez e simplicidade raciocínios que a mente humana não consegue espontaneamente.
A Lógica Simbólica - Lógica Matemática a partir daqui - , tem o mesmo objeto que a lógica formal tradicional: estudar e fazer explícitas as formas de inferência, deixando de lado - por abstração - o conteúdo de verdades que estas formas possam transmitir. Não se trata aqui de estudar Lógica, mas chamar a atenção para a perspectiva que se estava abrindo com o cálculo simbólico: a automatização de algumas operações do pensamento. A Máquina de Turing, conceito abstrato que efetivamente deu início à era dos computadores, baseou-se no princípio de que a simples aplicação de regras permite passar mecanicamente de uns símbolos a outros, sistema lógico que foi inaugurado por Boole.
Entretanto a lógica booleana estava limitada ao raciocínio proposicional e somente mais tarde, com o desenvolvimento dos quantificadores, a lógica formal estava pronta para ser aplicada ao raciocínio matemático em geral. Os primeiros sistemas foram desenvolvidos por F.L.G. Frege e G. Peano. Ao lado destes será necessário citar George Cantor (1829-1920), matemático alemão que abriu um novo campo dentro do mundo da análise, nascida com Newton e Leibniz, com sua teoria sobre conjuntos infinitos 4.
No começo do século XX a Lógica Simbólica se organizará com mais autonomia em relação à matemática e se elaborará em sistemas axiomáticos desenvolvidos, que se colocam em alguns casos como fundamento da própria matemática e que prepararão o surgimento do computador.



Boole e os fundamentos da Lógica Matemática e da Computação


O inglês George Boole (1815-1864) é considerado o fundador da Lógica Simbólica 22,
Ele desenvolveu com sucesso o primeiro sistema formal para raciocínio lógico. Mais ainda, Boole foi o primeiro a enfatizar a possibilidade de se aplicar o cálculo formal a diferentes situações, e fazer operações com regras formais, desconsiderando noções primitivas.
Sem Boole, um pobre professor autodidata em Matemática, o caminho onde se ligou a Lógica à Matemática talvez demorasse muito a ser construído. Com relação à Computação, se a Máquina Analítica de Babbage (ver capítulo sobre a Pré-História Tecnológica) foi apenas uma tentativa bem inspirada que teve pouco efeito sobre os futuros construtores do computador, sem a álgebra booleana, no entanto, a tecnologia computacional não teria progredido com facilidade até a velocidade da eletrônica.
Durante quase mais de dois mil anos a lógica formal dos gregos, conhecida pela sua formulação silogística, foi universalmente considerada como completa e incapaz de sofrer uma melhora essencial. Mais do que isso, a lógica aristotélica parecia estar destinada a ficar nas fronteiras da metafísica já que somente se tratava, a grosso modo, de uma manipulação de palavras. Não se havia ainda dado o salto para um simbolismo efetivo, embora Leibniz já tivesse aberto o caminho com suas idéias sobre o "alfabeto do pensamento".
Foi Boole em sua obra The Mathematical Analysis of Logic (1847) quem forneceu uma idéia clara de formalismo e a desenvolveu de modo exemplar. Boole percebeu que poderia ser construída uma álgebra de objetos que não fossem números, no sentido vulgar, e que tal álgebra, sob a forma de um cálculo abstrato, seria capaz de ter várias interpretações 37. O que chamou a atenção na obra foi a clara descrição do que seria a essência do cálculo, isto é, o formalismo, o procedimento, conforme o próprio George Boole descrevia, "cuja validade não depende da interpretação dos símbolos mas sim da exclusiva combinação dos mesmos" 6. Ele concebeu a lógica como uma construção formal à qual se busca posteriormente um interpretação.
Boole criou o primeiro sistema bem sucedido para o raciocínio lógico, tendo sido pioneiro ao enfatizar a possibilidade de se aplicar o cálculo formal em diferentes situações e fazer cálculos de acordo com regras formais, desconsiderando as interpretações dos símbolos usados. Através de símbolos e operações específicas, as proposições lógicas poderiam ser reduzidas a equações e as equações silogísticas poderiam ser computadas, de acordo com as regras da álgebra ordinária. Pela aplicação de operações matemáticas puras e contando com o conhecimento da álgebra booleana é possível tirar qualquer conclusão que esteja contida logicamente em qualquer conjunto de premissas específicas.
De especial interesse para a Computação, sua idéia de um sistema matemático baseado em duas quantidades, o 'Universo' e o 'Nada', representados por '1' e '0', o levou a inventar um sistema de dois estados para a quantificação lógica. Mais tarde os construtores do primeiro computador entenderam que um sistema com somente dois valores pode compor mecanismos para perfazer cálculos.
Boole estava convencido de que sua álgebra não somente demonstrou a equivalência entre Matemática e Lógica, mas que também representou a sistematização do pensamento humano. A ciência, a partir de Boole, viu que a razão humana é mais complicada e ambígua, difícil de ser conceituada e mais poderosa que a lógica formal. Mas do ponto de vista da Matemática e da Computação, a lógica simbólica booleana foi importante - e só os anos fizeram ver - pois a lógica de até então era incompleta e não explicava muitos princípios de dedução empregados em raciocínios matemáticos elementares.
No entanto a lógica booleana estava limitada ao raciocínio proposicional, e somente após o desenvolvimento de quantificadores, introduzidos por Pierce, é que a lógica formal pôde ser aplicada ao raciocínio matemático geral. Além de Peirce, também Schöder e Jevons aperfeiçoaram e superaram algumas restrições do sistema booleano: disjunção exclusiva, emprego da letra v para exprimir proposições existenciais, admissão de coeficientes numéricos além do 0 e 1 e o emprego do sinal de divisão. O resultado mais importante no entanto foi a apresentação do cálculo de uma forma extremamente axiomatizada.





A importância de Frege e Peano

Frege (1848-1925) e Peano (1858-1932) trabalharam para fornecer bases mais sólidas à álgebra e generalizar o raciocínio matemático .
Gottlob Frege ocupa um lugar de destaque dentro da Lógica. Embora não tão conhecido em seu tempo e bastante incompreendido, deve-se ressaltar que ainda hoje torna-se difícil descrever a quantidade de conceitos e inovações, muitas revolucionárias, que elaborou de forma exemplar pela sua sistematização e clareza. Muitos autores comparam seu Begriffsschrift aos Primeiros Analíticos de Aristóteles, pelos pontos de vista totalmente geniais.
Frege foi o primeiro a formular com precisão a diferença entre variável e constante, assim como o conceito de função lógica, a idéia de uma função de vários argumentos, o conceito de quantificador§16. A ele se deve uma conceituação muito mais exata da teoria aristotélica sobre sistema axiomático, assim como uma clara distinção entre lei e regra, linguagem e metalinguagem. Ele é autor da teoria da descrição e quem elaborou sistematicamente o conceito de valor. Mas isto não é tudo, pois todas estas coisas são apenas produtos de um empreendimento muito maior e fundamental, que o inspirou desde suas primeiras pesquisas: uma investigação das características daquilo que o homem diz quando transmite informação por meio de juízos.
Na verdade o que Frege chamou de Lógica - assim como seus contemporâneos Russell e Wittgenstein - não é o que hoje é chamado Lógica, fruto do formalismo e da teoria dos conjuntos que acabaram por predominar entre os matemáticos, mas sim nossa semântica, uma disciplina sobre o conteúdo, natureza desse conteúdo e estrutura. Frege gastou considerável esforço na separação de suas concepções lógicas daquelas concepções dos 'lógicos computacionais' como Boole, Jevons e Schröeder. Estes estavam, como já foi dito, empenhados no desenvolvimento de um cálculo do raciocínio como Leibniz propusera, mas Frege queria algo mais ambicioso: projetar uma lingua characteristica. Dizia ele que uma das tarefas da filosofia era romper o domínio da palavra sobre o espírito humano. O uso de um sistema simbólico, que até então somente se pensava para a matemática, procurou-o usar Frege também para a filosofia: um simbolismo que retratasse o que se pode dizer sobre as coisas. Ele buscava algo que não somente descrevesse ou fosse referido a coisas pensadas, mas o próprio pensar .
Os lógicos tradicionais estavam basicamente interessados na solução de problemas tradicionais de lógica, como por exemplo a validade. O objetivo de Frege foi mais além: entrou no campo da semântica, do conteúdo, do significado, onde encontrou o fundamento último da inferência, da validade, etc. Frege acabou derivando para uma filosofia da lógica e da matemática e influenciou diretamente a Russell, David Hilbert, Alonzo Church e Carnap. Destes, Hilbert e Church têm um papel decisivo na História conceitual da Ciência da Computação.
Frege desejava provar que não somente o raciocínio usado na matemática, mas também os princípios subjacentes - ou seja, toda a matemática - são pura lógica. Porém ele expressou suas buscas e resultados - pelos quais acabou sendo considerado um dos pais da Lógica moderna, de uma forma excessivamente filosófica, em uma notação matemática não convencional. O mérito maior de Frege foi elaborar uma concepção lógica mais abrangente do que a Lógica de Aristóteles. Em um procedimento que lembra a "characteristica universalis"§17, Frege construiu um sistema especial de símbolos para desenvolver a lógica de maneira exata e foi muito além das proposições e dos argumentos. Em sua grandes obras, Begriffsschrift (Ideografia ou Conceitografia) e Grundgesitze (Leis Fundamentais da Aritmética, Ideograficamente Deduzidas), está contida de modo explícito e plenamente caracterizado uma série de conceitos - conectivos, função, função proposicional, quantificadores, etc. - que seriam vitais para a Lógica Matemática a partir de então 27.
Foi através do contato com a obra de Frege que Bertrand Russell procurou levar avante a idéia de construir toda a matemática sobre bases lógicas, convencido de que ambas são idênticas. Os postulados fregianos§18, adotados primeiramente por Peano, foram incorporados por Russell, que extendeu as teses logicistas de Frege à Geometria e às disciplinas matemáticas em geral.
Peano tinha objetivo semelhante a Frege, mas mais realista. Ele desenvolveu uma notação formal para raciocínio matemático que procurasse conter não só a lógica matemática mas todos os ramos mais importantes dela. O simbolismo de Peano e seus axiomas - dos quais dependem tantas construções rigorosas na álgebra e análise - "representam a mais notável tentativa do século de reduzir a aritmética comum, e portanto a maior parte da matemática, a um puro simbolismo formal. Aqui o método postulacional atingiu novo nível de precisão, sem ambiguidade de sentido, sem hipóteses ocultas".
Já Hilbert procurou colocar em prática a teoria da demonstração de Frege, e pode-se ver nessas palavras de Frege as idéias implementadas posteriormente no programa hilbertiano: "a inferência procede pois, em meu sistema de escrita conceitual (Begriffsschrift), seguindo uma espécie de cálculo. Não me refiro a este em sentido estrito, como se fosse um algoritmo que nele predominasse, (...), mas no sentido de que existe um algoritmo total, quer dizer, um conjunto de regras que resolvem a passagem de uma proposição ou de duas, a outra nova, de tal forma que nada se dá que não esteja de acordo com estas regras. Minha meta é pois uma ininterrupta exigência de precisão no processo de demonstração, e a máxima exatidão lógica, ao mesmo tempo que clareza e brevidade" .
Pode-se notar a partir desse momento uma guinada no conceito de Lógica: o objeto da investigação lógica já não são mais as próprias fórmulas, mas as regras de operação pelas quais se formam e se deduzem.




O desenvolvimento da Lógica Matemática

Uma das metas dos matemáticos no final do século XIX foi a de obter um rigor conceitual das noções do cálculo infinitesimal (limite, continuidade, infinito matemático, etc.). Tal programa foi chamado de "aritmetização da análise", isto é, a busca da redução dos conceitos fundamentais da análise (a matemática que tem como base a teoria dos número reais) aos conceitos da aritmética (a matemática que tem como base a teoria dos número inteiros positivos, isto é, dos números naturais e por extensão dos números racionais).
Por exemplo, ao invés de se tomar o número imaginário como uma entidade um tanto misteriosa, pode-se definí-lo como um par ordenado de números inteiros (0,1), sobre o qual se realizam certas operações de "adição" e "multiplicação". Analogamente, o número irracional se definia numa certa classe de números irracionais, cujo quadrado é menor do que 2. Dado que a Geometria podia ser reduzida à Análise (Geometria Analítica), a Aritmética vinha a se configurar como a base natural de todo o edifício matemático. O ponto culminante deste processo foram os axiomas de Peano (1899), que fundamentaram toda a Aritmética elementar posterior.
Ao mesmo tempo, matemáticos como Frege, Cantor e Russell, não convencidos da "naturalidade" da base constituída pela aritmética, procuravam conduzir a própria aritmética a uma base mais profunda, reduzindo o conceito de número natural ao conceito lógico de classe, ou para recorrer a Cantor, definir número em termos de conjunto, de modo que a lógica das classes apresentava-se como a teoria mais adequada para a investigação sobre os fundamentos da matemática. O esforço dos matemáticos foi o de dar à álgebra uma estrutura lógica, procurando-se caracterizar a matemática não tanto pelo seu conteúdo quanto pela sua forma.
Bochenski 6, falando da história da Lógica Matemática, diz que a partir de 1904, com Hilbert, inicia-se um novo período dessa ciência então emergente, que se caracteriza pela aparição da Metalógica (Hilbert, Löwenheim e Scholem) e, a partir de 1930, por uma sistematização formalista desta mesma Metalógica. Iniciaram-se discussões sobre o valor e os limites da axiomatização, o nexo entre Lógica e Matemática, o problema da verdade (Hilbert, Gödel, Tarski).
A Metalógica, em sua vertente sintática ocupa-se das propriedades externas dos cálculos, como por exemplo a consistência, a completude, a decidibilidade dos sistemas axiomáticos e a independência dos axiomas. Hilbert, Gödel e Church são autores neste campo. Em sua parte semântica, a Metalógica dirige-se ao significado dos símbolos, dos cálculos com relação a um determinado mundo de objetos. Tarski, Carnap e Quino, entre outros se interessaram por estas questões.
Apareceram também novos sistemas lógicos: as lógicas naturais, de Gentzen e Jaskowski, lógica polivalente de Post e Lukasiewicz, e a lógica intuicionista de Heytings.
Complementando essas idéias cabe destacar alguns sistemas originais de outros matemáticos como Schönfinkel (1924), Curry (1930), Kleene (1934), Rosser (1935) e o já citado Alonzo Church (1941). Deve-se lembrar que quase todos estes últimos, junto com o logiscista inglês Alan M. Turing, acabaram por definir, antes mesmo de existir o computador propriamente, a natureza da computação, e as implicações e limites do pensamento humano através de uma máquina.










A crise dos fundamentos, as tentativas de superação e David Hilbert

Até aqui as disciplinas dedutivas atingiram um alto grau de perfeição lógica. Mas algumas dúvidas começaram a abalar a confiança dos matemáticos: o surgimento, por volta de 1900, de numerosos paradoxos ou antinomias, especialmente na teoria dos conjuntos. O surgimento de tais contradições mostrava que havia algum defeito nos métodos. Será que se poderia ter certeza de que em se usando os axiomas de um sistema rigidamente lógico - o grande sonho de tantos matemáticos do início do século XX de reduzir a matemática e o conhecimento à lógica -, nunca se chegaria a uma contradição, dentro dos axiomas do sistema? Este quadro estimulou a criatividade matemática. Na tentativa de se resolverem os paradoxos surgiram 3 grandes escolas da lógica : a Logicista1 , a Intuicionista e a Formalista (há um excelente trabalho para explicar essas escolas, em linguagem apropriada para o não-especialista,
Mas, retornando ao problema dos paradoxos acima citado, estava iminente, nos fins do século XIX, uma inevitável colisão entre matemática e filosofia. Alguns vagos conceitos metafísicos associados com o pensamento humano já tinham chamado a atenção de matemáticos das duas primeira décadas do século XX3, que passaram a procurar a verdadeira natureza do raciocínio dentro da ciência matemática. O que é um procedimento correto?, qual a relação entre verdade e demonstração?, é possível fornecer uma prova para todos os enunciados matemáticos verdadeiros? E o problema das ambiguidades, já que a matemática sempre foi feita através de uma linguagem natural? Sem falar na crise dos paradoxos, subjacente a tudo isso!
A escola logicista rapidamente ficou exposta a fortes críticas§. Frege, Peano e Russell , devido ao seu platonismo, acreditavam em um mundo objetivo, existente por si mesmo, de entes e relações matemáticas que o pesquisador deve descobrir e não inventar. Bertrand Russell tinha objetivos ainda maiores: utilizar o instrumental da lógica como ponto de partida do pensamento filosófico, através da geração de uma linguagem perfeita. Mas a matemática, enquanto perquirição pura, independe teoricamente dessas aplicações, bastando ver as pesquisas atuais. Deve-se no entanto destacar o grande mérito dessa escola de incrementar grandemente o progresso da logística e confirmar a união íntima entre matemática e lógica.
O programa intuicionista sofreu também fortes críticas, principalmente a de desfigurar a matemática, tornando-a algo subjetivo e praticamente impossível. O próprio modo de se provar a não-contradição de uma teoria matemática, buscando um 'modelo' dos axiomas desta teoria dentro de outra teoria já existente (e que era considerada coerente) mostrou-se pouco confiável: como dar a certeza da não-contraditoriedade dessa outra teoria? A maior parte dos matemáticos dos nossos dias afastou-se desta linha de pensamento. Positivamente falando, sua severa crítica à matemática tradicional obrigou os especialistas nos fundamentos a desenvolverem novos métodos para reabilitar a teoria clássica. A escola formalista progrediu bastante através das polêmicas com os intuicionistas .
Para David Hilbert (1862-1943) e outros, o problema de estabelecer fundamentos rigorosos era o grande desafio ao empreendimento de tantos, que pretendiam reduzir todas as leis científicas a equações matemáticas, e que teve como ápice os anos da década de 1930. Através de dois relatórios, em 1922 e 1923, propôs o chamado Programa Hilbertiano, voltado para uma prova não mais 'relativa' (a outro sistema), mas direta e absoluta de um sistema axiomático. Era necessário colocar a matemática em bases rigorosamente sólidas, com axiomas e regras de procedimento que deveriam ser estabelecidos em caráter definitivo. Todos estes estudos denominaram-se Metamatemática ou Metalógica, pela conectividade das duas.
Hilbert propôs-se demonstrar a coerência da aritmética§ para depois estender tal coerência aos âmbitos dos demais sistemas. Ele apostou na possibilidade da criação de uma linguagem puramente sintática, sem significado, a partir da qual se poderia falar a respeito da verdade ou falsidade dos enunciados. Tal linguagem foi e é chamada de sistema formal, e está resumida no anexo III. Isto era o centro da doutrina formalista, que mais tarde estimularia Turing a fazer descobertas importantes sobre as capacidades das máquinas. Lembre-se também que John von Neumann, a quem muitos atribuem a construção do primeiro computador, era um aluno de Hilbert e um dos principais teóricos da escola formalista§27.
Um problema fundamental neste processo de formalização da aritmética era perguntar se existe um procedimento finito pelo qual seja possível decidir a verdade ou falsidade de qualquer enunciado aritmético. Em 1900, no Segundo Congresso Internacional de Matemática, realizado em Paris, David Hilbert propôs uma lista de 23 problemas cuja solução "desafiará futuras gerações de matemáticos". Vários deles foram desde então resolvidos e alguns resistem até hoje, permanecendo ainda em aberto.
O segundo problema da referida lista estava relacionado com a confiabilidade do raciocínio matemático, isto é, se ao seguir as regras de determinado raciocínio matemático não se chegaria a contradições. Relacionado com ele, o problema de número dez é especialmente interessante para a Computação. Era de enunciado bastante simples: descreva um algoritmo que determine se uma dada equação diofantina do tipo P(u1,u2,...,un) = 0, onde P é um polinômio com coeficientes inteiros, tem solução dentro do conjunto dos inteiros. É o famoso problema da decidibilidade, o Entscheidungsproblem. Este problema consistia em indagar se existe um procedimento mecânico efetivo para determinar se todos os enunciados matemáticos verdadeiros poderiam ser ou não provados, isto é, se eles poderiam ser deduzidos a partir de um dado conjunto de premissas§.
Também a questão da consistência era decisiva para Hilbert, pois é uma condição necessária para o sistema axiomático do tipo que ele tinha em mente. Aristóteles já tinha mostrado que se um sistema é inconsistente, qualquer afirmação poderia ser provada como falsa ou verdadeira. Neste caso não seria possível ter um fundamento sólido para qualquer tipo de conhecimento, matemático ou não. Anos mais tarde, em 1928, no Congresso Internacional de Matemáticos, realizado em Bolonha, Itália, Hilbert lançou um novo desafio, que na verdade somente enfatizava aspectos do segundo e no décimo problema já descritos. Hilbert queria saber se é possível provar toda assertiva matemática verdadeira. Hilbert estava buscando algo como uma "máquina de gerar enunciados matemáticos verdadeiros": uma vez alimentada com um enunciado matemático, poderia dizer se o enunciado é falso ou verdadeiro 16. É um problema que está relacionado com o citado projeto hilbertiano da busca de um sistema formal completo (onde toda assertiva matemática verdadeira pode ser provada no sistema) e consistente (uma verdade matemática e sua negação não podem ambas ser provadas no sistema).
Ao mesmo tempo, em 1927, com 22 anos, von Neumann publicou 5 artigos que atingiram fortemente o mundo acadêmico. Três deles consistiam em críticas à física quântica, um outro estabelecia um novo campo de pesquisas chamado Teoria dos Jogos, e, finalmente, o que mais impactou o desenvolvimento da Computação: era o estudo do relacionamento entre sistemas formais lógicos e os limites da matemática. Von Neumann demonstrou a necessidade de se provar a consistência da matemática, um passo importante e crítico tendo em vista o estabelecimento das bases teóricas da Computação (embora ninguém tivesse esse horizonte por enquanto).
Já foi citado no capítulo sobre o Desenvolvimento da Lógica Matemática o desafio dos matemáticos do início do século de aritmetizar a análise. Eles estavam de acordo no que diz respeito às proposições geométricas e outros tipos de afirmações matemáticas: que poderiam ser reformuladas e reduzidas a afirmações sobre números. Logo, o problema da consistência da matemática estava reduzido à determinação da consistência da aritmética. Hilbert estava interessado em dar uma teoria da aritmética, isto é, um sistema formal que fosse finitisticamente descritíve, consistente, completo e suficientemente poderoso para descrever todas as afirmações que possam ser feitas sobre números naturais. O que Hilbert queria em 1928 era que para uma determinada afirmação matemática, por exemplo, "a soma de dois números ímpares é sempre um número par", houvesse um procedimento que, após um número finito de passos, parasse e indicasse se aquela afirmação poderia ou não ser provada em determinado sistema formal, suficientemente poderoso para abranger a aritmética ordinária . Isto está diretamente relacionado com o trabalho de Gödel e Alan Turing.
Pode-se afirmar que em geral a lógica matemática prestou nestes tempos maior atenção à linguagem científica, já que seu projeto era o da elaboração de uma linguagem lógica de grande precisão, que fosse boa para tornar transparentes as estruturas lógicas de teorias científicas. Tal projeto encontrou seus limites, tanto na ordem sintática como na ordem semântica (por exemplo com os célebres teoremas de limitação formal). Este fenômeno levou a uma maior valorização da linguagem ordinária, que, apesar de suas flutuações e imprecisões, encerram uma riqueza lógica que os cálculos formais não conseguem recolher de todo. Dentro da própria matemática - como se verá mais adiante com Gödel - há verdades que não podem ser demonstradas mediante uma dedução formal, mas que podem ser demonstradas - o teorema da incompletude de Gödel é uma prova disso - mediante um raciocínio metamatemático informal. A partir desse propósito de construção de uma linguagem ideal surgiu a filosofia da linguagem (Moore, Wittgenstein, Geach em sua segunda etapa) colocando as questões lógicas sobre nova ótica.
Na verdade, tanto a lógica matemática em sentido estrito como os estudos de semântica e filosofia da linguagem depararam-se com problemas filosóficos que não se resolvem somente dentro de uma perspectiva lógica. Há questões de fundo da lógica matemática que pertencem já a uma filosofia da matemática.
Todos esses desafios abriram uma porta lateral para a Computação e deram origem a um novo e decisivo capítulo na sua História. Da tentativa de resolvê-los ocorreu uma profunda revolução conceitual na Matemática - o Teorema de Gödel - e surgiu o fundamento básico de todo o estudo e desenvolvimento da Computação posterior: a Máquina de Turing.


























Kurt Gödel e o indecidível


Em 1931, o matemático Kurt Gödel (1906-1978) publicou alguns resultados de suas pesquisas, que mudaram o rumo dos estudos da Ciência Matemática e atingiram profundamente o formalismo. Entre eles está o famoso Teorema de Gödel sobre as proposições indecidíveis, que diz o seguinte 27:
A. Se S é um sistema formal suficientemente forte para conter a aritmética elementar, então S é incompleto ou inconsistente;
B. A eventual consistência de um tal sistema formal não pode ser provada apenas com recursos daquele mesmo sistema.
Kurt Gödel demonstrou que não é possível construir uma teoria axiomática dos números que seja completa, como pretendia Hilbert.
A primeira parte do teorema citado significa que existem proposições aritméticas tais que nem elas nem sua negação são demonstráveis na aritmética adotada. São proposições indecidíveis. Logo, em qualquer axiomática consistente baseada em aritmética existem sentenças indecidíveis. Como uma proposição e sua negação são contraditórias - admitindo-se o princípio do terceiro excluído -, então uma delas é verdadeira. Portanto existem sentenças aritméticas verdadeiras, formuláveis em uma determinada axiomática baseada em aritmética, que não podem ser provadas. A segunda parte do teorema diz que a prova de ausência de contradição em uma axiomática da aritmética não pode ser realizada apenas com os recursos dessa axiomática.
Para o desenvolvimento de seus estudos Gödel concebeu uma interessante formulação de símbolos, fórmulas e provas através de números, bem como mostrou que as proposições metamatemáticas - aliás sem isso não poderia ter realizado sua prova - podem estar adequadamente refletidas dentro do próprio cálculo, aritmetizando assim a própria metamatemática. No anexo IV há um pequeno resumo sobre a prova de Gödel.
Gödel acabou com o sonho logicista, visto que não se pode desenvolver toda a aritmética (e muito menos toda a matemática) num sistema que seja ao mesmo tempo consistente e completo. Também acabou com o sonho formalista: existem enunciados matemáticos que são verdadeiros, mas não são suscetíveis de prova, isto é, existe um abismo entre verdade e demonstração.
Gödel, no entanto, ao longo da demonstração do seu teorema rompeu um limiar crucial entre a lógica e a matemática. Ele mostrou que qualquer sistema formal que seja tão rico quanto um sistema numérico qualquer, que contenha os operadores "+" e "=", pode ser expresso em termos aritméticos. Isto significa que por mais complexa que se torne a matemática (ou qualquer outro sistema formal redutível a ela), ela pode sempre ser expressa em termos de operações a serem executadas sobre números, e as partes do sistema poderão ser manipuladas por regras de contagem e comparação. Outro resultado fundamental do teorema da incompletude de Gödel pode-se considerar como sendo a demonstração de que há algumas funções sobre os inteiros que não podem ser representadas por um algoritmo, ou seja, que não podem ser computadas§. Posteriormente verificou-se a existência de uma equivalência entre o Teorema da Incompletude de Gödel e o problema da parada de Turing.


Alan Mathison Turing: o berço da Computação


A revolução do computador começou efetivamente a realizar-se no ano de 1935, em uma tarde de verão na Inglaterra, quando Alan M. Turing (1912-1954), estudante do King's College, Cambridge, durante curso ministrado pelo matemático Max Neumann, tomou conhecimento do Entscheidungsproblem de Hilbert. Enquanto isso, conforme foi brevemente citado no item precedente, uma parte da comunidade dos matemáticos buscava um novo tipo de cálculo lógico, que pudesse, entre outras coisas, colocar em uma base matemática segura o conceito heurístico do que seja proceder a um cômputo. O resultado destas pesquisas era fundamental para o desenvolvimento da matemática: tratava-se de saber se é possível haver um procedimento efetivo para se solucionar todos os problemas de uma determinada classe que estivesse bem definida. O conjunto desses esforços acabou por formar a fundamentação teórica da que veio a ser chamada "Ciência da Computação".
Os resultados de Gödel e o problema da decisão motivaram Turing primeiramente a tentar caracterizar exatamente quais funções são capazes de ser computadas. Em 1936, Turing consagrou-se como um dos maiores matemáticos do seu tempo, quando fez antever aos seus colegas que é possível executar operações computacionais sobre a teoria dos números por meio de uma máquina que tenha embutida as regras de um sistema formal. Turing definiu uma máquina teórica que se tornou um conceito chave dentro da Teoria da Computação. Ele enfatizou desde o início que tais mecanismos podiam ser construídos e sua descoberta acabou abrindo uma nova perspectiva para o esforço de formalizar a matemática, e, ao mesmo tempo, marcou fortemente a História da Computação.
A percepção genial de Turing foi a substituição da noção intuitiva de procedimento efetivo por uma idéia formal, matemática. O resultado foi a construção de uma conceituação matemática da noção de algoritmo, uma noção que ele modelou baseando-se nos passos que um ser humano dá quando executa um determinado cálculo ou cômputo. Turing formalizou definitivamente o conceito de algoritmo.


A Máquina de Turing

O trabalho de Alan Turing ficou documentado no artigo On Computable Numbers with an aplication to the Entscheidungsproblem, publicado em 1936. Turing descreveu em termos matematicamente precisos como pode ser poderoso um sistema formal automático, com regras muito simples de operação."O que faz o raciocínio humano quando executa um cálculo"?, perguntou-se Turing. Ele definiu que os cálculo mentais consistem em operações para transformar números em uma série de estados intermediários que progridem de um para outro de acordo com um conjunto fixo de regras, até que uma resposta seja encontrada. Algumas vezes é usado o papel e o lápis para não se perder o estado dos nossos cálculos. As regras da matemática exigem definições mais rígidas que aquelas descritas nas discussões metafísicas sobre os estados da mente humana, e Turing concentrou-se na definição destes estados de tal maneira que fossem claros e sem ambiguidades, para que tais definições pudessem ser usadas para comandar as operações da máquina Turing começou com uma descrição precisa de um sistema formal, na forma de "tabela de instruções" que especificariam quais movimentos a fazer para qualquer configuração possível dos estados no sistema. Provou então que os passos de um sistema axiomático formal semelhante à lógica e os estados da máquina que fazem os "movimentos" em um sistema formal automático são equivalentes entre si. Estes conceitos estão todos subjacentes na tecnologia atual dos computadores digitais, cuja construção tornou-se possível uma década depois da publicação de Turing Um sistema formal automático é um dispositivo físico que manipula automaticamente os símbolos de um sistema formal de acordo com as suas regras. A máquina teórica de Turing estabelece tanto um exemplo da sua teoria da computação como uma prova de que certos tipos de máquinas computacionais poderiam, de fato, ser construídas. Efetivamente, uma Máquina de Turing Universal, exceto pela velocidade, que depende do hardware, pode simular qualquer computador atual, desde os supercomputadores até os computadores pessoais, com suas complexas estruturas e poderosas capacidades computacionais, dado o tempo e memória necessários. Alan Turing provou que para qualquer sistema formal existe uma Máquina de Turing que pode ser programada para imitá-lo. Ou em outras palavras: para qualquer procedimento computacional bem definido, uma Máquina de Turing Universal é capaz de simular uma máquina que execute tais procedimentos.De um ponto de vista teórico, a importância da Máquina de Turing está no fato de que ela representa um objeto matemático formal. Através dela, pela primeira vez, se deu uma boa definição do que significa computar algo. E isso levanta a questão sobre o que exatamente pode ser computado com tal dispositivo matemático.


O problema da parada e o problema da decisão
Turing mostrou que o funcionamento de sua máquina (usar-se-á a sigla MT a partir de agora) e a aplicação das regras de formação de um sistema formal não têm diferença. Ele demonstrou também que seu dispositivo poderia resolver infinitos problemas mas havia alguns que não seriam possíveis, porque não haveria jeito de se prever se o dispositivo pararia ou não. Colocando de uma outra maneira: dado um programa P para uma MT e uma determinada entrada de dados E, existe algum programa que leia P e E, e pare após um número finito de passos, gerando uma configuração final na fita que informe se o programa P encerra sua execução após um número finito de passos ao processar E?Comparando-se com as afirmações sobre verdades aritméticas, dentro de um sistema formal consistente da aritmética, que não são passíveis de prova dentro deste sistema, percebe-se que o problema da parada de Turing nada mais é do que o Teorema de Gödel, mas expresso em termos de uma máquina computacional e programas ao invés de uma linguagem de um sistema dedutivo da Lógica Matemática.Em 1936 Turing provou formalmente o seguinte teorema Teorema da Parada: Dado um programa P qualquer para uma Máquina de Turing e uma entrada E qualquer de dados para esse programa, não existe uma Máquina de Turing especifica que pare após um número finito de passos, e que diga se P em algum momento encerra sua execução ao processar E.A solução negativa deste problema computacional implica também numa solução negativa para o problema de Hilbert. Portanto nem todos os enunciados verdadeiros da aritmética podem ser provados por um computador§
Figura: Relacionamento entre os mundos formais, matemáticos e computacionais

A tese de Church-Turing e outros resultados teóricos

Após os resultados de Gödel em 1931 muitos lógicos matemáticos partiram em busca do que seria uma noção formalizada de um procedimento efetivo (por efetivo entenda-se mecânico), ou seja, o que pode ser feito seguindo-se diretamente um algoritmo ou conjunto de regras (como já visto, antigo sonho de séculos, que remonta a Leibniz). Destas buscas surgiram:
a sistematização e desenvolvimento das funções recursivas (introduzidas nos trabalhos de Gödel) por Stephen Cole Kleene (1909-1994) em sua teoria lógica da computabilidade (parte de seu livro Introdução à Metamatemática, um dos cumes da lógica matemática dos últimos anos);
as Máquinas de Turing;
cálculo-lambda (componente característico fundamental da linguagem de programação LISP) de Alonzo Church;
a Máquina de Post, análoga à de Turing, tornada pública um pouco depois, fruto de trabalho independente, e seu sistema para reescrita de símbolos (cuja gramática de Chomsky é um caso particular), de Emil L. Post (1897-1954).
Com efeito, todos estes conceitos levaram à mesma conclusão e acabaram por ter o mesmo significado, dentro do citado escopo da busca de uma definição bem elaborada de processo efetivo. No presente trabalho referirer-se-á mais a Church e Turing (Kleene fez em seu trabalho uma ampla abordagem de ambos, tirando várias consequências, e Post trata do mesmo tema de Turing), para se ter uma visão mais clara da diversificação dos estudos desta década de 1930 para a fundamentação teórica de toda a Computação.Um célebre teorema de Alonzo Church (1903-1995) demonstrou em 1936 que não pode existir um procedimento geral de decisão para todas as expressões do Cálculo de Predicados de 1a ordem, ainda que exista tal procedimento para classes especiais de expressões de tal cálculo.Isto pode causar certo espanto se se pensa que o Cálculo de Predicados de 1a ordem é semanticamente completo, com o que se diz implicitamente que o próprio cálculo, com seus axiomas e regras, constitui um algorítmo capaz de enumerar uma após outra todas as sua expressões válidas. De fato, no entanto, estas expressões são indefinidamente numerosas, de modo que, mesmo sendo verdade que essa infinidade de expressões seja enumerável, ou seja, construíveis passo a passo a partir dos axiomas, essa enumeração não tem fim. Compreende-se, então que, se se consegue demonstrar uma determinada fórmula P em um certo momento, isto já basta para afirmar que se trata de uma fórmula válida. Pelo contrário, se por exemplo depois de haver deduzido mil teoremas dos axiomas, P ainda não apareceu, não se pode afirmar nada, porque P poderia aparecer talvez após outro milhar de teoremas, permitindo-se reconhecer sua validade, ou não aparecer nunca, por não ser válida. Mas não se poderá afimar em qual caso se está, mesmo depois das mil deduções.A decisão, dentro desse cálculo seria possível se se possuisse um algoritmo capaz de enumerar as expressões não válidas. A expressão P então aparecia dentro desse conjunto de não válidas em algum momento. O teorema de Church de que se está tratando consiste fundamentalmente na demonstração de que não existe algoritmo capaz de enumerar as expressões não válidas, de maneira que fica excluído a priori todo procedimento de decisão para as expressões do Cálculo de predicados, em geral. Para compreender as razões de semelhante fato seria necessário valer-se das noções técnicas relacionados com os conceitos da matemática recursiva, que excedem amplamente os limites deste trabalho.
Também Church estava interessado no problema de Hilbert. O resultado a que Turing tinha chegado em 1936 sobre o problema da decisão de Hilbert, Church o tinha alcançado também, alguns poucos meses antes, empregando o conceito formalizado de lambda-definibilidade (ao invés do computável por uma Máquina de Turing definido por Turing), no lugar do conceito informal procedimento efetivo ou mecânico. Kleene em 1936 mostrou que lambda-definibilidade é equivalente ao conceito de recursividade de Gödel-Herbrand e nesse meio tempo Church formulou sua tese que estabelecia que a recursividade é a própria formalização do efetivamente computável. Isto foi estabelecido, no caso das funções dos inteiros positivos, por Church e Kleene, em 1936. O cálculo-lambda, como sistema elaborado por Church para ajudar a fundamentar a Matemática (1932/33) era inconsistente, como o mostraram Kleene e Rosser (1935). Mas a parte do cálculo-lambda que tratava de funções recursivas estava correta e teve sucesso. Usando sua teoria Church propôs uma formalização da noção de "efetivamente computável", através do conceito de lambda-definibilidade. Turing em 1936 e 1937, ao dar a sua noção de computabilidade associada a uma máquina abstrata, mostrou que a noção Turing-computável é equivalente à lambda-definibilidade 33. O trabalho de Church e Turing fundamentalmente liga os computadores com as MT. Os limites das MT, de acordo com a tese de Church-Turing, também descreve os limites de todos os computadores.O processo que determina o valor de uma função através dos argumentos dessa função é chamado de cálculo da função (ou computar uma função). Como foi observado, a máquina de Turing pode ser matematicamente interpretada como um algoritmo e efetivamente toda ação de uma máquina algorítmica como o computador pode ser considerada como a de calcular o valor de uma função com determinados argumentos. Este 'insight' é interessante, pois dá uma maneira de se medir a capacidade computacional de uma máquina. Necessita-se somente identificar as funções que se é capaz de computar e usar este conjunto como medida. Uma máquina que compute mais funções que outra é mais poderosa.A partir dos resultados de Gödel, Turing e Church, pode-se dizer que existem funções para as quais não existe uma sequência de passos que determinem o seu valor, com base nos seus argumentos. Dizendo-se de outra maneira, não existem algoritmos para a solução de determinadas funções. São as chamadas funções não computáveis. Isto significa que para tais funções não há nem haverá capacidade computacional suficiente para resolvê-las. Logo, descobrir as fronteiras entre funções computáveis e não computáveis é equivalente a decobrir os limites do computador em geral. A tese de Church-Turing representa um importante passo nesse sentido. A percepção de Turing foi a de que as funções computáveis por uma MT eram as mesmas funções computáveis acima referidas. Em outras palavras, ele conjecturou que o poder computacional das MT abarcava qualquer processo algoritmico, ou, analogamente, o conceito da MT propicia um contexto no qual todas as funções computáveis podem ser descritas. Isto foi a contribuição dada pelo trabalho de Turing e Church: as funções computáveis são as mesmas funções Turing-computáveis. A importância disso está na possibilidade de se verificar o alcance e limites de um computador.


Notas Científica de esclarecimentos entre a relação desenvolvimento cibernético e matemática


§1. Em um sistema axiomático parte-se de premissas aceitas como verdadeiras e regras ditas válidas, que irão conduzir a sentenças verdadeiras. As conclusões podem ser alcançadas manipulando-se símbolos de acordo com conjuntos de regras. A Geometria de Euclides é um clássico exemplo de um procedimento tornado possível por um sistema axiomático.
§2. Parmênides (540 a 470 a.C.) negava a existência do movimento ("devir") e afirmava a existência de um único ser (panteísmo), tendo enunciado o princípio da não contradição. Seu discípulo Zenão (490 a 430 a.C.) foi o fundador da dialética e radicalizou a negação do movimento. Este envolveria um paradoxo: para mudar completamente é preciso antes mudar parcialmente, e assim infinitamente, o que levaria a concluir que o movimento não existe (paradoxos de Aquiles e a tartaruga e os pontos de percurso de uma flecha)
§3. Modalidades são as expressões do tipo "é possível que...", "é necessário que...".
§4. As definições pretendem substancialmente explicitar os conceitos da geometria ("ponto é aquilo que não tem partes"; "linha é comprimento sem largura", etc.). Os postulados representam verdades indubitáveis típicas do saber geométrico ("pode-se levar uma reta de qualquer ponto a qualquer ponto"; "todos os ângulos retos são iguais"; etc.). Os axiomas são verdades que valem universalmente, não só na geometria ("o todo é maior que a parte"; "coisas que são iguais a uma mesma coisa são iguais entre si", etc.).
§5. Neste sentido foi o matemático grego que maior influência teve sobre a moderna teoria dos números. Em particular Fermat foi levado ao seu 'último' teorema quando procurou generalizar um problema que tinha lido na Arithmetica de Diophantus: dividir um dado quadrado em dois quadrados (ver F.E. Robbins, P.Mich. 620:A Series of Arithmetical Problems, Classical Philology, pg 321-329, EUA, 1929).
§6. Sob certo aspecto isto se justificaria. Em uma visão um tanto arbitrária e simplista poderíamos dividir o desenvolvimento da álgebra em 3 estádios: (1) primitivo, onde tudo é escrito em palavras; (2) intermediário, em que são adotadas algumas simplificações; (3) simbólico ou final. Neste contexto, Arithmetica deve ser colocada na segunda categoria.
§7. A palavra algoritmo na matemática designa um procedimento geral de cálculo, que se desenvolve, por assim dizer, automaticamente, poupando-nos esforço mental durante o seu curso; este termo será depurado e aproveitado dentro da Computação, e dele se tornará a falar mais à frente
§8. Lembrando algo que já foi dito, é importante ressaltar que desde suas origens aristotélicas a lógica havia assumido claramente alguns recursos fundamentais, como a estrutura formal, o emprego de certo grau de simbolismo, a sistematização axiomática e o identificar-se com a tarefa de determinar as "leis" do discurso (tomando, por exemplo, a linguagem como tema de estudo), características que foram assumidas pela Lógica Moderna.
§9. Deve-se observar que destas conceituações descenderam a notação da matemática e da lógica do século XX.
§10. Newton e Leibniz descobriram o princípio fundamental do cálculo de que uma integração pode ser feita mais facilmente pela inversão do processo de diferenciação, no cálculo das áreas 1.
§11. Em 1673 Gottfried Leibniz, usando uma engrenagem dentada, construiu uma calculadora capaz de multiplicar, na qual um número era repetidamente e automaticamente somado a um acumulador.
§12. Remonta aos gregos, particularmente Aristóteles, como visto no capítulo dos Primórdios, que a fundiu com a lógica filosófica em um conjunto de obras que posteriormente chamou-se Organon. A lógica formal analisa detalhadamente as diversas formas que podem adotar as operações lógicas, em particular o raciocínio, com uma relativa independência dos seus conteúdos concretos.
§13. Leibniz já tinha compreendido no século XVII que há alguma semelhança entre a disjunção e conjunção de conceitos e a adição e multiplicação de números mas foi difícil para ele formular precisamente em que consistia essa semelhança e como usá-la depois como base para um cálculo lógico .
§14. A base do hardware sobre a qual são construídos todos os computadores digitais é formada de dispositivos eletrônicos diminutos denominados portas lógicas. É um circuito digital no qual somente dois valores lógicos estão presentes. Para se descrever os circuitos que podem ser construídos pela combinação dessas portas lógicas é necessária a álgebra booleana.
§15. Jevons foi o primeiro a compreender que os métodos booleanos podem ser reduzidos às regras do cálculo elementar, com a possibilidade, portanto, de ser mecanizados. Em 1869 conseguiu construir uma máquina lógica apresentada no ano seguinte ao público: era um dispositivo de 21 chaves para testar a validade de inferências na lógica equacional. Algumas das características deste dispositivo foram usadas mais tarde na implementação do computador. A máquina está conservada no museu de História da Ciência em Oxford.
§16.O emprego de quantificadores para ligar variáveis, principal característica do simbolismo lógico moderno e que o torna superior em alguns aspectos à linguagem vulgar e ao simbolismo algébrico de Boole, está entre as maiores invenções intelectuais do século XIX .
§17. Como já se disse, idéia lançada por Leibniz de uma linguagem filosófica que seria um simbolismo através do qual o homem estaria em condições de expressar seus pensamentos com plena clareza e dirimir dúvidas através de simples cálculos.
§18. Sobre número, dedução, inferência, proposições, premissas, etc.
§19. Quando a própria Lógica Formal reflete sobre seus conteúdos.
§20. O paradoxo de Russel, o paradoxo de Cantor, o paradoxo de Burati Forti, o paradoxo de Richard, etc. Para exemplificar, vamos ao de Cantor, descoberto por ele próprio em 1899: se S é o conjunto de todos os conjuntos, então seus subconjuntos devem estar também entre os seus elementos. Consequentemente, o número cardinal de S não pode ser menor do que o de conjunto dos subconjuntos de S. Mas isto, pelo teorema do próprio Cantor, deveria ocorrer!
§21.A tese logiscista compõe-se de duas partes: 1)Toda idéia matemática pode ser definida por intermédio de conectivos lógicos (classe ou conjunto, implicação, etc.); 2)Todo enunciado matematicamente verdadeiro pode ser demonstrado a partir de princípos lógicos ("não contradição", "terceiro excluído", etc.), mediante raciocínios puramente matemáticos.
§22. Para Brower, fundador desta escola - na verdade um radicalizador das teses de Kronecker que não aceitava a teoria dos conjuntos - o saber matemático escapa a toda e qualquer caracterização simbólica e se forma em etapas sucessivas que não podem ser conhecidas de antemão: a atividade do intelecto cria e dá forma a entes matemáticos, aproximando-se do apriorismo temporal de Kant.
§23. Basta ler as palavras do matemático Sylvester em sua controvérsia com Huxley. Dizia que a matemática se origina "diretamente das forças e atividades inerentes da mente humana, e da introspecção continuamente renovada daquele mundo interior do pensamento em que os fenômenos são tão variados e exigem atenção tão grande quanto os do mundo físico exterior." Para ele a matemática era revelar as leis da inteligência humana, assim como a física revela as leis do mundo dos sentidos.
§24. Os logicistas tiveram de apelar a princípios extra-lógicos - axioma de Zermelo, axioma do infinito - que ainda hoje encontram-se sujeitos a calorosos debates e fortes reparos.
§25. Caminho praticado por Hilbert no seu famoso trabalho Fundamentos da Geometria (1899), onde axiomatizou de modo rigoroso a geometria euclidiana.
§26. No início do século XX a matemática estava reduzida a 3 grandes sistemas axiomáticos: aritmética, análise e conjunto, sendo o mais fundamental o primeiro. Era natural que ele escolhesse esse sistema.
§27. John von Neumann falava 5 línguas e foi um brilhante físico, logicista e matemático. Além de lhe ser atribuída a invenção do primeiro computador, ele estava no centro do grupo que criou o conceito de "programa armazenado", que potencializou extremamente o poder computacional das máquinas que então surgiam.
§28. A simplicidade do problema de Hilbert é apenas aparente, e somente após 70 anos de esforços foi encontrada a solução, por Matijasevic, um matemático russo de apenas 22 anos na época. É uma solução bastante complexa, dependendo tanto de resultados da Teoria do Números, conhecidos há muitíssimos anos, como do trabalho anterior de três americanos, Martin Davis, Julia Robinson e Hilary Putnan, que por sua vez baseia-se em certos resultados fundamentais sobre lógica e algoritmos descobertos na década de 30 por Kurt Gödel, Alan Turing, Emil Post, Alonso Church e Stephen Kleene. A resposta a esse problema de Hilbert é: tal algoritmo não existe: o décimo problema é indecidível.
§29. O termo finitístico é usado por vários autores. Hilbert quis dizer que tal sistema deveria ser construído com um número finito de axiomas e regras e todas prova dentro do sistema deveria ter um número finito de passos.
§30. As conclusões de Gödel não significam que seja impossível construir uma prova absoluta e finitista da aritmética. Significam que nenhuma prova deste tipo pode ser construída dentro da aritmética., isto é, que esteja refletida a partir de deduções formais da aritmética. Outras provas metamatemáticas da consistência da aritmética foram construídas, em particular por Gerhard Gentzen, da escola de Hilbert, em 1936, embora não finitistas e não representáveia dentro do cáculo aritmético, ou seja, estão fora das condições previstas por Hilbert.
§31. Os resultados de Gödel tem consequências importantes também para a filosofia. Sabe-se, graças a ele, ser impossível construir uma máquina que, de modo consistente, resolva todos os problemas da matemática, com os recursos de um sistema (certos problemas, por assim dizer, "não se deixam resolver" com os recursos do sistema apenas). Mas de fato o matemático os resolve muitas vezes. A conclusão a que se chega é que a mente humana é superior a uma máquina.
§32.Palavras como procedimento efetivo e algoritmo representam conceitos básicos dentro da Ciência da Computação. São noções que na época de Turing já eram utilizadas pelos matemáticos, como por exemplo Frege e Hilbert (ver capítulos que tratam dessas duas importantes figuras).
§33. Um ano mais tarde, trabalhando independentemente, Alan Post publicou seu trabalho sobre uma máquina semelhante à de Turing.
§34. Uma Máquina de Turing Universal é uma Máquina de Turing específica que lê na sua fita de alimentação, além de dados de entrada, um programa R que é uma especificação de uma Máquina de Turing qualquer.
§35. Os computadores possuem conjuntos de instruções que correspondem a regras fixas de um sistema formal. Como provou Gödel, existem problemas não solucionáveis dentro de um método axiomático e, portanto, há problemas que um computador não resolve. Esta afirmação não deve ser vista como algo pessimista dentro da Ciência da Computação: que um computador não possa resolver todos os problemas não significa que não se possa construir uma máquina ou algoritmo específico para solucionar determinado tipo de problema

































A disseminação da cultura informática


Introdução
O domínio e o controle das informações
O equilíbrio entre o toque humano e a tecnologia

Introdução

Não é muito difícil prever o que será o futuro, quando a História olhar para trás e estudar os anos do século XX, caracterizados historicamente, entre outras coisas, como tempos em que se produziu uma aceleração tecnológica e um avanço nas comunicações sem precedentes. Não é fácil encontrar situações históricas análogas à expansão tecnológica que se assistiu nestes últimos cinquenta anos do século. Após as revoluções do ferro, da eletricidade, do petróleo, da química, veio a revolução apoiada na eletrônica e no desenvolvimento dos computadores. A partir dos anos setenta iniciou-se a integração em grande escala da televisão, telecomunicação e informática, em um processo que tende a configurar redes informativas integradas, com uma matriz de comunicação baseada na informação digital, com grande capacidade de veicular dados, fotos, gráficos, palavras, sons, imagens, difundidos em vários meios impressos e audiovisuais. Pode-se até dizer que, em certo sentido, as mídias estão sendo suprimidas, pois tudo está se tornando eletrônico.
A integração dos meios de comunicação gera também uma progressiva fusão das atividades intelectuais e industriais do campo da informação. Jornalistas das redações dos grandes jornais e agências de informação, artistas, comunidade estudantil, pesquisadores trabalham diante de uma tela de computador. Em algumas sociedades, como a norte-americana por exemplo, quase 50% da população economicamente ativa está dedicada a atividades industriais, comerciais, culturais, sociais e informacionais relacionadas com coleta, tratamento e disseminação da informação. Há um aumento da eficiência informacional a cada dia, e se barateiam cada vez mais os custos tecnológicos. Não esquecendo que o computador, diferentemente das outras máquinas (que manipulam, transformam ou transportam matéria e energia) manipula, transforma e transporta um elemento muito mais limpo e menos consumidor de energia e matéria prima. Abre-se portanto uma porta para um crescimento da informação praticamente ilimitado.
Já que se está tratando principalmente nesta dissertação sobre a evolução das idéias e conceitos que levaram ao surgimento e desenvolvimento da Ciência da Computação, pode-se falar agora de um supra-conceito maior, consequência que a Computação ajudou a catalisar: o surgimento da Sociedade da Informação. Sem querer adentrar no tema, merecedor de um trabalho exclusivo e com implicações históricas, antropológicas, sociológicas e até psicológicas que fogem ao escopo desse trabalho, duas considerações serão feitas: o problema do excesso de informação e o perigo do empobrecimento que pode ser causado pelo uso indevido do computador.






O domínio e o controle das informações


Existe no mundo da pintura uma expressão que se refere ao acúmulo de cores que acaba por não permitir uma clara distinção do objeto: infopoluição. Esta possibilidade começa a fazer-se realidade no âmbito da Sociedade da Informação. A informação está expandida no mundo de hoje, resultado da explosão de fontes que incluem as agências comerciais de notícias, os sistemas comerciais de satélites transmissores de imagens, a World Wide Web, etc.
A superabundância de informação tende a mudar a natureza de cada mensagem concreta. Às vezes a maneira mais prática de não informar é dar uma enxurrada de informações. Pode-se chegar até a privar de significado, ou tornar insignificante, a própria mensagem. A informação converte-se, nesta perspectiva, em simples ruído de fundo. Isto já ocorre especialmente com os informes publicitários.
É uma acumulação de dados não só pela densidade de informações bem como pela sucessão rápida com que chega. Se no passado o problema era o de acesso e coleta, agora está sendo o da seleção e avaliação. A possibilidade de recolher, processar, difundir e recuperar informação de maneira quase instantânea implica numa certa desvalorização da notícia. É necessário que se enfatize cada vez mais a análise da informação e que se encorajem as inovações técnicas nesse campo. Já surgem os grandes sistemas de manipulação de dados, gigantescos depósitos de dados com seus 'Data Minds', softwares que usando técnicas de IA e trazem, por mecanismos de inferência, a informação desejada ou a possível informação desejada.
As possíveis reações ante esse fenômeno da 'poluição informativa' ocorreram em três direções68. Uma primeira via seria a seleção da informação, sem redundâncias nem repetições, como se mencionou algumas linhas acima. A outra seria a redução da informação, acomodando-a em função de interesses específicos e especializados do público e a terceira via é a fuga da informação. A fuga da informação seria o florescimento de ideologias simplificadoras, a semeadura do irracional, o voluntarismo irreflexivo, o empobrecimento das relações sociais e o desenvolvimento do mais passivo consumismo. É uma hipótese reducionista, somente esboçada em determinados nichos sociais. Uma futura linha de fuga seria a exploração através da venda e compra da informação, das mensagens informativas, a um determinado custo (como avaliar?), orientando-se a radiotelevisão ao volume de informação e tipo de informação que deseja o assinante.


O equilíbrio entre o toque humano e a tecnologia

As citações e considerações deste capítulo estão baseadas em uma palestra do prof. Dr. Valdemar Setzer, do Instituto de Matemática e Estatística da USP, em 03-IV-96, no Museu de Arte Contemporânea da USP.
Como citado anteriormente, o computador também exerce aquelas três ações das demais máquinas, isto é, transformar, armazenar e transportar, mas não mais matéria ou energia, e sim dados. Dados podem ser considerados abstrações do mundo real, não fáceis de se estabelecer muitas vezes. Como traduzir em símbolos uma personalidade, ou um sentimento? Para serem processados por um computador eles terão que ser tratados como símbolos formais (que já é um empobrecimento), por exemplo, introduzindo-se uma gradação numérica: tal intervalo entre números x e y representará uma gradação da intensidade de um determinado sentimento, o que é um empobrecimento ainda maior. Conforme o prof. Setzer:
"É importante fazer aqui uma distinção necessária entre o armazenamento de textos, imagens e som, que são pura e simplesmente reproduzidos, talvez com alguma edição da sua forma (por exemplo, alinhamento de parágrafos, saliência de contrastes em fotos, eliminação de ruídos), e o processamento de dados. Este último é o tratamento que se dá aos dados, transformando seu conteúdo, isto é, a semântica que se associa aos mesmos. Por exemplo, traduzir textos de uma língua para outra, extrair características de estilo de autores em pesquisas de lingüística computacional, gerar desenhos a partir de programas como no conhecido caso dos fractais, etc.".
"De onde provem o empobrecimento da informação? Do fato de que os dados não têm nada a ver com a realidade, sendo na verdade representações simbólicas de pensamentos abstratos formais, lógico-simbólicos, e como tal eles não precisam ter consistência física. Aliás, é justamente a imponderabilidade dos dados e sua alienação em relação ao físico que permitiu que os computadores fossem construídos cada vez menores, o que não pode acontecer com todas as outras máquinas. De fato, estas podem ser caracterizadas como máquinas concretas, ao passo que os computadores são máquinas matemáticas, e portanto abstratas, virtuais. Assim, todo processamento de dados deve utilizar-se exclusivamente de pensamentos formais expressos sob a forma de um programa de computador. Esse processamento lógico-simbólico, por ser extremamente restrito e unilateral, acaba por restringir enormemente o espaço de tratamento das informações, que devem ser expressas sob forma de dados; daí o empobrecimento das informações que são representadas por esses dados. Note-se que essa restrição é até de natureza matemática: não é possível colocar no computador as noções de infinito e de contínuo, apenas aproximações das mesmas".
"A caracterização do computador como máquina abstrata fica mais clara ao notar-se que todas as linguagens de programação são estritamente formais, isto é, passíveis de serem descritas matematicamente. O próprio funcionamento lógico do computador pode ser descrito por formulações lógico-matemáticas. As outras máquinas não têm essa característica, pois atuam diretamente na matéria (aí incluída a energia), e esta escapa a uma descrição matemática".
"Mas não são só as linguagens de programação que são formais. Qualquer linguagem de comandos, mesmo icônica, de um software qualquer, também é matematicamente formal. Por exemplo, qualquer comando de um editor de textos produz uma ação do computador que é uma função matemática sobre o texto sendo trabalhado ou sobre o estado do computador. Portanto, para se programar ou usar um computador, é necessário formular os pensamentos dentro de um espaço estritamente abstrato, matemático, apesar de aparentemente não ser o tradicional, pois os símbolos e as funções são em grande parte diferentes. Programar ou usar um computador são funções estritamente matemáticas, como fazer cálculos ou provar teoremas. Assim, a programação ou uso de um computador exigem o mesmo grau de consciência e abstração que a atividade matemática. Isso não se passa com todas as outras máquinas, que exigem uma certa coordenação motora automática, semiconsciente (por exemplo, só se aprende a andar de bicicleta quando não é mais necessário pensar sobre os movimentos e o equilíbrio)".
Portanto, o uso do computador deve ser acompanhado de um novo tipo de educação, seja no âmbito familiar ou das escolas, universidades ou empresas, que aponte para uma abertura maior do entendimento humano. E quem dá esse saber vital, que faz com que um homem se sinta interiomente livre porque tem respostas às questões da vida, e tenha uma visão mais ampla da realidade? É a cultura, a literatura, a filosofia, a história, etc., ou seja, as humanidades ou artes liberais como antes eram chamadas algumas ciências humanas. Nas ciências técnicas e para os profissionais da Computação isto é mais premente. O maior problema que a especialização das ciências técnicas trouxe foi essa perda do sentido de conjunto. Continuando com as considerações da citada palestra:
"Um empobrecimento que também pode dar-se em outro sentido que é o uso da computação na arte. Há um elemento informal e intuitivo na arte que leva a dizer que na criação artística deve haver um elemento inconsciente, que nunca poderá ser conceituado totalmente. Já a criação científica deve poder ser expressa por meio de pensamentos claros, universais e não-temporais, isto é, independentes da particular interpretação do observador, talvez até certo ponto (dependendo da área) formais, matemáticos. Imagine-se uma descrição do Altar de Isenheim através dos seus pixels e seus comprimentos de onda: ele perderia totalmente o senso estético e não produziria mais a reação interior provocada no observador pelas cores, formas e motivos, isto é, não teria o efeito terapêutico para o qual foi criado por Grünewald".
"O elemento emocional foi realçado por Freud, quando afirmou em sua 'Introdução à Psicanálise,' Aula 23, e no ensaio 'Além do Princípio do Prazer,' que a arte é emoção ou expressão subconsciente e não imitação ou comunicação (dentro de seu típico raciocínio unilateral da teoria da sublimação da emoção e do desejo através da arte). Comparando-se com a arte como comunicação de uma realidade espiritual, de Kandinsky, vê-se bem o contraste entre materialismo e espiritualismo; neste pode haver algo superior a ser comunicado".
"Apesar de que a idéia expressa em um objeto de arte seja de conteúdo objetivo, a sensação e emoção que ela desperta é subjetiva. Por exemplo, ouça-se uma terça maior seguida de uma menor, ou uma sétima seguida de uma oitava. Estamos seguros que qualquer pessoa terá sensações diferentes em cada caso, que ficam claras pelo contraste entre cada intervalo e o seguinte. Mas provavelmente quase todas as pessoas dirão que a terça menor é 'mais triste' e a sétima produz uma tensão aliviada pela oitava. Cada um sente essas emoções diferentemente, mas há claramente algo universal por detrás delas, como as sensações que temos do amarelo limão (alegre, radiante, abrindo-se) e do azul da Prússia (triste, introspectivo, fechando-se) ".
"É necessário considerar também uma distinção essencial entre obra artística e científica o fato da primeira dever sempre ter contextos temporais e espaciais ligados à sua criação. Como contraste, uma teoria científica não depende do tempo, desde que seja consistente e corresponda às observações, se for o caso. Um exemplo simples é o do conceito de uma circunferência, como por exemplo o lugar geométrico dos pontos eqüidistantes de um ponto. Essa definição formal não dependeu das condições de seu descobridor. Ela é impessoal e eterna. O fato de podermos captá-la com nosso pensamento levou Aristóteles a conjeturar, por um raciocínio puramente lógico, precursor de nossa maneira de pensar hodierna, e que não poderia ter ocorrido em Platão, pois este tinha sido um iniciado nos Mistérios (em A Escola de Atenas, de Rafael há uma representação da diferença entre os dois), que temos dentro de nós também algo de eterno".
"A dependência espaço-temporal da criação artística aliada ao elemento de expressão individual semiconsciente do artista faz com que haja sempre um elemento de imprevisibilidade na criação. O artista deve observar sua obra durante o processo de criação, para influir no mesmo e chegar a algo que não podia inicialmente prever. Isso pode ser um processo puramente interior, como no caso de um compositor que não precisa ouvir os sons de sua obra; no entanto, a sensação auditiva ao ouvi-la tocada nunca é a mesma que a que pode imaginar interiormente. Poder-se-ia argumentar que a pesquisa científica também tem elementos de imprevisibilidade. Isso pode ocorrer até na matemática: um teorema pode ser descoberto, e o seu autor ou outros ainda não saberem como se poderá prová-lo (um exemplo recente foi a prova do último teorema de Fermat, formulado no século XVII). Uma grande diferença reside no fato do resultado ser de um lado um conceito e de outro um objeto. Além disso, uma vez estabelecido um conceito científico, toda vez que se refizer a experiência ou a teoria correta o resultado será o mesmo (dentro das eventuais aproximações experimentais); no caso da criação artística, o objeto de arte deverá sempre mudar, pois a sua simples presença deve influenciar o criador, que terá outras inspirações na hora de repetir a criação (lembremos da frase de Freud de que simples imitação não é arte). Dá-se a esse fator o nome de dinamismo da criação artística".
"Portanto o uso do computador para fazer arte, sem considerar sua grande utilidade como banco de dados das obras artísticas, pode ser empobrecedor".
"Como instrumento passivo na criação artística, como é o caso do uso de uma ferramenta CorelDraw existe o problema do usuário fazer uso de um raciocínio formal ao utilizar os comandos do computador submetendo a criação artística a uma consciencialização e formalização e o problema da ausência do elemento inconsciente, assim como do contato físico que desperta diferentes reações, como por exemplo, no pintor com seu pincel, no pianista ao dedilhar o piano".
"Uma outra forma de usar um computador em arte é fazer um programa para gerar imagens ou sons (quem sabe, no futuro, até fazer uma escultura ou construir uma casa). Um exemplo conhecido disso são os fantásticos desenhos produzidos por funções fractais; programas para produzir desenhos com essas funções provavelmente estarão logo no mercado. Nesse caso, não há apenas a substituição de um instrumento informal por outro formal; o próprio processo de criação torna-se totalmente formal. A criação deve ser expressa de maneira estritamente matemática, como é o caso de um programa. Com isso, elimina-se totalmente o elemento inconsciente. É também eliminado o elemento individual, no sentido de qualquer pessoa poder entender totalmente como a obra foi produzida - basta examinar detalhadamente o programa. É eliminado ainda o elemento temporal e espacial ligado à criação. Em outras palavras, a atividade artística tornou-se atividade científica. A propósito, é muito importante compreender-se o que significa produzir um programa para fazer uma obra de 'arte' segundo um certo estilo. Um computador pode produzir desenhos e música que se assemelham aos de Mondrian e de J.S.Bach, mas estes tiveram que desenvolver seus estilos para poder ser depois analisados e expressos em elementos puramente formais e programados em um computador, para gerar algo que aparentemente é semelhante. Sem Bach, não haveria programas que imitam sua música. Além disso, a 'criação' do computador não exprime nenhuma idéia além da contida no estilo, desde que este seja expresso matematicamente, o que representa um empobrecimento".
Encerradas as considerações, o que se deseja chamar a atenção é a mentalidade do uso do computador sem o correspondente desenvolvimento de outros aspectos da inteligência do homem. Depois de tudo o que foi falado, seria redundante e supérfluo falar das vantagens desse instrumento de trabalho que potencializou e impulsionou o desenvolvimento das ciências em geral. Mas é bom lembrar que os computadores não inovam, não se relacionam, não são flexíveis e não sabem tomar iniciativas diante de situações não pré-determinadas por algoritmos internos. A imersão na informática traz o risco de se deixar de lado o cultivo ou mesmo a perda de aptidões fundamentais: leitura, reflexão, criatividade, etc. Será tarefa primordial principalmente nos estabelecimentos de ensino, onde o computador se faz cada vez mais presente, preocupar-se em dar ao lado dos conhecimentos técnicos e informáticos, uma sólida formação humanística que garanta o exercício integral da inteligência humana em seus vários âmbitos.





Conclusão


Voltando a algumas das primeiras observações feitas no capítulo introdutório deste trabalho, foi dito que a exposição histórica não é apenas a narrativa de acontecimentos, cronológica e tematicamente ordenados. Esses são somente a "ponta do iceberg", pois escondem motivações, esforços, entrelaçamentos e a própria evolução anterior. A tarefa do historiador não se conclue com a obtenção de dados fidedignos, depurados e exatos, bem com o estabelecimento de séries desses fatos de maneira coerente e significativa. São somente pontos de partida para se inquirir e perguntar sobre o próprio homem, o verdadeiro protagonista da História. Esse "saber" histórico produz assim um enriquecimento da experiência humana, permite enfrentar o desafio dos novos problemas com melhores recursos. Há mais possibilidades de crescimento e criação de coisas novas quando se possui uma herança. A criatividade não se faz sobre o nada. Ao jovem que o procurou dizendo que queria fazer versos livres, Manuel Bandeira recomendou que estudasse a fundo poesia clássica, metrificada: e que só então estaria apto a fazer versos livres. A criatividade é antes extrapolar e reorganizar dados já incorporados, numa configuração nova. Mas para extrapolar ou reorganizar dados é preciso antes de mais nada tê-los.
Ao lado disso, é uma aspiração constante de qualquer cultura entender o momento presente, formar uma imagem coerente, selecionando os fatos do passado que afetaram a evolução do ser humano, que permitam construir uma explicação. Essa idéia pode ser levada também a qualquer campo do conhecimento humano e técnico. Quando se abandona o conhecimento histórico, uma ciência, uma comunidade social, o homem, ou qualquer outro âmbito, ficam privados de uma dimensão essencial na ordem do tempo: o entrelaçamento entre presente e passado em uma unidade lógica.
A Computação atravessa um tempo de expansão em várias direções, tornando-se uma tarefa necessária guardar seu patrimônio, discernindo as realidades e conceitos mais importantes. Tudo isso é importante para o ensino, pois a Computação não surgiu do nada: há uma história por trás de cada conceito. Cada conceito tem o seu lugar, a sua importância e a sua história que é necessário ser ensinada
Este trabalho sobre História da Computação, um entre outros que estão surgindo e alguns poucos que já existem, faz uma retrospectiva ao passado enfatizando as idéias, os paradigmas, pretendendo apenas ser uma pontualização, visando uma futura expansão, sobre alguns aspectos abstratos do desenvolvimento dos computadores. Ele e sua futura expansão são apenas um começo, porque a área sobre a qual se falou continua em constante evolução e mudança. O campo de estudo ainda tem uma história muito recente e por demais volátil, não se podendo chegar a algo definitivo.
Mas estas dificuldades não podem interromper o esforço de se chamar a atenção sobre a importância de se registrar e estudar o desenvolvimento dos computadores eletrônicos e a conseqüente evolução dos temas anexos: Linguagens de Programação, a Teoria da Computação, estudo da Complexidade dos Algoritmos, etc., assim como a importância decisiva do fator humano. Quando tantos se maravilharam com a derrota do campeão mundial de xadrez Kasparov para o computador da IBM, o Deep Blue, (abril/maio de 1997), causa espanto a pouca atenção dada à equipe de técnicos que construiu e programou a máquina, às heurísticas utilizadas e aos objetivos que estão por detrás desse novo engenho, como se alguém ficasse maravilhado com o quadro e os pincéis de uma obra de arte e se esquecesse do artista. A história tem o dom de focalizar com especial nitidez aquele que é o seu personagem principal: o homem.









Índice

0 Comments:

Post a Comment

<< Home