Muito bem... para retormarmos nossa viagem através dos tempos, vamos apenas relembrar onde estávamos na semana passada: começo dos anos 70 no Brasil, privilegiados por poder usar uma calculadora gigante e rapidíssima, e sub-utilizando sua capacidade porque a agendávamos segundo a escala humana de tempo, e só podíamos usá-la um usuário por vez. A próxima parada do meu trem apenas capitalizou no privilégio, aprimorado por alguns anos de trabalho no Instituto de Pesquisas Tecnológicas, e de magistério ensinando o uso da nova tecnologia aos 5º-anistas do curso de Engenharia Naval da EPUSP. Sub-utilizado, mas maravilhoso o computador. Seu uso era excitante! Usávamos modelos de componentes estruturais cujos cálculos complexos associados seriam impossíveis de serem realizados sem o uso da máquina, componentes cujo projeto até então era puramente empírico. Obtínhamos visivelmente estruturas mais leves, mais fortes, mais econômicas, e em tempo reduzido. E se os primeiros anos de carreira trouxeram tais resultados no contexto da pesquisa e do ensino, aquela próxima parada mostrou o lado prático de maneira indelével, pois tive a oportunidade de aplicar meus conhecimentos no projeto estrutural do Aeroporto do Galeão, no Rio de Janeiro. Forças poderosas nos Estados Unidos já estavam alimentando a evolução que hoje observamos, conforme citamos nas Partes I e II desta série; o uso do computador no Brasil ainda era o descrito na Parte III. Eram os meados da década de 70. A evolução para melhorar a taxa de utilização da capacidade de processamento oferecida pelo computador apontava para uma direção óbvia: aproveitar a enorme diferença entre essa capacidade e a capacidade comparável do cérebro humano para colocá-la à disposição do maior número de usuários possível, simultâneamente. A parada seguinte do meu trem, no Governo Federal em Brasília, iria me colocar face-a-face com a necessidade dessas características, e com os avanços tecnológicos que começavam a POPULARIZAR o uso do computador. O desafio em Brasília era montar um banco de dados para recursos naturais a nível nacional. Começamos pelos recursos vegetais, com grandes coleções já existentes, nos Jardins Botânicos de São Paulo e do Rio de Janeiro, e em herbários localizados na Amazônia, em instituições como o INPA – Instituto Nacional de Pesquisas da Amazônia em Manaus, e o Museu Goeldi, em Belém. De imediato, a questão principal na área de armazenagem, processamento, e recuperação desses dados foi uma de topologia. Lembrem-se, os computadores eram estanques naquela época... então, colocaríamos um computador em cada local? Além do custo elevado, como faríamos para garantir que as coleções em todos os locais fossem consistentes, e atualizadas, desde que os computadores não se comunicavam? No outro extremo, colocaríamos um computador central em um local e daríamos acesso remoto aos outros locais? Como garantiríamos atualizações provenientes de todos os locais? E se não implementássemos eletrônicamente os acessos remotos perderíamos uma das vantagens da computarização dos dados, que era o acesso imediato aos dados mais atualizados possíveis. E foi imerso nessa questão que a minha carreira deu uma guinada que iria influenciar o resto da minha vida, abrindo uma janela única para essa evolução fantástica sobre a qual estou escrevendo a vocês. Representando o Brasil em uma reunião da NSF – National Science Foundation (Fundação Nacional de Ciências) dos Estados Unidos, fiz contato com o Prof. George Estabrook, da Universidade de Colorado, que tinha acabado de publicar a execução de um programa de computador (coleção de instruções para armazenamento, manipulação, e recuperação de dados) especialmente projetado para coleções de dados estáticos, como são as coleções de dados sôbre recursos naturais. Na reunião eu soube que êle estava se transferindo, com o tal programa, para a Universidade de Michigan, onde estudos para otimizar o uso e o acesso aos computadores já haviam mostrado resultados impressionantes, e êle me convidou para considerar o programa, implementado em Michigan, como a nossa solução. Na primeira visita que fiz a Ann Arbor, no estado de Michigan, onde fica a Universidade de Michigan, conheci Michael T. Alexander, pesquisador da IBM cedido à Universidade de Michigan para trabalhar exatamente na otimização do acesso aos computadores. Michael era famoso mundialmente pelo seu trabalho na equipe que criou o programa “Deep Blue” de jogar xadrez, o qual viria a vencer o campeão mundial Gary Kasparov em 1997. Na IBM Michael criou o sistema operacional VM – “Virtual Machine” (Máquina Virtual), que, como seu nome indicava, usava a diferença temporal entre a capacidade do computador e de um cérebro humano na execução de uma instrução, para partilhar o computador entre vários usuários, dando a impressão para cada usuário que a máquina toda (virtual) estava à sua disposição. Era exatamente o que precisávamos, na segunda parte da década de 1970. Continuamos a viajar na semana que vem com a Parte V!
(O autor é engenheiro, doutor em ciência da computaçao, professor universitário, e pode ser contactado através do e-mail claudio.spiguel@gmail.com). (PENSAMENTOS No 50/2010 – Jornal da Região – ANO XVII, No 902 – 17/12/2010).
Nenhum comentário:
Postar um comentário