HISTÓRIA DA TECNOLOGIA, TECNOLOGIA, OBJETOS AO REDOR DE NÓS
Supercomputador. História da invenção e produção Diretório / A história da tecnologia, tecnologia, objetos ao nosso redor Um supercomputador é um computador significativamente superior em seus parâmetros técnicos à maioria dos computadores existentes. Como regra, os supercomputadores modernos são um grande número de computadores servidores de alto desempenho conectados uns aos outros por um backbone local de alta velocidade para atingir o desempenho máximo dentro da estrutura da abordagem de paralelização da tarefa computacional. Em 1996, o curador do Museu de Computação do Reino Unido, Doron Swade, escreveu um artigo com um título sensacional: "A série russa de supercomputadores BESM, desenvolvida há mais de 40 anos, pode testemunhar as mentiras dos Estados Unidos, que declarou superioridade tecnológica durante os anos da Guerra Fria." De fato, meados da década de 1960 foi um ponto alto na história da tecnologia de computadores soviética. Naquela época, muitas equipes criativas trabalhavam na URSS - os institutos da S.A. Lebedeva, I. S. Brook, V. M. Glushkov, etc. Ao mesmo tempo, muitos tipos diferentes de máquinas foram produzidos, na maioria das vezes incompatíveis entre si, para os mais diversos fins. Criado em 1965 e lançado pela primeira vez em 1967, o BESM-6 foi o computador russo original, projetado em paridade com o seu homólogo ocidental. Depois houve o famoso "Elbrus", houve o desenvolvimento do BESM (Elbrus-B). V.M. Glushkov criou uma maravilhosa Máquina de Cálculo de Engenharia - "Mir-2" (um protótipo de um computador pessoal), que ainda não possui análogos ocidentais. Foi a equipe Elbrus que foi a primeira a desenvolver a arquitetura superescalar, tendo construído a máquina Elbrus-1 baseada nela muitos anos antes do Ocidente. Nesta equipe, alguns anos antes da empresa "Cray" - um líder reconhecido na produção de supercomputadores, as idéias de um computador multiprocessador foram implementadas.
Boris Artashesovich Babayan, supervisor científico do grupo Elbrus, professor, membro correspondente da Academia Russa de Ciências, acredita que a conquista mais significativa do grupo é a arquitetura da supermáquina Elbrus-3. "A velocidade lógica desta máquina é muito superior à de todas as existentes, ou seja, no mesmo hardware, esta arquitectura permite várias vezes acelerar a execução da tarefa. Implementámos suporte de hardware para programação segura para os primeiros tempo, nem tentamos no Ocidente. "Elbrus-3" foi construído em 1991. Já estava pronto em nosso instituto, começamos a depurá-lo. As empresas ocidentais falaram tanto sobre a possibilidade de criar tal arquitetura .. A tecnologia era nojenta, mas a arquitetura era tão perfeita que essa máquina era duas vezes mais rápida que o supercarro americano mais rápido da época, o Cray Y-MP." Os princípios da programação segura estão sendo implementados no conceito da linguagem Java, e idéias semelhantes às de Elbrus já formaram a base do processador de nova geração, Merced, desenvolvido pela Intel em conjunto com a HP. "Se você olhar para o Merced, é praticamente a mesma arquitetura do Elbrus-3. Talvez alguns detalhes do Merced sejam diferentes, e não para melhor." Assim, apesar da estagnação geral, ainda era possível construir computadores e supercomputadores. Infelizmente, aconteceu o mesmo com nossos computadores que aconteceu com a indústria russa em geral. Mas hoje, um novo parâmetro, exótico à primeira vista, luta persistentemente para entrar no número de indicadores macroeconômicos tradicionais (como PIB e reservas de ouro e divisas) - a capacidade total de computadores que o país possui. Os supercomputadores terão a maior participação neste indicador. Quinze anos atrás, essas máquinas eram monstros únicos, mas agora sua produção foi colocada em operação. “Inicialmente, o computador foi criado para cálculos complexos relacionados à pesquisa nuclear e de foguetes”, escreve Arkady Volovik na revista Kompaniya. armas nucleares, e esses experimentos acabaram permitindo que as superpotências abandonassem os testes reais de armas atômicas. Assim, o poderoso computador multiprocessador Blue Pacific da IBM é usado justamente para simular testes de armas nucleares. negociações para impedir testes nucleares Compaq Computer Corp. constrói o maior supercomputador da Europa baseado em 2500 processadores Alpha A Comissão Francesa de Energia Nuclear usará o supercomputador para melhorar a segurança dos arsenais franceses sem mais testes nucleares. Não são necessários cálculos menos em grande escala no projeto da tecnologia da aviação. Modelar os parâmetros de uma aeronave requer um poder enorme - por exemplo, para calcular a superfície de uma aeronave, é necessário calcular os parâmetros do fluxo de ar em cada ponto da asa e fuselagem, por centímetro quadrado. Em outras palavras, é necessário resolver a equação para cada centímetro quadrado, e a área da superfície da aeronave é de dezenas de metros quadrados. Ao alterar a geometria da superfície, tudo deve ser recalculado. Além disso, esses cálculos devem ser feitos rapidamente, caso contrário, o processo de projeto será atrasado. Quanto à astronáutica, começou não com voos, mas com cálculos. Os supercomputadores têm um enorme campo de aplicação aqui." A Boeing Corporation implantou um superaglomerado desenvolvido pela Linux NetworX e usado para simular o comportamento do combustível no foguete Delta IV, projetado para lançar satélites para diversos fins. Das quatro arquiteturas de cluster consideradas, a Boeing escolheu o cluster Linux NetworX porque oferece um custo de operação aceitável e até supera os requisitos do projeto Delta IV em termos de poder computacional. O cluster é composto por 96 servidores baseados em processadores AMD Athlon 850 MHz, interconectados por meio de conexões Ethernet de alta velocidade. Em 2001, a IBM instalou um cluster Linux de 512 processadores com capacidade de processamento de 478 bilhões de operações por segundo para o Departamento de Defesa dos EUA no Centro de Supercomputação no Havaí. Além do Pentágono, o cluster também será utilizado por outros departamentos federais e instituições científicas: em particular, um cluster para prever a velocidade e direção da propagação de incêndios florestais. O sistema será composto por 256 servidores thin IBM eServerx330, cada um contendo dois processadores Pentium-III. Os servidores serão vinculados usando um mecanismo de cluster desenvolvido pela Myricom. No entanto, o escopo dos supercomputadores não se limita ao complexo industrial-militar. Hoje, as empresas de biotecnologia são grandes clientes de supercomputadores.
"Como parte do programa Genoma Humano, a IBM", escreve Volovik, "recebeu uma ordem para criar um computador com várias dezenas de milhares de processadores. No entanto, a decodificação do genoma humano não é o único exemplo do uso de computadores em biologia: a criação de novos medicamentos hoje só é possível com o uso de computadores potentes Por isso, as gigantes farmacêuticas são obrigadas a investir pesadamente em tecnologia da computação, formando um mercado para Hewlett-Packard, Sun, Compaq. Não faz muito tempo, a criação de um novo medicamento levou de 5 a 7 anos e exigiu custos financeiros significativos. Hoje, no entanto, os medicamentos são modelados em computadores poderosos que não apenas "construem" medicamentos, mas também avaliam seu efeito em humanos. Imunologistas americanos criaram um medicamento que pode combater 160 Este medicamento foi modelado em um computador durante seis meses. Outra maneira de criá-lo exigiria vários anos de trabalho". E no Laboratório Nacional de Los Alamos, a epidemia mundial de AIDS foi "revertida" de volta à sua origem. Dados sobre cópias do vírus da AIDS foram colocados em um supercomputador, e isso possibilitou determinar a época do aparecimento do primeiro vírus - 1930. Em meados da década de 1990, surgiu outro grande mercado para supercomputadores. Esse mercado está diretamente relacionado ao desenvolvimento da Internet. A quantidade de informação na Web atingiu proporções sem precedentes e continua a crescer. Além disso, a informação na Internet está crescendo de forma não linear. Junto com o aumento do volume de dados, a forma de sua apresentação também está mudando - música, vídeo e animação foram adicionados ao texto e desenhos. Como resultado, surgiram dois problemas - onde armazenar a quantidade cada vez maior de dados e como reduzir o tempo necessário para encontrar as informações corretas. Os supercomputadores também são usados em todas as áreas onde é necessário processar grandes quantidades de dados. Por exemplo, na banca, logística, turismo, transporte. A Compaq recentemente concedeu um contrato de supercomputador de US$ 200 milhões ao Departamento de Energia dos EUA. Hironobu Sakaguchi, presidente da empresa de jogos para PC Square, diz: "Hoje estamos fazendo um filme baseado em nossos jogos. Square "calcula" um quadro de um filme em 5 horas. No GCube, essa operação leva 1/30 de segundo ." Assim, o processo de produção de mídia atinge um novo patamar: o tempo de trabalho no produto é reduzido, o custo de um filme ou jogo é significativamente reduzido. O alto nível de competição obriga os jogadores a reduzir os preços dos supercomputadores. Uma maneira de manter o preço baixo é usar muitos processadores padrão. Esta solução foi inventada por vários "jogadores" do grande mercado de computadores de uma só vez. Como resultado, servidores seriais relativamente baratos apareceram no mercado para a satisfação dos compradores. De fato, é mais fácil dividir cálculos complicados em pequenas partes e confiar a execução de cada uma dessas partes a um processador separado e barato produzido em massa. Por exemplo, o ASCI Red da "Intel", que até recentemente ocupava a primeira linha na tabela TOP500 dos computadores mais rápidos do mundo, é composto por 9632 processadores Pentium convencionais. Outra vantagem importante dessa arquitetura é sua escalabilidade: simplesmente aumentando o número de processadores, você pode aumentar o desempenho do sistema. É verdade, com algumas ressalvas: em primeiro lugar, com o aumento do número de nós de computação individuais, o desempenho não cresce em proporção direta, mas um pouco mais lentamente, parte do tempo é inevitavelmente gasto na organização da interação dos processadores entre si e em segundo lugar, a complexidade do software aumenta significativamente. Mas esses problemas estão sendo resolvidos com sucesso, e a própria ideia de "computação paralela" vem se desenvolvendo há mais de uma década. “No início dos anos noventa, surgiu uma nova ideia”, escreve Yuri Revich no Izvestia, “que foi chamada de metacomputação, ou “computação distribuída”. em um corpo comum, mas representam Inicialmente, pretendia-se combinar computadores de diferentes níveis em um único complexo computacional, por exemplo, o processamento preliminar de dados poderia ser realizado em uma estação de trabalho do usuário, modelagem básica - em um supercomputador de pipeline vetorial, resolvendo grandes sistemas de equações lineares - em um sistema massivamente paralelo, e visualização dos resultados - em uma estação gráfica especial. Estações separadas conectadas por canais de comunicação de alta velocidade podem ser da mesma classificação, é assim que está organizado o supercomputador ASCI White da IBM, que agora assumiu a primeira linha no TOP500, que consiste em 512 servidores RS / 6000 separados ( o computador que derrotou Kasparov). Mas o alcance real da ideia de “distribuição” adquiriu com a disseminação da Internet. Embora os canais de comunicação entre os nós individuais em tal rede dificilmente possam ser chamados de alta velocidade, por outro lado, os próprios nós podem ser recrutados em um número quase ilimitado: qualquer computador em qualquer parte do mundo pode estar envolvido na execução de um tarefa definida na extremidade oposta do globo. Pela primeira vez, o público em geral começou a falar sobre "computação distribuída" em conexão com o sucesso fenomenal da busca SETI@Home por civilizações extraterrestres. 1,5 milhão de voluntários que gastam seu dinheiro à noite em eletricidade pela nobre causa de encontrar contato com alienígenas fornecem 8 Tflops de poder de computação, que está apenas um pouco atrás do recordista - o mencionado supercomputador ASCI White desenvolve uma "velocidade" de 12 Tflops. De acordo com o diretor do projeto David Anderson, "um único supercomputador igual em potência ao nosso projeto custaria US$ 100 milhões, e nós o criamos a partir de quase nada". Colin Percival, um jovem estudante de matemática dos EUA, demonstrou efetivamente as possibilidades da computação distribuída. Por 2,5 anos, com a ajuda de 1742 voluntários de cinquenta países do mundo, ele bateu três recordes de uma só vez em uma competição específica, cujo objetivo é determinar novos dígitos consecutivos do número "pi". Anteriormente, ele conseguia calcular as cinco e quarenta e quarenta trilhões de casas decimais e, mais recentemente, conseguiu determinar qual número está na posição do quatrilhão. O desempenho dos supercomputadores é mais frequentemente medido e expresso em operações de ponto flutuante por segundo (FLOPS). Isso se deve ao fato de que as tarefas de modelagem numérica, para as quais são criados os supercomputadores, na maioria das vezes exigem cálculos relacionados a números reais com alto grau de precisão, e não inteiros. Portanto, para supercomputadores, uma medida da velocidade dos sistemas de computador convencionais não é aplicável - o número de milhões de operações por segundo (MIPS). Apesar de toda a sua ambigüidade e aproximação, a avaliação em flops facilita a comparação de sistemas de supercomputadores entre si, com base em um critério objetivo. Os primeiros supercomputadores tinham um desempenho da ordem de 1 kflops, ou seja, 1000 operações de ponto flutuante por segundo. O computador CDC 6600, que tinha desempenho de 1 milhão de flops (1 Mflops), foi criado em 1964. A marca de 1 bilhão de flops (1 gigaflops) foi superada pelo supercomputador NEC SX-2 em 1983 com uma pontuação de 1.3 Gflops. O limite de 1 trilhão de flops (1 Tflops) foi alcançado em 1996 pelo supercomputador ASCI Red. A marca de 1 quatrilhão de flops (1 Petaflops) foi alcançada em 2008 pelo supercomputador IBM Roadrunner. O trabalho está em andamento para construir computadores exascale capazes de 2016 quintilhão de operações de ponto flutuante por segundo até 1. Autor: Musskiy S.A. Recomendamos artigos interessantes seção A história da tecnologia, tecnologia, objetos ao nosso redor: Veja outros artigos seção A história da tecnologia, tecnologia, objetos ao nosso redor. Leia e escreva útil comentários sobre este artigo. Últimas notícias de ciência e tecnologia, nova eletrônica: Uma nova maneira de controlar e manipular sinais ópticos
05.05.2024 Teclado Primium Seneca
05.05.2024 Inaugurado o observatório astronômico mais alto do mundo
04.05.2024
Outras notícias interessantes: ▪ Novos modelos de Sony Reader ▪ Dieta de grãos integrais reduz o risco de doença cardiovascular Feed de notícias de ciência e tecnologia, nova eletrônica
Materiais interessantes da Biblioteca Técnica Gratuita: ▪ seção do site Cálculos de rádio amador. Seleção de artigos ▪ artigo Cortesão astuto. expressão popular ▪ artigo Mástique de pistache. Lendas, cultivo, métodos de aplicação ▪ artigo Multivibrador simétrico. Enciclopédia de rádio eletrônica e engenharia elétrica ▪ artigo Duas tensões de uma fonte. Enciclopédia de rádio eletrônica e engenharia elétrica
Deixe seu comentário neste artigo: Todos os idiomas desta página Página principal | Biblioteca | Artigos | Mapa do Site | Revisões do site www.diagrama.com.ua |