Menu English Ukrainian Russo Início

Biblioteca técnica gratuita para amadores e profissionais Biblioteca técnica gratuita


HISTÓRIA DA TECNOLOGIA, TECNOLOGIA, OBJETOS AO REDOR DE NÓS
Biblioteca gratuita / Diretório / A história da tecnologia, tecnologia, objetos ao nosso redor

Supercomputador. História da invenção e produção

A história da tecnologia, tecnologia, objetos ao nosso redor

Diretório / A história da tecnologia, tecnologia, objetos ao nosso redor

Comentários do artigo Comentários do artigo

Um supercomputador é um computador significativamente superior em seus parâmetros técnicos à maioria dos computadores existentes. Como regra, os supercomputadores modernos são um grande número de computadores servidores de alto desempenho conectados uns aos outros por um backbone local de alta velocidade para atingir o desempenho máximo dentro da estrutura da abordagem de paralelização da tarefa computacional.

Em 1996, o curador do Museu de Computação do Reino Unido, Doron Swade, escreveu um artigo com um título sensacional: "A série russa de supercomputadores BESM, desenvolvida há mais de 40 anos, pode testemunhar as mentiras dos Estados Unidos, que declarou superioridade tecnológica durante os anos da Guerra Fria."

De fato, meados da década de 1960 foi um ponto alto na história da tecnologia de computadores soviética. Naquela época, muitas equipes criativas trabalhavam na URSS - os institutos da S.A. Lebedeva, I. S. Brook, V. M. Glushkov, etc. Ao mesmo tempo, muitos tipos diferentes de máquinas foram produzidos, na maioria das vezes incompatíveis entre si, para os mais diversos fins.

Criado em 1965 e lançado pela primeira vez em 1967, o BESM-6 foi o computador russo original, projetado em paridade com o seu homólogo ocidental. Depois houve o famoso "Elbrus", houve o desenvolvimento do BESM (Elbrus-B). V.M. Glushkov criou uma maravilhosa Máquina de Cálculo de Engenharia - "Mir-2" (um protótipo de um computador pessoal), que ainda não possui análogos ocidentais.

Foi a equipe Elbrus que foi a primeira a desenvolver a arquitetura superescalar, tendo construído a máquina Elbrus-1 baseada nela muitos anos antes do Ocidente. Nesta equipe, alguns anos antes da empresa "Cray" - um líder reconhecido na produção de supercomputadores, as idéias de um computador multiprocessador foram implementadas.

Supercomputador
Supercomputador Cray-2

Boris Artashesovich Babayan, supervisor científico do grupo Elbrus, professor, membro correspondente da Academia Russa de Ciências, acredita que a conquista mais significativa do grupo é a arquitetura da supermáquina Elbrus-3. "A velocidade lógica desta máquina é muito superior à de todas as existentes, ou seja, no mesmo hardware, esta arquitectura permite várias vezes acelerar a execução da tarefa. Implementámos suporte de hardware para programação segura para os primeiros tempo, nem tentamos no Ocidente. "Elbrus-3" foi construído em 1991. Já estava pronto em nosso instituto, começamos a depurá-lo. As empresas ocidentais falaram tanto sobre a possibilidade de criar tal arquitetura .. A tecnologia era nojenta, mas a arquitetura era tão perfeita que essa máquina era duas vezes mais rápida que o supercarro americano mais rápido da época, o Cray Y-MP."

Os princípios da programação segura estão sendo implementados no conceito da linguagem Java, e idéias semelhantes às de Elbrus já formaram a base do processador de nova geração, Merced, desenvolvido pela Intel em conjunto com a HP. "Se você olhar para o Merced, é praticamente a mesma arquitetura do Elbrus-3. Talvez alguns detalhes do Merced sejam diferentes, e não para melhor."

Assim, apesar da estagnação geral, ainda era possível construir computadores e supercomputadores. Infelizmente, aconteceu o mesmo com nossos computadores que aconteceu com a indústria russa em geral. Mas hoje, um novo parâmetro, exótico à primeira vista, luta persistentemente para entrar no número de indicadores macroeconômicos tradicionais (como PIB e reservas de ouro e divisas) - a capacidade total de computadores que o país possui. Os supercomputadores terão a maior participação neste indicador. Quinze anos atrás, essas máquinas eram monstros únicos, mas agora sua produção foi colocada em operação.

“Inicialmente, o computador foi criado para cálculos complexos relacionados à pesquisa nuclear e de foguetes”, escreve Arkady Volovik na revista Kompaniya. armas nucleares, e esses experimentos acabaram permitindo que as superpotências abandonassem os testes reais de armas atômicas. Assim, o poderoso computador multiprocessador Blue Pacific da IBM é usado justamente para simular testes de armas nucleares. negociações para impedir testes nucleares Compaq Computer Corp. constrói o maior supercomputador da Europa baseado em 2500 processadores Alpha A Comissão Francesa de Energia Nuclear usará o supercomputador para melhorar a segurança dos arsenais franceses sem mais testes nucleares.

Não são necessários cálculos menos em grande escala no projeto da tecnologia da aviação. Modelar os parâmetros de uma aeronave requer um poder enorme - por exemplo, para calcular a superfície de uma aeronave, é necessário calcular os parâmetros do fluxo de ar em cada ponto da asa e fuselagem, por centímetro quadrado. Em outras palavras, é necessário resolver a equação para cada centímetro quadrado, e a área da superfície da aeronave é de dezenas de metros quadrados. Ao alterar a geometria da superfície, tudo deve ser recalculado. Além disso, esses cálculos devem ser feitos rapidamente, caso contrário, o processo de projeto será atrasado. Quanto à astronáutica, começou não com voos, mas com cálculos. Os supercomputadores têm um enorme campo de aplicação aqui."

A Boeing Corporation implantou um superaglomerado desenvolvido pela Linux NetworX e usado para simular o comportamento do combustível no foguete Delta IV, projetado para lançar satélites para diversos fins. Das quatro arquiteturas de cluster consideradas, a Boeing escolheu o cluster Linux NetworX porque oferece um custo de operação aceitável e até supera os requisitos do projeto Delta IV em termos de poder computacional. O cluster é composto por 96 servidores baseados em processadores AMD Athlon 850 MHz, interconectados por meio de conexões Ethernet de alta velocidade.

Em 2001, a IBM instalou um cluster Linux de 512 processadores com capacidade de processamento de 478 bilhões de operações por segundo para o Departamento de Defesa dos EUA no Centro de Supercomputação no Havaí. Além do Pentágono, o cluster também será utilizado por outros departamentos federais e instituições científicas: em particular, um cluster para prever a velocidade e direção da propagação de incêndios florestais. O sistema será composto por 256 servidores thin IBM eServerx330, cada um contendo dois processadores Pentium-III. Os servidores serão vinculados usando um mecanismo de cluster desenvolvido pela Myricom.

No entanto, o escopo dos supercomputadores não se limita ao complexo industrial-militar. Hoje, as empresas de biotecnologia são grandes clientes de supercomputadores.

Supercomputador
Supercomputador IBM BlueGene/L

"Como parte do programa Genoma Humano, a IBM", escreve Volovik, "recebeu uma ordem para criar um computador com várias dezenas de milhares de processadores. No entanto, a decodificação do genoma humano não é o único exemplo do uso de computadores em biologia: a criação de novos medicamentos hoje só é possível com o uso de computadores potentes Por isso, as gigantes farmacêuticas são obrigadas a investir pesadamente em tecnologia da computação, formando um mercado para Hewlett-Packard, Sun, Compaq. Não faz muito tempo, a criação de um novo medicamento levou de 5 a 7 anos e exigiu custos financeiros significativos. Hoje, no entanto, os medicamentos são modelados em computadores poderosos que não apenas "construem" medicamentos, mas também avaliam seu efeito em humanos. Imunologistas americanos criaram um medicamento que pode combater 160 Este medicamento foi modelado em um computador durante seis meses. Outra maneira de criá-lo exigiria vários anos de trabalho".

E no Laboratório Nacional de Los Alamos, a epidemia mundial de AIDS foi "revertida" de volta à sua origem. Dados sobre cópias do vírus da AIDS foram colocados em um supercomputador, e isso possibilitou determinar a época do aparecimento do primeiro vírus - 1930.

Em meados da década de 1990, surgiu outro grande mercado para supercomputadores. Esse mercado está diretamente relacionado ao desenvolvimento da Internet. A quantidade de informação na Web atingiu proporções sem precedentes e continua a crescer. Além disso, a informação na Internet está crescendo de forma não linear. Junto com o aumento do volume de dados, a forma de sua apresentação também está mudando - música, vídeo e animação foram adicionados ao texto e desenhos. Como resultado, surgiram dois problemas - onde armazenar a quantidade cada vez maior de dados e como reduzir o tempo necessário para encontrar as informações corretas.

Os supercomputadores também são usados ​​em todas as áreas onde é necessário processar grandes quantidades de dados. Por exemplo, na banca, logística, turismo, transporte. A Compaq recentemente concedeu um contrato de supercomputador de US$ 200 milhões ao Departamento de Energia dos EUA.

Hironobu Sakaguchi, presidente da empresa de jogos para PC Square, diz: "Hoje estamos fazendo um filme baseado em nossos jogos. Square "calcula" um quadro de um filme em 5 horas. No GCube, essa operação leva 1/30 de segundo ." Assim, o processo de produção de mídia atinge um novo patamar: o tempo de trabalho no produto é reduzido, o custo de um filme ou jogo é significativamente reduzido.

O alto nível de competição obriga os jogadores a reduzir os preços dos supercomputadores. Uma maneira de manter o preço baixo é usar muitos processadores padrão. Esta solução foi inventada por vários "jogadores" do grande mercado de computadores de uma só vez. Como resultado, servidores seriais relativamente baratos apareceram no mercado para a satisfação dos compradores.

De fato, é mais fácil dividir cálculos complicados em pequenas partes e confiar a execução de cada uma dessas partes a um processador separado e barato produzido em massa. Por exemplo, o ASCI Red da "Intel", que até recentemente ocupava a primeira linha na tabela TOP500 dos computadores mais rápidos do mundo, é composto por 9632 processadores Pentium convencionais. Outra vantagem importante dessa arquitetura é sua escalabilidade: simplesmente aumentando o número de processadores, você pode aumentar o desempenho do sistema. É verdade, com algumas ressalvas: em primeiro lugar, com o aumento do número de nós de computação individuais, o desempenho não cresce em proporção direta, mas um pouco mais lentamente, parte do tempo é inevitavelmente gasto na organização da interação dos processadores entre si e em segundo lugar, a complexidade do software aumenta significativamente. Mas esses problemas estão sendo resolvidos com sucesso, e a própria ideia de "computação paralela" vem se desenvolvendo há mais de uma década.

“No início dos anos noventa, surgiu uma nova ideia”, escreve Yuri Revich no Izvestia, “que foi chamada de metacomputação, ou “computação distribuída”. em um corpo comum, mas representam Inicialmente, pretendia-se combinar computadores de diferentes níveis em um único complexo computacional, por exemplo, o processamento preliminar de dados poderia ser realizado em uma estação de trabalho do usuário, modelagem básica - em um supercomputador de pipeline vetorial, resolvendo grandes sistemas de equações lineares - em um sistema massivamente paralelo, e visualização dos resultados - em uma estação gráfica especial.

Estações separadas conectadas por canais de comunicação de alta velocidade podem ser da mesma classificação, é assim que está organizado o supercomputador ASCI White da IBM, que agora assumiu a primeira linha no TOP500, que consiste em 512 servidores RS / 6000 separados ( o computador que derrotou Kasparov). Mas o alcance real da ideia de “distribuição” adquiriu com a disseminação da Internet. Embora os canais de comunicação entre os nós individuais em tal rede dificilmente possam ser chamados de alta velocidade, por outro lado, os próprios nós podem ser recrutados em um número quase ilimitado: qualquer computador em qualquer parte do mundo pode estar envolvido na execução de um tarefa definida na extremidade oposta do globo.

Pela primeira vez, o público em geral começou a falar sobre "computação distribuída" em conexão com o sucesso fenomenal da busca SETI@Home por civilizações extraterrestres. 1,5 milhão de voluntários que gastam seu dinheiro à noite em eletricidade pela nobre causa de encontrar contato com alienígenas fornecem 8 Tflops de poder de computação, que está apenas um pouco atrás do recordista - o mencionado supercomputador ASCI White desenvolve uma "velocidade" de 12 Tflops. De acordo com o diretor do projeto David Anderson, "um único supercomputador igual em potência ao nosso projeto custaria US$ 100 milhões, e nós o criamos a partir de quase nada".

Colin Percival, um jovem estudante de matemática dos EUA, demonstrou efetivamente as possibilidades da computação distribuída. Por 2,5 anos, com a ajuda de 1742 voluntários de cinquenta países do mundo, ele bateu três recordes de uma só vez em uma competição específica, cujo objetivo é determinar novos dígitos consecutivos do número "pi". Anteriormente, ele conseguia calcular as cinco e quarenta e quarenta trilhões de casas decimais e, mais recentemente, conseguiu determinar qual número está na posição do quatrilhão.

O desempenho dos supercomputadores é mais frequentemente medido e expresso em operações de ponto flutuante por segundo (FLOPS). Isso se deve ao fato de que as tarefas de modelagem numérica, para as quais são criados os supercomputadores, na maioria das vezes exigem cálculos relacionados a números reais com alto grau de precisão, e não inteiros. Portanto, para supercomputadores, uma medida da velocidade dos sistemas de computador convencionais não é aplicável - o número de milhões de operações por segundo (MIPS). Apesar de toda a sua ambigüidade e aproximação, a avaliação em flops facilita a comparação de sistemas de supercomputadores entre si, com base em um critério objetivo.

Os primeiros supercomputadores tinham um desempenho da ordem de 1 kflops, ou seja, 1000 operações de ponto flutuante por segundo. O computador CDC 6600, que tinha desempenho de 1 milhão de flops (1 Mflops), foi criado em 1964. A marca de 1 bilhão de flops (1 gigaflops) foi superada pelo supercomputador NEC SX-2 em 1983 com uma pontuação de 1.3 Gflops. O limite de 1 trilhão de flops (1 Tflops) foi alcançado em 1996 pelo supercomputador ASCI Red. A marca de 1 quatrilhão de flops (1 Petaflops) foi alcançada em 2008 pelo supercomputador IBM Roadrunner. O trabalho está em andamento para construir computadores exascale capazes de 2016 quintilhão de operações de ponto flutuante por segundo até 1.

Autor: Musskiy S.A.

 Recomendamos artigos interessantes seção A história da tecnologia, tecnologia, objetos ao nosso redor:

▪ Cruseiros

▪ Computador pessoal

▪ Torradeira

Veja outros artigos seção A história da tecnologia, tecnologia, objetos ao nosso redor.

Leia e escreva útil comentários sobre este artigo.

<< Voltar

Últimas notícias de ciência e tecnologia, nova eletrônica:

Uma nova maneira de controlar e manipular sinais ópticos 05.05.2024

O mundo moderno da ciência e da tecnologia está se desenvolvendo rapidamente e todos os dias surgem novos métodos e tecnologias que nos abrem novas perspectivas em vários campos. Uma dessas inovações é o desenvolvimento, por cientistas alemães, de uma nova forma de controlar sinais ópticos, que poderá levar a progressos significativos no campo da fotónica. Pesquisas recentes permitiram que cientistas alemães criassem uma placa de ondas sintonizável dentro de um guia de ondas de sílica fundida. Este método, baseado no uso de uma camada de cristal líquido, permite alterar efetivamente a polarização da luz que passa por um guia de ondas. Este avanço tecnológico abre novas perspectivas para o desenvolvimento de dispositivos fotônicos compactos e eficientes, capazes de processar grandes volumes de dados. O controle eletro-óptico da polarização fornecido pelo novo método poderia fornecer a base para uma nova classe de dispositivos fotônicos integrados. Isto abre grandes oportunidades para ... >>

Teclado Primium Seneca 05.05.2024

Os teclados são parte integrante do nosso trabalho diário com o computador. Porém, um dos principais problemas que os usuários enfrentam é o ruído, principalmente no caso dos modelos premium. Mas com o novo teclado Seneca da Norbauer & Co, isso pode mudar. O Seneca não é apenas um teclado, é o resultado de cinco anos de trabalho de desenvolvimento para criar o dispositivo ideal. Cada aspecto deste teclado, desde propriedades acústicas até características mecânicas, foi cuidadosamente considerado e equilibrado. Uma das principais características do Seneca são os estabilizadores silenciosos, que resolvem o problema de ruído comum a muitos teclados. Além disso, o teclado suporta várias larguras de teclas, tornando-o conveniente para qualquer usuário. Embora Seneca ainda não esteja disponível para compra, seu lançamento está programado para o final do verão. O Seneca da Norbauer & Co representa novos padrões em design de teclado. Dela ... >>

Inaugurado o observatório astronômico mais alto do mundo 04.05.2024

Explorar o espaço e seus mistérios é uma tarefa que atrai a atenção de astrônomos de todo o mundo. No ar puro das altas montanhas, longe da poluição luminosa das cidades, as estrelas e os planetas revelam os seus segredos com maior clareza. Uma nova página se abre na história da astronomia com a inauguração do observatório astronômico mais alto do mundo - o Observatório do Atacama da Universidade de Tóquio. O Observatório do Atacama, localizado a uma altitude de 5640 metros acima do nível do mar, abre novas oportunidades para os astrônomos no estudo do espaço. Este local tornou-se o local mais alto para um telescópio terrestre, proporcionando aos investigadores uma ferramenta única para estudar as ondas infravermelhas no Universo. Embora a localização em alta altitude proporcione céus mais claros e menos interferência da atmosfera, construir um observatório em uma montanha alta apresenta enormes dificuldades e desafios. No entanto, apesar das dificuldades, o novo observatório abre amplas perspectivas de investigação para os astrónomos. ... >>

Notícias aleatórias do Arquivo

Unidade de DVD a laser dupla combinada 18.01.2004

A empresa japonesa NEC anunciou a criação de uma unidade de DVD universal que pode reproduzir e gravar discos atuais e da próxima geração.

Esta unidade possui um laser vermelho para leitura e gravação de DVDs modernos e um laser azul para discos de nova geração. Além disso, ambos os lasers estão integrados em uma cabeça óptica, de modo que as dimensões da nova unidade serão menores do que as unidades de duas cabeças. A NEC planeja começar a vender esses drives em 2005, mas o momento exato dependerá de quantos DVDs de nova geração serão vendidos até lá.

Os primeiros drives dual-power da NEC provavelmente serão destinados a computadores, e só então eles aparecerão como parte de gravadores de DVD de consumo.

Outras notícias interessantes:

▪ Novos modelos de Sony Reader

▪ Sony descontinua o MiniDisc

▪ Dieta de grãos integrais reduz o risco de doença cardiovascular

▪ Comutadores PCI Express 5.0

▪ Smartphone Xiaomi Redmi 10C

Feed de notícias de ciência e tecnologia, nova eletrônica

 

Materiais interessantes da Biblioteca Técnica Gratuita:

▪ seção do site Cálculos de rádio amador. Seleção de artigos

▪ artigo Cortesão astuto. expressão popular

▪ artigo A pele de quais animais pode mudar de cor de forma autônoma, sem a participação da visão principal? Resposta detalhada

▪ artigo Mástique de pistache. Lendas, cultivo, métodos de aplicação

▪ artigo Multivibrador simétrico. Enciclopédia de rádio eletrônica e engenharia elétrica

▪ artigo Duas tensões de uma fonte. Enciclopédia de rádio eletrônica e engenharia elétrica

Deixe seu comentário neste artigo:

Имя:


E-mail opcional):


Comentário:





Todos os idiomas desta página

Página principal | Biblioteca | Artigos | Mapa do Site | Revisões do site

www.diagrama.com.ua

www.diagrama.com.ua
2000-2024